Acasă Gândire înainte Aplicațiile Google, instrumente vizează „democratizarea ai”

Aplicațiile Google, instrumente vizează „democratizarea ai”

Cuprins:

Video: Evaluarea stării democrației (Octombrie 2024)

Video: Evaluarea stării democrației (Octombrie 2024)
Anonim

Pentru mine, cea mai mare temă de la conferința Google I / O de săptămâna trecută a fost „democratizarea AI” - cu alte cuvinte, făcând AI accesibilă atât utilizatorilor finali prin utilizarea sa într-o varietate de servicii Google, cât și dezvoltatorilor prin noi instrumente, programe. și chiar hardware conceput în cadrul cadrului AI TensorFlow de la Google.

CEO-ul Google, Sundar Pichai, a început conferința cu o notă-cheie în care a subliniat din nou că compania trece de la o abordare primară la o primă aplicație AI, în mod similar cu ceea ce a spus anul trecut.

El a spus că Google „a regândit toate produsele noastre și a aplicat învățarea automată și AI pentru a rezolva problemele utilizatorului. El a spus că algoritmii de învățare automată influențează deja clasamentul rezultatelor diferite în căutare și modul în care Street View acum recunoaște automat semnele. A spus el, alte servicii sunt din ce în ce mai inteligente din cauza AI, cum ar fi modul în care Google Home acceptă acum mai mulți utilizatori și modul în care Gmail lansează acum o funcție de „răspuns inteligent” în care sugerează automat răspunsuri la e-mailuri.

În acest scop, a făcut o serie de anunțuri de produse AI, atât pentru consumatori, cât și pentru dezvoltatori.

Obiectivul, Asistentul și Foto folosesc funcții AI

Pentru utilizatorii finali, cel mai vizibil dintre aceste noi eforturi este Google Lens, un set de capacități de calcul bazate pe viziune, care pot înțelege ceea ce vedeți și puteți acționa, atât în ​​Google Assistant, cât și în Google Photos.

De exemplu, el a demonstrat cum poți face o poză cu o floare și cum Google Lens o poate identifica acum. Mai prozaic, poate face o poză cu un nume de utilizator și parolă pentru Wi-Fi, și apoi înțelege automat că doriți să vă conectați și să faceți asta pentru dvs. Alte exemple includ fotografierea exterioară a unui restaurant și ca software-ul să înțeleagă despre ce este vorba, apoi vă arătăm recenzii și meniuri ale utilizatorilor. Nu este totul complet nou, dar pot să-mi imaginez că va fi destul de util - genul de lucruri pe care le vom folosi cu toții destul de mult în câțiva ani. Google spune că acest lucru se va derula în câteva luni.

Google Assistant continuă să devină mai inteligent și va încorpora Google Lens, deși cea mai mare veste despre asta este că Asistentul vine acum pe iPhone.

Aplicația populară Google Photos primește, de asemenea, o serie de alte funcții noi bazate pe AI, inclusiv „distribuirea sugerată”, unde va selecta automat cele mai bune imagini și vă va sugera să le împărtășiți cu oamenii din fotografii. Google Photos adaugă de asemenea o caracteristică care vă va permite să partajați integral sau parțial bibliotecă, astfel încât dacă faci fotografii cu copiii tăi, aceștia devin automat și o parte din biblioteca foto a partenerului tău. Și poate sugera cele mai bune fotografii pentru o carte foto.

AI-First Data Centers and New Tools Tools

Pe partea internă, Pichai a vorbit despre modul în care compania „și-a regândit” arhitectura de calcul pentru a construi „primele centre de date AI”. El a spus că Google folosește actualele sale unități de procesare a tensiunii (TPU) în toate serviciile sale, de la căutarea de bază la recunoașterea vorbirii până la concurența sa AlphaGo.

M-a intrigat în mod deosebit introducerea companiei a unei noi versiuni a TPU 2.0, despre care Pichai a spus că este capabil să ajungă la 180 de teraflops (180 de trilioane de operații în plutire pe secundă) pe o placă cu 4 cipuri sau 11, 5 petaflops în fiecare „pod” de 64 astfel de scânduri. Acestea sunt disponibile dezvoltatorilor sub denumirea de „TPU-uri cloud” de pe Google Cloud Engine și compania a spus că va pune la dispoziție cercetătorilor de învățare automată 1000 TPU-uri cloud prin intermediul noului său Cloud Research TensorFlow.

Acest lucru face parte dintr-o apăsare din ce în ce mai mare asupra TensorFlow, cadrul de învățare a mașinii open source pentru dezvoltatori, iar conferința a avut o varietate de sesiuni menite să-i determine pe mai mulți dezvoltatori să folosească acest cadru. TensorFlow pare a fi cel mai popular dintre cadrele de învățare automată, dar este doar una dintre mai multe opțiuni. (Alții includ Caffe, care este împins de Facebook și MXNet, împins de Amazon Web Services.)

Am mers la o sesiune pe tema „TensorFlow pentru non-experți”, destinată evanghelizării cadrului și Keras bibliotecă de învățare profundă și a fost împachetată. Este chestii fascinante, dar nu la fel de familiare cu instrumentele de dezvoltare mai tradiționale. Toate marile companii spun că au probleme în a găsi suficient de mulți dezvoltatori cu expertiză în învățarea mașinilor, așa că nu este de mirare să-i vezi pe toți care își împing cadrele interne. În timp ce instrumentele pentru a le folosi sunt din ce în ce mai bune, este totuși complicat. Desigur, doar apelul la un model existent este mult mai ușor, iar Google Cloud Platform, precum și Microsoft și AWS, toate au o varietate de astfel de servicii ML pe care le pot folosi dezvoltatorii.

Deoarece dezvoltarea unor astfel de servicii este atât de grea, Pichai a petrecut mult timp vorbind despre „AutoML”, o abordare care are rețele neuronale care proiectează noi rețele neuronale. El a spus că Google speră că AutoML va avea o abilitate pe care câțiva doctori o au astăzi și va face posibil pentru sute de mii de dezvoltatori să proiecteze noi plase neuronale pentru nevoile lor particulare în trei-cinci ani.

Acest lucru face parte dintr-un efort mai mare numit Google.ai pentru a aduce AI la mai multe persoane, Pichai vorbind despre o varietate de inițiative pentru utilizarea AI pentru a ajuta în îngrijirea sănătății. El a vorbit despre patologia și detectarea cancerului, secvențierea ADN-ului și descoperirea moleculelor.

Continuând tema, Dave Burke, șeful ingineriei Android, a anunțat o nouă versiune a TensorFlow optimizată pentru dispozitive mobile numită TensorFlow lite. Noua bibliotecă le va permite dezvoltatorilor să construiască modele mai ușoare de învățare profundă, concepute să funcționeze pe smartphone-urile Android, iar el a vorbit despre modul în care proiectanții de procesoare mobile lucrau la acceleratoare specifice în procesoarele lor sau DSP-uri concepute pentru referențe neuronale și chiar pentru formare.

În nota principală a dezvoltatorului, Fei Fei Li, o profesoară din Stanford, care conduce cercetarea AI a Google, a declarat că s-a alăturat Google „pentru a se asigura că toată lumea poate folosi avantajul AI pentru a rămâne competitiv și pentru a rezolva problemele care contează cel mai mult pentru ei”.

Ea a vorbit mult despre „Democratizarea AI”, inclusiv despre diversele instrumente pe care Google le pune la dispoziția dezvoltatorilor pentru aplicații specifice, cum ar fi viziunea, vorbirea, traducerea, limbajul natural și informațiile video, precum și instrumente pentru crearea propriilor modele, cum ar fi ca TensorFlow, care este mai ușor de utilizat cu mai multe API-uri la nivel înalt.

Ea a vorbit despre modul în care dezvoltatorii vor putea utiliza procesoare, GPUS sau TPU pe motorul de calcul Google. Ea a prezentat un exemplu despre cât de multă îmbunătățire a vitezei unele modele funcționează pe TPU, spunând că implicațiile cercetării sunt semnificative.

Răspunzând Pichai, ea a făcut față în noul Cloud TensorFlow Research, spunând că studenții și utilizatorii Kaggle ar trebui să se aplice pentru a-l utiliza; și a concluzionat spunând că firma și-a creat echipa AI de cloud pentru a face AI-ul democratic, pentru a vă întâlni acolo unde vă aflați, cu cele mai puternice instrumente AI pentru Google și pentru a împărtăși călătoria pe măsură ce le folosiți.

Aplicațiile Google, instrumente vizează „democratizarea ai”