Acasă Păreri De ce companiile tehnologice folosesc oamenii pentru a ajuta ai | ben dickson

De ce companiile tehnologice folosesc oamenii pentru a ajuta ai | ben dickson

Cuprins:

Video: Ce este SanoPass și de ce merită să îl încerci (p) (Octombrie 2024)

Video: Ce este SanoPass și de ce merită să îl încerci (p) (Octombrie 2024)
Anonim

„Andrew Ingram” este un asistent digital care vă scanează e-mailurile, vă oferă idei de programare pentru întâlnirile și programările pe care le discutați cu colegii de serviciu, stabilește sarcini și trimite invitații către părțile relevante cu foarte puțină asistență. Utilizează capabilitățile avansate de inteligență artificială ale lui X.ai, un nou York, pe bază de startup care este specializată în dezvoltarea asistenților AI. Problemele pe care le rezolvă pot economisi mult timp și frustrări pentru persoanele (ca mine) care au un program dezordonat.

Dar, potrivit unei povești Wired publicată în mai, informațiile din spatele lui Andrew Ingram nu sunt total artificiale. Este susținut de un grup de 40 de filipinezi într-o clădire extrem de securizată de la marginea orașului Manila, care monitorizează comportamentul AI și preia de fiecare dată când asistentul se confruntă cu un caz pe care nu-l poate rezolva.

În timp ce ideea că e-mailurile dvs. sunt scanate de oameni reali ar putea suna înfiorător, a devenit o practică comună în rândul multor companii care furnizează servicii AI clienților lor. Un articol recent din The Wall Street Journal expunea mai multe firme care permit angajaților lor să acceseze și să citească e-mailurile clienților pentru a construi noi funcții și a-și instrui AI-ul în cazurile pe care nu le-a văzut până acum.

Numită tehnica „Vrăjitorul Oz” sau pseudo-AI, practica de a folosi în mod silențios omul pentru a compensa deficiențele algoritmilor AI aruncă lumină asupra unora dintre cele mai profunde provocări cu care se confruntă industria AI.

AI nu este pregătit pentru probleme largi

În spatele majorității inovațiilor AI din ultimii ani se află algoritmi de învățare profundă și rețele neuronale. Rețelele neuronale profunde sunt foarte eficiente la clasificarea informațiilor. În multe cazuri, cum ar fi recunoașterea vocii și feței sau identificarea cancerului în RMN și tomografii, acestea pot depăși oamenii.

Dar asta nu înseamnă că învățarea profundă și rețelele neuronale pot îndeplini orice sarcină pe care oamenii o pot.

"Învățarea profundă ne permite să rezolvăm problema percepției. Aceasta este o afacere importantă, deoarece percepția a limitat AI-ul de la înființarea de acum 60 de ani", spune Jonathan Mugan, cofondator și CEO al DeepGrammar. "Rezolvarea problemei de percepție a făcut în cele din urmă AI folositoare pentru lucruri precum recunoașterea vocii și robotică."

Cu toate acestea, observă Mugan, percepția nu este singura problemă. Luptele de învățare profundă sunt implicate raționamentele și înțelegerea înțelegătoare.

„Învățarea profundă nu ne ajută cu această problemă”, spune el. "Am făcut unele progrese în NLP (procesarea limbajului natural) tratând limbajul ca o problemă de percepție; adică, transformarea cuvintelor și propozițiilor în vectori. Acest lucru ne-a permis să reprezentăm mai bine textul pentru clasificare și traducere automată (atunci când există o mulțime de date), dar nu ajută la raționarea în sens comun. Acesta este motivul pentru care chatbot-urile au eșuat în mare parte."

Una dintre problemele principale cu care se confruntă toate aplicațiile de învățare profundă este aceea de a colecta datele potrivite pentru a-și antrena modelele de AI. Efortul și datele care intră în formarea unei rețele neuronale pentru a îndeplini o sarcină depind de cât de larg este spațiul problemei și de ce nivel de precizie este necesar.

De exemplu, o aplicație de clasificare a imaginilor, cum ar fi aplicația Not Hotdog de la Silicon Valley de la HBO face o sarcină foarte restrânsă și specifică: Vă spune dacă camera smartphone-ului dvs. afișează un hotdog sau nu. Cu suficiente imagini hotdog, AI-ul aplicației își poate îndeplini funcția foarte importantă cu un nivel ridicat de precizie. Și chiar dacă greșește din când în când, nu va răni pe nimeni.

Însă alte aplicații AI, cum ar fi cea care construiește X.ai, se confruntă cu probleme mult mai largi, ceea ce înseamnă că necesită o mulțime de exemple de calitate. De asemenea, toleranța lor la erori este mult mai mică. Există o mare diferență între a greși un castravete pentru un hotdog și programarea unei întâlniri de afaceri importante la un moment nepotrivit.

Din păcate, datele de calitate nu sunt o marfă pe care toate companiile o dețin.

"Regula generală este aceea că, cu cât este mai generală o problemă pe care o încearcă să o abordeze AI, cu atât mai multe cazuri de margine sau comportamente neobișnuite care pot apărea. Acest lucru înseamnă inevitabil că aveți nevoie de exemple mult mai multe de pregătire pentru a acoperi totul", spune dr. Steve Marsh, CTO la Geospock. „Startup-urile nu au acces, în general, la cantități uriașe de date de instruire, astfel încât modelele pe care le pot construi în mod fezabil vor fi foarte nișe și fragile, care de obicei nu sunt la nivelul așteptărilor lor.

O astfel de bogăție de informații este în posesia doar a unor companii mari, precum Facebook și Google, care colectează datele de miliarde de utilizatori de ani buni. Companiile mai mici trebuie să plătească sume mari pentru a obține sau a crea date de instruire și asta întârzie lansarea cererii. Alternativa este să lansezi oricum și să începi să-și antreneze AI-ul pe mers, folosind traineri umani și date cu clienții în direct și sperând că, în cele din urmă, AI va deveni mai puțin bazat pe oameni.

De exemplu, Edison Software, o companie din California care dezvoltă aplicații pentru gestionarea e-mailurilor, a avut angajații săi să citească e-mailurile clienților săi pentru a dezvolta o caracteristică „răspuns inteligent”, deoarece nu aveau suficiente date pentru a antrena algoritmul, compania. CEO a declarat pentru The Wall Street Journal. Crearea de răspunsuri inteligente este o sarcină largă și provocatoare. Chiar și Google, care are acces la e-mailurile a miliarde de utilizatori, oferă răspunsuri inteligente pentru cazuri foarte restrânse.

Dar utilizarea oamenilor pentru a instrui AI cu datele utilizatorilor live nu se limitează la companii mai mici.

În 2015, Facebook a lansat M, un chatbot AI care ar putea înțelege și răspunde la nuanțe diferite de conversații și îndeplini multe sarcini. Facebook a pus M la dispoziția unui număr limitat de utilizatori din California și a creat un personal de operatori umani care ar monitoriza performanța AI și ar interveni pentru a-l corecta atunci când nu a putut înțelege o solicitare a utilizatorului. Planul inițial era acela de a ajuta operatorii umani să-l învețe pe asistent să răspundă la cazurile pe care nu le văzuse până acum. În timp, M ar putea opera fără ajutorul oamenilor.

Un obiectiv de neatins?

Nu este clar cât timp va dura pentru Edison Software, X.ai și alte companii care au lansat sisteme umane în buclă pentru a-și face AI-ul complet automatizat. Există, de asemenea, îndoieli dacă tendințele actuale ale AI pot ajunge vreodată la implicarea în domenii mai largi.

În 2018, Facebook a oprit M fără ca fiecare să îl implementeze oficial. Compania nu a distribuit detalii, dar este clar că crearea unui chatbot care poate angaja în conversații largi este foarte dificilă. Și punerea la dispoziție a M a tuturor celor două miliarde de utilizatori Facebook, fără ca mai întâi să fie complet capabil să răspundă automat la tot felul de conversații, ar fi cerut gigantului social media să angajeze un personal uriaș de oameni pentru a umple golurile lui M.

DeepGrammar’s Mugan consideră că în cele din urmă vom putea să creăm AI care să poată rezolva raționamentele sensibile, ceea ce alții clasifică drept AI general. Dar nu se va întâmpla oricând curând. „În prezent, nu există metode la orizont care să permită unui computer să înțeleagă ce știe un copil mic”, spune Mugan. „Fără această înțelegere de bază, calculatoarele nu vor putea face multe sarcini bine 100% din timp”.

Pentru a pune asta în perspectivă, experții de la OpenAI au dezvoltat recent Dactyl, o mână robotizată care ar putea gestiona obiecte. Aceasta este o sarcină pe care orice copil uman învață să o îndeplinească subconștient la o vârstă fragedă. Dar a fost nevoie de D142 6.144 procesoare și 8 GPU-uri și o experiență de aproximativ o sută de ani pentru a dezvolta aceleași abilități. Deși este o realizare fascinantă, evidențiază, de asemenea, diferențele accentuate între AI îngustă și modul în care funcționează creierul uman.

„Suntem la o cale foarte lungă de a avea inteligență generală artificială și, probabil, AGI va fi combinația și coordonarea multor tipuri diferite de AI înguste sau specifice aplicației”, spune Marsh. "Cred că există o tendință de a exagera capacitățile AI în acest moment, dar văd că există o valoare enormă doar în a face primii pași inițiali și a implementa modele tradiționale de învățare automată".

Mai este încă o iarnă AI?

În 1984, Asociația Americană de Inteligență Artificială (mai târziu redenumită Asociația pentru Îmbunătățirea Inteligenței Artificiale) a avertizat comunitatea de afaceri că hype și entuziasm în jurul AI-ului vor duce în cele din urmă la dezamăgire. La scurt timp, investițiile și interesul pentru AI s-au prăbușit, ceea ce a dus la o eră mai cunoscută drept „iarna AI”.

De la începutul anilor 2010, interesul și investițiile în domeniu au crescut din nou. Unii experți se tem că, dacă aplicațiile AI au performanțe reduse și nu reușesc să îndeplinească așteptările, va urma o altă iarnă AI. Experții despre care am vorbit, cred că AI a devenit deja prea integrată în viața noastră pentru a-i retrage pașii.

„Nu cred că suntem în pericol de o iarnă de AI, ca cele de mai înainte, deoarece AI furnizează acum o valoare reală, nu doar o valoare ipotetică”, spune Mugan. "Cu toate acestea, dacă continuăm să spunem publicului larg că calculatoarele sunt inteligente precum oamenii, riscăm o reacție inversă. Nu vom reveni pentru a nu folosi învățarea profundă pentru percepție, dar termenul„ AI "ar putea fi amețit, iar noi ar trebui să-l numim altceva ".

Ceea ce este sigur este că cel puțin, o eră de deziluzie stă în fața noastră. Suntem pe punctul de a afla măsura în care putem avea încredere în amestecurile actuale de AI în diferite domenii.

"Ceea ce mă aștept să văd este faptul că unele companii sunt plăcute surprinse de cât de repede pot oferi o IA pentru un serviciu anterior manual și scump, și că alte companii vor constata că este nevoie de mai mult timp decât se așteptau să colecteze suficiente date pentru a deveni viabil din punct de vedere financiar ", spune James Bergstra, cofondator și șef de cercetare la Kindred.ai. „Dacă sunt prea mulți dintre aceștia din urmă și nu sunt suficienți dintre cei dintâi, s-ar putea să declanșeze o altă iarnă AI printre investitori.

  • Inteligența artificială are o problemă de prejudecată și este defectul nostru Inteligența artificială are o problemă de părtinire și este defectul nostru
  • De ce a învăța AI pentru a juca jocuri este important De ce a învăța AI pentru a juca jocuri este important
  • AI oferă un potențial imens, dar nu se va întâmpla peste noapte AI oferă un potențial imens, dar nu se va întâmpla peste noapte

Geospock's Marsh prevede că, în timp ce finanțarea nu va scădea, vor exista unele ajustări ale dinamicii sale. Întrucât investitorii își dau seama că adevărata expertiză este rară și doar cei cu acces la date pentru instruirea modelelor vor fi diferențiali în industrie, va exista o consolidare mare pe piață și mult mai puține startup-uri vor primi finanțare.

"Pentru multe startup-uri AI fără o aplicație de piață de nișă sau cantități vaste de date: vine iarna", concluzionează Marsh.

De ce companiile tehnologice folosesc oamenii pentru a ajuta ai | ben dickson