Acasă Păreri De ce ai trebuie să dezvăluim că este ai

De ce ai trebuie să dezvăluim că este ai

Cuprins:

Video: 8 cele mai mișto joburi (Octombrie 2024)

Video: 8 cele mai mișto joburi (Octombrie 2024)
Anonim

Google a redimensionat recent Duplex pentru a dezvălui explicit gazdelor restaurantului și personalului salonului că vorbesc cu Google Assistant și sunt înregistrate.

Google a omis acest mic, dar important detaliu atunci când a introdus pentru prima dată Duplex în cadrul conferinței sale de dezvoltatori I / O din mai. A apărut o reacție mediatică, iar criticii au reînnoit temerile vechi cu privire la implicațiile agenților AI care pot declanșa comportamentele umane în moduri indistinguibile.

Prin redactarea Duplex, Google respinge o parte din aceste critici. Dar de ce este atât de important ca companiile să fie transparente cu privire la identitatea agenților lor AI?

Asistenții AI pot servi scopurilor rele?

"Există o așteptare din ce în ce mai mare ca atunci când trimiteți o afacere, puteți interacționa cu un chatbot alimentat de AI. Dar când auziți de fapt o vorbire umană, în general așteptați să fie o persoană reală", spune Joshua March, CEO de Coversocial.

March spune că suntem la începutul oamenilor care au interacțiuni semnificative cu AI în mod regulat, iar progresele în domeniu au creat teama că hackerii ar putea exploata agenții AI în scopuri rău intenționate.

"Într-un scenariu cel mai bun, AI-urile cu intenții rău intenționate ar putea jigni oamenii", spune Marcio Avillez, SVP al rețelelor de la Cujo AI. Dar Marcio adaugă că ne putem confrunta cu amenințări mai grave. De exemplu, AI poate învăța tipare lingvistice specifice, făcând mai ușoară adaptarea tehnologiei pentru a manipula oamenii, pentru a înfăptui victimele și a atacurilor de vishing scenic (phishing vocal) și activități similare.

Mulți experți sunt de acord că amenințarea este reală. Într-o coloană pentru CIO, Steven Brykman a prezentat diferitele moduri în care poate fi exploatată o tehnologie precum Duplex: „Cel puțin cu oamenii care numesc oameni, există încă un factor limitativ - un om poate face atât de multe apeluri pe oră pe zi. Oamenii trebuie să fie plătiți, să facă pauze și așa mai departe. Dar un chatbot AI ar putea literalmente să efectueze un număr nelimitat de apeluri către un număr nelimitat de oameni într-o varietate nelimitată de moduri!"

În această etapă, cea mai mare parte a ceea ce auzim este speculația; încă nu știm amploarea și seriozitatea amenințărilor care pot apărea odată cu apariția asistenților vocali. Dar multe dintre atacurile potențiale care implică asistenți vocali pot fi dezamorsate dacă compania care furnizează tehnologia comunică în mod explicit utilizatorilor atunci când interacționează cu un agent AI.

Probleme de confidențialitate

O altă problemă legată de utilizarea tehnologiilor precum Duplex este riscul potențial pentru confidențialitate. Sistemele bazate pe AI au nevoie de date despre utilizator pentru a-și instrui și îmbunătăți algoritmii, iar Duplex nu face excepție. Modul de stocare, securizare și utilizare a acestor date este foarte important.

Apar noi reglementări care impun companiilor să obțină consimțământul explicit al utilizatorilor atunci când doresc să își colecteze informațiile, dar au fost proiectate în cea mai mare parte pentru a acoperi tehnologii în care utilizatorii inițiază intenționat interacțiunile. Acest lucru are sens pentru asistenții AI precum Siri și Alexa, care sunt activate de utilizator. Dar nu este clar modul în care noile reguli s-ar aplica asistenților AI care ajung la utilizatori fără a fi declanșat.

În articolul său, Brykman subliniază necesitatea de a stabili garanții de reglementare, cum ar fi legi care impun companiilor să declare prezența unui agent AI - sau o lege care, atunci când întrebi un chatbot dacă este un chatbot, trebuie să spună: „Da, Sunt un chatbot ”. Astfel de măsuri ar oferi interlocutorului uman șansa de a se dezactiva sau cel puțin să decidă dacă dorește să interacționeze cu un sistem AI care înregistrează vocea.

Chiar și cu astfel de legi, problemele de confidențialitate nu vor dispărea. "Cel mai mare risc pe care îl prevăd în actuala încarnare a tehnologiei este că va oferi Google date mai multe despre viața noastră privată pe care nu o avea deja. Până în acest moment, ei nu știau decât despre comunicațiile noastre online; acum vor obține informații reale despre conversațiile noastre din lumea reală ", spune Vian Chinner, fondator și CEO al Xineoh.

Scandale recente de confidențialitate care implică companii mari de tehnologie, în care au folosit datele utilizatorilor în moduri discutabile pentru propriile lor câștiguri, au creat un sentiment de neîncredere în ceea ce privește oferirea mai multor ferestre în viața noastră. „Oamenii, în general, consideră că marile companii din Silicon Valley le vizionează ca pe un inventar în loc de clienți și au un grad mare de neîncredere față de aproape orice fac, indiferent cât de răspunzătoare și care se schimbă viața vor ajunge să fie”, spune Chinner.

Defecțiuni funcționale

În ciuda faptului că are o voce și un ton natural și folosește sunete asemănătoare omului, precum „mmhm” și „ummm”, Duplex nu este diferit de celelalte tehnologii AI contemporane și suferă de aceleași limitări.

Indiferent dacă vocea sau textul sunt utilizate ca interfață, agenții AI sunt buni în rezolvarea problemelor specifice. De aceea, le numim „AI îngustă” (spre deosebire de „AI generală” - tipul de inteligență artificială care se poate implica în rezolvarea generală a problemelor, așa cum face mintea umană). În timp ce AI-ul îngust poate fi excepțional de bun în îndeplinirea sarcinilor pentru care este programat, acesta poate eșua spectaculos atunci când i se oferă un scenariu care se abate de la domeniul său problematic.

„Dacă consumatorul crede că vorbește cu un om, va întreba probabil ceva care nu este scriptul normal al AI, și va primi apoi un răspuns frustrant atunci când botul nu înțelege”, spune March Conversocial.

În schimb, când o persoană știe că vorbește cu o AI care a fost instruită să rezerve mese la un restaurant, va încerca să evite folosirea unui limbaj care să confunde AI și să-l provoace să se comporte în moduri neașteptate, mai ales dacă aduce ei un client.

"Membrii personalului care primesc apeluri de la Duplex ar trebui să primească, de asemenea, o introducere simplă potrivit căreia aceasta nu este o persoană reală. Acest lucru ar ajuta comunicarea dintre personal și AI pentru a fi mai conservatoare și mai clare", spune Avillez.

Din acest motiv, până când (și dacă) vom dezvolta AI care să funcționeze la fel cu inteligența umană, este în interesul companiilor să fie transparente în ceea ce privește utilizarea lor.

La sfârșitul zilei, o parte din frica asistenților vocali precum Duplex este cauzată de faptul că sunt noi și încă ne obișnuim să îi întâlnim în setări noi și cazuri de utilizare. "Cel putin unii par foarte incomodati cu ideea de a vorbi cu un robot fara sa-l cunoasca, asa ca, deocamdata, ar trebui probabil dezvaluit contrapartidelor din conversatie", spune Chinner.

  • AI este (de asemenea) o forță pentru bine AI este (de asemenea) o forță pentru bine
  • Când AI blurizează linia între realitate și ficțiune, atunci când AI blochează linia dintre realitate și ficțiune
  • Inteligența artificială are o problemă de părtinire și este defectul nostru Inteligența artificială are o problemă de părtinire și este defectul nostru

Dar, pe termen lung, ne vom obișnui să interacționăm cu agenții AI, care sunt mai deștepți și mai capabili să îndeplinească sarcini care erau crezute anterior ca fiind domeniul exclusiv al operatorilor umani.

"Generației viitoare nu le va părea dacă vorbește cu o AI sau cu un om atunci când vor contacta o afacere. Vor dori doar să obțină răspunsul rapid și ușor și vor crește vorbind cu Alexa. Așteaptă mai departe stai să vorbești cu un om va fi mult mai frustrant decât să interacționezi cu un bot ", spune March Conversocial.

De ce ai trebuie să dezvăluim că este ai