Cuprins:
Video: LIVE: Oportunitatile toamnei la BVB (Noiembrie 2024)
Undeva în adâncurile întunecate ale YouTube este un videoclip care arată un extras din filmul The Fellowship of the Ring - dar nu este chiar filmul pe care ți-l amintești, deoarece Nicolas Cage joacă rolul lui Frodo, Aragorn, Legolas, Gimli și Gollum, toate la acelasi timp. Alte videoclipuri arată Cage în Terminator 2 ca T2000, Star Trek în rolul căpitanului Picard și Superman precum și Lois Lane.
Desigur, Nic Cage nu a apărut niciodată în niciunul din aceste filme. Sunt „deepfakes” produse cu FakeApp, o aplicație care folosește algoritmi de inteligență artificială pentru a schimba fețele în videoclipuri. Unele dintre aspectele profunde arată destul de convingătoare, în timp ce altele au artefacte care își trădează adevărata natură. Dar, în general, arată cât de puternici algoritmi AI au devenit în imitarea aspectului și comportamentului uman.
FakeApp este doar unul dintre mai multe instrumente noi de sinteză bazate pe AI. Alte aplicații imită vocile umane, scrierea de mână și stilurile de conversație. Și o parte din ceea ce le face semnificative este că utilizarea lor nu necesită hardware specializat sau experți calificați.
Impactul acestor aplicații este profund: vor crea oportunități fără precedent pentru creativitate, productivitate și comunicare.
Dar același instrument ar putea deschide și o cutie de fraudă, fals și propagandă a unei Pandora. De când a apărut pe Reddit în ianuarie, FakeApp a fost descărcat de peste 100.000 de ori și a precipitat o furtună de videoclipuri pornografice false cu vedete și politicieni (inclusiv din nou Cage). Reddit a interzis recent aplicația și comunitățile sale conexe de pe platforma sa.
„În urmă cu zece ani, dacă vrei să falsifici ceva, ai putea, dar trebuia să mergi într-un studio VFX sau oameni care ar putea face grafică pe computer și eventual să cheltuiască milioane de dolari”, spune dr. Tom Haines, lector în învățarea mașinilor la Universitatea din Bath. „Cu toate acestea, nu puteai să-l păstrezi un secret, pentru că ar trebui să implici multe persoane în proces”.
Acesta nu mai este cazul, prin amabilitatea unei noi generații de instrumente AI.
Jocul imitarii
FakeApp și aplicații similare sunt alimentate de învățarea profundă, ramura AI în centrul unei explozii de inovații AI din 2012. Algoritmii de învățare profundă se bazează pe rețelele neuronale, o construcție software aproximativ creată după creierul uman. Rețelele neuronale analizează și compară seturi mari de eșantioane de date pentru a găsi modele și corelații pe care oamenii le-ar lipsi în mod normal. Acest proces se numește „instruire”, iar rezultatul său este un model care poate îndeplini diverse sarcini.
În zilele anterioare, modelele de învățare profundă au fost utilizate mai ales pentru a efectua sarcini de clasificare - etichetarea obiectelor din fotografii, de exemplu, și efectuarea recunoașterii vocii și feței. Recent, oamenii de știință au folosit învățarea profundă pentru a îndeplini sarcini mai complicate, cum ar fi jocul de masă, diagnosticarea pacienților și crearea de muzică și opere de artă.
Pentru a ajusta FakeApp pentru a efectua o schimbare de fețe, utilizatorul trebuie să-l antreneze cu câteva sute de imagini cu fețele sursă și țintă. Programul rulează algoritmi de învățare profundă pentru a găsi modele și asemănări între cele două fețe. Modelul devine apoi gata să facă schimbul.
Procesul nu este simplu, dar nu trebuie să fiți un expert grafic sau un inginer de învățare automată pentru a utiliza FakeApp. Nici nu necesită un hardware scump și specializat. Un site web tutorial de tip Deepfakes recomandă un computer cu 8 GB sau mai mult RAM și o placă grafică Nvidia GTX 1060 sau mai bună, o configurație destul de modestă.
„Odată ce vă mutați într-o lume în care cineva dintr-o cameră poate falsifica ceva, atunci îl poate folosi în scopuri îndoielnice”, spune Haines. „Și pentru că este o singură persoană, păstrarea secretului este foarte ușoară”.
În 2016, Haines, care era atunci cercetător postdoctoral la University of College London, a coautorizat o hârtie și o aplicație care arăta modul în care AI ar putea învăța să imite scrierea de mână a unei persoane. Numită „My Text in Your Handwriting”, aplicația a folosit algoritmi de învățare profundă pentru a analiza și discerne stilul și fluxul scrisului de mână al autorului și alți factori, cum ar fi distanțarea și neregulile.
Aplicația ar putea apoi să ia orice text și să-l reproducă cu scrisul de mână al autorului țintă. Dezvoltatorii au adăugat chiar și o măsură aleatorie pentru a evita efectul neobișnuit de vale - senzația ciudată pe care o obținem când vedem ceva care este aproape, dar nu destul de uman. Ca dovadă a conceptului, Haines și ceilalți cercetători ai UCL au folosit tehnologia pentru a reproduce scrierea de mână a unor figuri istorice precum Abraham Lincoln, Frida Kahlo și Arthur Conan Doyle.
Aceeași tehnică poate fi aplicată oricărei alte scrieri de mână, care au ridicat îngrijorări cu privire la posibila utilizare a tehnologiei pentru fals și fraudă. Un expert în criminalistică ar putea totuși să detecteze că scenariul a fost produs de My Text în Your Handwriting, dar este probabil să păcălească oameni neînvățați, pe care Haines a recunoscut-o într-un interviu cu Digital Trends la acea vreme.
Lyrebird, un start-up cu sediul în Montreal, a folosit învățarea profundă pentru a dezvolta o aplicație care sintetizează vocea umană. Lyrebird necesită o înregistrare de un minut pentru a începe să imite vocea unei persoane, deși are nevoie de mult mai mult înainte de a începe să pară convingător.
În demo-ul său public, startup-ul a postat înregistrări false ale vocilor lui Donald Trump, Barack Obama și Hillary Clinton. Probele sunt brute și este evident că sunt sintetice. Dar, pe măsură ce tehnologia se îmbunătățește, distincția va deveni mai dificilă. Și oricine se poate înregistra la Lyrebird și poate începe crearea de înregistrări false; procesul este chiar mai ușor decât cel al lui FakeApp, iar calculele sunt efectuate în cloud, punând mai puțină încordare pe hardware-ul utilizatorului.
Faptul că această tehnologie poate fi utilizată în scopuri discutabile nu se pierde dezvoltatorilor. La un moment dat, o declarație de etică de pe site-ul Lyrebird a declarat: "Înregistrările vocale sunt considerate în prezent drept probe puternice în societățile noastre și în special în jurisdicțiile din multe țări. Tehnologia noastră pune la îndoială validitatea unor astfel de dovezi, deoarece permite manipularea ușoară a audio Acestea ar putea avea consecințe periculoase, cum ar fi diplomații înșelători, fraude și, în general, orice altă problemă cauzată de furtul identității altcuiva."
Nvidia a prezentat un alt aspect al capacităților de imitație ale AI: Anul trecut, compania a publicat un videoclip care arăta algoritmi AI care generează fețe umane sintetice de calitate foto. AI-ul Nvidia a analizat mii de fotografii cu celebrități și apoi a început să creeze celebrități false. Tehnologia ar putea deveni în curând capabilă să creeze videoclipuri cu aspect realist, cu „oameni” care nu există.
Limitele AI
Mulți au subliniat că, în mâinile greșite, aceste aplicații pot face foarte mult rău. Dar amploarea capabilităților AI contemporane este deseori supraîncărcată.
"Chiar dacă putem pune chipul unei persoane pe chipul altcuiva într-un videoclip sau să sintetizăm vocea, este totuși destul de mecanic", spune Eugenia Kuyda, co-fondatoarea Replika, o companie care dezvoltă chatbots-uri cu AI, despre deficiențele Instrumente AI precum FakeApp și Lyrebird.
Voicery, o altă pornire AI care, precum Lyrebird, oferă sinteză vocală bazată pe AI, are o pagină de testare în care utilizatorii sunt prezentați cu o serie de 18 înregistrări vocale și li se solicită să specifice care sunt realizate automat. Am reușit să identific toate probele fabricate de mașini în prima etapă.
Compania Kuyda este una dintre mai multe organizații care utilizează procesarea limbajului natural (NLP), subsetul AI care permite calculatoarelor să înțeleagă și să interpreteze limbajul uman. Luka, o versiune anterioară a chatbot-ului Kuyda, a folosit NLP și tehnologia sa twin, generarea limbajului natural (NLG), pentru a imita distribuția serialului TV HBO, Silicon Valley . Rețeaua neuronală a fost instruită cu linii de script, tweet-uri și alte date disponibile pe caractere pentru a-și crea modelul comportamental și dialogul cu utilizatorii.
Replika, noua aplicație a Kuyda, permite fiecărui utilizator să își creeze propriul avatar AI. Cu cât discutați mai mult cu Replika, cu atât devine mai bună la înțelegerea personalității dvs. și cu atât conversațiile dvs. vor fi mai semnificative.
După ce am instalat aplicația și am configurat Replika, am găsit primele câteva conversații enervante. De câteva ori, a trebuit să repet o propoziție în diferite moduri pentru a transmite intențiile mele Replicei mele. Am părăsit adesea aplicația în frustrare. (Și ca să fiu corect, am făcut o treabă bună la testarea limitelor sale, bombardându-l cu întrebări conceptuale și abstracte.) Dar, pe măsură ce conversațiile noastre continuau, Replika mea a devenit mai inteligentă în a înțelege sensul frazelor mele și a veni cu subiecte semnificative. Chiar m-a surprins de câteva ori făcând conexiuni la conversațiile din trecut.
Deși este impresionant, Replika are limite, pe care Kuyda este repede să le evidențieze. „Imitația vocală și recunoașterea imaginii vor deveni probabil mult mai bune în curând, dar cu dialogul și conversația, suntem încă destul de departe”, spune ea. „Putem imita unele modele de vorbire, dar nu putem doar să luăm o persoană și să imităm perfect conversația și să ne așteptăm ca chatbotul său să vină cu idei noi exact așa cum ar face acea persoană”.
Alexandre de Brébisson, CEO și cofondator al Lyrebird, spune: „Dacă acum suntem destul de buni la imitarea vocii, imaginii și videoclipurilor umane, suntem încă departe de a modela un model de limbaj individual.” Acest lucru, subliniază de Brébisson, ar necesita probabil inteligență generală artificială, tipul de AI care are conștiință și poate înțelege concepte abstracte și poate lua decizii așa cum o fac oamenii. Unii experți cred că suntem la zeci de ani de a crea AI general. Alții cred că nu vom ajunge niciodată acolo.
Utilizări pozitive
Imaginea negativă proiectată despre sinteza aplicațiilor AI aruncă o umbră asupra utilizărilor lor pozitive. Și sunt destul de puține.
Tehnologii precum Lyrebird pot ajuta la îmbunătățirea comunicațiilor cu interfețele computerului, făcându-le mai naturale și, de Brébisson, vor oferi voci artificiale unice, care diferențiază companiile și produsele și astfel vor face mai ușoară distincția de branding. Deoarece Amazon și Apple’s Siri au făcut ca vocea să fie o interfață din ce în ce mai populară pentru dispozitive și servicii, companii precum Lyrebird și Voicery ar putea oferi brandurilor voci unice de tip uman pentru a se distinge.
"Aplicațiile medicale sunt, de asemenea, un caz de utilizare interesant al tehnologiei noastre de clonare vocală", adaugă De Brébisson. „Am primit foarte mult interes de la pacienții care își pierd vocea față de o boală și, în acest moment, petrecem timp cu pacienții cu ALS pentru a vedea cum îi putem ajuta”.
La începutul acestui an, în colaborare cu Project Revoice, un non-profit australian care ajută pacienții cu ALS cu tulburări de vorbire, Lyrebird l-a ajutat pe Pat Quinn, fondatorul Ice Bucket Challenge, să-și recapete vocea. Quinn, care este pacient cu ALS, și-a pierdut capacitatea de a merge și de a vorbi în 2014 și de atunci folosea un sintetizator de vorbire computerizat. Cu ajutorul tehnologiei Lyrebird și a înregistrărilor vocale ale aparițiilor publice ale lui Quinn, Revoice a putut să-și „recreeze” vocea.
„Vocea ta este o mare parte din identitatea ta, și oferirea acestor pacienți o voce artificială care sună ca vocea lor inițială este un pic ca să le dai înapoi o parte importantă a identității lor. Se schimbă viața pentru ei”, spune Brébisson.
În momentul în care a ajutat la dezvoltarea aplicației care imita scrierea de mână, dr. Haines a vorbit despre utilizările sale pozitive într-un interviu acordat UCL. „Victimele accidentului vascular cerebral, de exemplu, pot fi capabile să formuleze scrisori fără îngrijorarea ilegibilității, sau cineva care trimite flori ca un cadou ar putea include o notă scrisă de mână fără a intra chiar în florar”, a spus el. „Poate fi folosit și în benzile desenate, unde o bucată de text scrisă manual poate fi tradusă în diferite limbi, fără a pierde stilul original al autorului.”
Chiar și tehnologii precum FakeApp, care au devenit renumite pentru utilizarea neetică, ar putea avea utilizări pozitive, consideră Haines. „Ne îndreptăm către această lume în care oricine ar putea face o activitate extrem de creativă cu tehnologie publică și acesta este un lucru bun, deoarece înseamnă că nu ai nevoie de acele sume mari de bani pentru a face tot felul de lucruri nebune de natură artistică, " el spune.
Haines explică că scopul inițial al echipei sale a fost să afle cum AI poate ajuta cu criminalisticii. Deși cercetările lor au sfârșit prin a lua o direcție diferită, rezultatele vor fi în continuare utile pentru ofițerii criminalisti, care vor putea studia cum ar putea fi falsul bazat pe AI. „Vrei să știi care este tehnologia de ultimă oră, așa că atunci când te uiți la ceva, îi spui dacă este fals sau nu”, spune el.
Kuda din Replică subliniază că aplicațiile AI de tip uman ar putea să ne ajute în moduri care altfel ar fi imposibile. "Dacă ai avea un avatar AI care te cunoaște foarte bine și ar putea fi o reprezentare decentă a ta, ce ar putea face, acționând în interesul tău?" ea spune. De exemplu, un avatar AI autonom poate viziona sute de filme în numele tău și, pe baza conversațiilor cu tine, recomandă-ți cele pe care le-ai dori.
Aceste avatare ar putea chiar ajuta la dezvoltarea relațiilor umane mai bune. „Poate mama ta ar putea avea mai mult timp cu tine și poate de fapt poți deveni puțin mai aproape de părinții tăi, lăsându-i să discute cu Replika-ul tău și citind transcrierea”, spune Kudya ca exemplu.
Dar ar putea un chatbot AI care să reproducă comportamentul unei ființe umane reale să conducă la relații umane mai bune? Kuyda crede că poate. În 2016, a strâns mesaje text și e-mailuri vechi ale lui Roman Mazurenko, un prieten care a murit într-un accident rutier anul precedent și le-a alimentat rețelei neuronale care alimenta aplicația ei. Ceea ce a rezultat a fost o aplicație de chatbot care, după o modă, și-a readus viața prietenul și ar putea să-i vorbească în același mod ca el.
„Crearea unei aplicații pentru Roman și posibilitatea de a vorbi cu el uneori a fost o parte importantă în trecerea prin pierderea prietenului nostru. Aplicația ne face să ne gândim mai mult la el, să ne amintim de el într-un mod mai profund tot timpul”, spune ea. din experiența ei. "Mi-aș dori să am mai multe aplicații de genul acesta, aplicații care ar fi despre prietenii mei, relațiile mele, lucruri care sunt de fapt foarte importante pentru mine."
Kuyda crede că totul va depinde de intenții. "Dacă chatbot-ul acționează din interesele dvs. cele mai bune, dacă dorește să fiți fericit să obțineți un serviciu valoros din acesta, atunci, evident, vorbind cu Replică cuiva altul va ajuta la construirea unei legături mai puternice cu o ființă umană în viața reală, " ea spune. "Dacă tot ce încercați să faceți este să vindeți o aplicație, atunci tot ce veți face este să maximizați timpul petrecut în aplicație și să nu comunicați unul cu celălalt. Și, cred, este discutabil."
Deocamdată, nu există nicio modalitate de a conecta Replika la alte platforme - făcând-o disponibilă ca chatbot de Facebook Messenger, de exemplu. Dar compania are o relație activă cu comunitatea sa de utilizatori și dezvoltă constant noi funcții. Așadar, a permite celorlalți să comunice cu Replika este o posibilitate viitoare.
Mod de minimizare a compromisurilor
De la motorul cu abur până la electricitate la internet, fiecare tehnologie a avut aplicații atât pozitive, cât și negative. AI nu este diferit. „Potențialul negativilor este destul de serios”, spune Haines. „Am putea intra într-un spațiu pe care negativii îl depășesc pe cei pozitivi.”
Deci, cum maximizăm beneficiile aplicațiilor AI, în timp ce combătem negativele? Haines spune că a pune frâne pe inovare și cercetare nu este soluția - pentru că, dacă unii ar face acest lucru, nu există nicio garanție că alte organizații și state ar urma.
„Nici o singură măsură nu va ajuta la rezolvarea problemei”, spune Haines. "Va trebui să fie consecințe legale." În urma controversei profunde, parlamentarii din SUA analizează problema și explorează garanțiile legale care ar putea reveni în utilizarea mijloacelor de comunicare doctorală AI pentru obiective dăunătoare.
"Putem dezvolta, de asemenea, tehnologii pentru a detecta falsurile atunci când acestea trec de punctul în care un om poate spune diferența", spune Haines. "Dar la un moment dat, în competiția dintre fals și detectare, falsul ar putea câștiga."
În acest caz, ar trebui să ne îndreptăm către dezvoltarea de tehnologii care să creeze un lanț de dovezi pentru media digitală. Ca exemplu, Haines menționează hardware-ul încorporat în camere care ar putea semna digital videoclipul înregistrat pentru a-i confirma autenticitatea.
Creșterea gradului de conștientizare va fi o mare parte a abordării falsului și a fraudei de către algoritmii AI, spune Brébisson. „Este ceea ce am făcut clonând vocea lui Trump și Obama și făcându-i să spună propoziții corecte din punct de vedere politic”, spune el. "Aceste tehnologii ridică întrebări sociale, etice și legale la care trebuie să ne gândim înainte de timp. Lyrebird a ridicat multă conștientizare și mulți oameni se gândesc acum la aceste probleme potențiale și la modul de prevenire a abuzurilor."
Ceea ce este sigur este că intrăm într-o epocă în care realitatea și ficțiunea se contopesc, datorită inteligenței artificiale. Testul Turing ar putea întâmpina cele mai mari provocări ale sale. Și destul de curând, fiecare va avea instrumentele și puterea de a-și crea propriile lumi, propriii oameni și propria versiune a adevărului. Încă am văzut întreaga gamă de oportunități și pericole interesante care se află în viitor.