Cuprins:
- Cât de profunde sunt create
Consecințele Deepfakes- Nu toate Deepfakes sunt rele
Cum să detectați videoclipuri Deepfake- Căutați afară pentru Deepfakes
Video: Animated Deep Fakes - Rick & Morty | Animating with AI (Noiembrie 2024)
Pe măsură ce ne vom îndrepta în următorul sezon electoral al prezidențiale, veți dori să vă feriți de pericolele potențiale pe care le aduc videoclipurile false online prin utilizarea inteligenței artificiale (AI) și a învățării automate (ML). Folosind software-ul AI, oamenii pot crea videoclipuri de tip deepfake (scurte pentru „învățare profundă și falsă”) în care algoritmii ML sunt folosiți pentru a efectua o schimbare de față pentru a crea iluzia că cineva fie a spus ceva ce nu a spus sau este cineva „ nu sunt. Videoclipurile Deepfake apar în diferite arene, de la divertisment la politică și până la lumea corporativă. Nu numai că clipurile video profunde pot influența în mod nedrept o alegere cu mesaje false, dar pot aduce jenă personală sau pot provoca mesaje înșelătoare ale mărcii dacă, să spunem, arată un CEO care anunță lansarea unui produs sau o achiziție care nu s-a întâmplat de fapt.
Deepfakes fac parte dintr-o categorie de AI numită „Generative Adversarial Networks” sau GAN-uri, în care două rețele neuronale concurează pentru a crea fotografii sau videoclipuri care apar reale. GAN-urile constau dintr-un generator, care creează un nou set de date precum un videoclip fals și un discriminator, care folosește un algoritm ML pentru a sintetiza și compara datele din videoclipul real. Generatorul încearcă să sintetizeze falsul videoclip cu cel vechi până când discriminatorul nu poate spune că datele sunt noi.
Așa cum a arătat Steve Grobman, vicepreședintele principal și directorul tehnologic al McAfee (CTO), la Conferința RSA din martie, la San Francisco, au fost fotografii false de la inventarea fotografiei. El a spus că modificarea fotografiilor a fost o sarcină simplă pe care o puteți efectua într-o aplicație, cum ar fi Adobe Photoshop. Dar acum aceste tipuri de funcții avansate de editare se mută și în video și o fac folosind instrumente software extrem de capabile și ușor de accesat.
Cât de profunde sunt create
Deși înțelegerea conceptelor de AI este utilă, nu este necesar să fii un om de date pentru a construi un videoclip profund. Este vorba doar de respectarea unor instrucțiuni online, potrivit Grobman. În cadrul Conferinței RSA 2019 (a se vedea videoclipul de mai sus), el a dezvăluit un videoclip în profunzime împreună cu Dr. Celeste Fralick, om de știință în domeniul datelor și inginer principal principal la McAfee. Videoclipul profund a ilustrat amenințarea pe care această tehnologie o prezintă. Grobman și Fralick au arătat cum un oficial public într-un videoclip care spune că ceva periculos ar putea induce în eroare publicul pentru a crede că mesajul este real.
Pentru a-și crea videoclipul, Grobman și Fralick au descărcat software-ul deepfake. Au făcut apoi un videoclip cu Grobman care mărturisește în fața Senatului SUA din 2017 și i-au suprapus gura lui Fralick pe Grobman.
"Am folosit comentarii publice disponibile gratuit pentru a crea și a antrena un model ML; asta m-a lăsat să dezvolt un videoclip profund cu cuvintele care îmi ieseau din gură", a spus Fralick pentru audiența RSA de la scenă. Fralick a continuat să spună că videoclipurile deepfake pot fi utilizate pentru exploatarea socială și războiul de informații.
Pentru realizarea videoclipului lor profund, Grobman și Fralick au folosit un instrument dezvoltat de un utilizator Reddit numit FakeApp, care folosește algoritmi și fotografii ML pentru a schimba fețele pe videoclipuri. În timpul prezentării RSA, Grobman a explicat pașii următori. "Am împărțit videoclipurile în imagini statice, am extras fețele și le-am curățat prin sortare și curățare în Instagram."
Scripturile Python au permis echipei McAfee să construiască mișcări ale gurii pentru ca discursul lui Fralick să se potrivească cu gura lui Grobman. Apoi au avut nevoie să scrie niște scripturi personalizate. Provocarea creării unui deepfake convingător este atunci când caracteristici precum sexul, vârsta și tonul pielii nu se potrivesc, a spus Grobman.
El și Fralick au folosit apoi un algoritm final AI pentru a potrivi imaginile lui Grobman care mărturiseau în fața Senatului cu discursul lui Fralick. Grobman a adăugat că a fost nevoie de 12 ore pentru a antrena acești algoritmi ML.
McAfee a prezentat pașii pe care i-a făcut pentru a crea un videoclip deepfake prezentat la Conferința RSA din 2019. A folosit software deepfake numit FakeApp și instruirea modelelor ML pentru a schimba videoclipurile lui Grobman cu vorbirea de la Fralick. (Credit de imagine: McAfee).
Consecințele Deepfakes
Videoclipurile deepfake create de hackeri au potențialul de a cauza multe probleme - de la oficialii guvernamentali care răspândesc false dezinformări și până la celebrități care se jenează să nu fie în videoclipuri, în realitate nu erau în companiile care dăunează clasamentului bursei. Conștient de aceste probleme, parlamentarii au trimis în septembrie o scrisoare către Daniel Coats, directorul american al informațiilor naționale, pentru a solicita o revizuire a amenințării pe care o reprezintă profunzimile. Scrisoarea a avertizat că țări precum Rusia ar putea folosi analize profunde pe social media pentru a răspândi informații false. În decembrie, parlamentarii au introdus Legea privind interzicerea falselor în profunzime în anul 2018 pentru a scoate în evidență frauda în legătură cu „înregistrările audiovizuale”, care se referă la analize. Rămâne de văzut dacă factura va trece.
Așa cum am menționat, celebritățile pot suferi jenă din cauza videoclipurilor în care fețele lor au fost suprapuse peste fețele vedetelor porno, așa cum a fost cazul lui Gal Gadot. Sau imaginați-vă că un CEO anunță o știre despre produs și scufundă stocul unei companii. Profesioniștii în securitate pot folosi ML pentru a detecta aceste tipuri de atacuri, dar dacă nu sunt detectate la timp, pot aduce daune inutile unei țări sau a unei mărci.
"Cu deepfakes, dacă știți ce faceți și știți pe cine să vizați, puteți veni cu adevărat un videoclip convingător care să provoace multe pagube unei mărci", a spus dr. Chase Cunningham, analist principal la Forrester Research. El a adăugat că, dacă distribuiți aceste mesaje pe LinkedIn sau Twitter sau folosiți un formular de bot, „puteți zdrobi stocul unei companii bazate pe un videoclip total fals, fără mult timp.”
Prin videoclipuri deepfake, consumatorii ar putea fi păcăliți să creadă că un produs poate face ceva ce nu poate. Cunningham a menționat că, dacă un director general al producătorului de automobile a spus într-un videoclip fals că compania nu va mai produce vehicule pe gaz și apoi va răspândi acel mesaj pe Twitter sau LinkedIn în acel videoclip, atunci această acțiune ar putea deteriora cu ușurință o marcă.
„Destul de interesant din cercetările mele, oamenii iau decizii bazate pe titluri și videoclipuri în 37 de secunde, a spus Cunningham.” Așadar, vă puteți imagina dacă puteți obține un videoclip care durează mai mult de 37 de secunde, puteți determina oamenii să ia o decizie bazată pe fie faptic sau nu. Și asta este îngrozitor ”.
Având în vedere că media socială este un loc vulnerabil în care videoclipurile deepfake pot merge virale, site-urile de socializare lucrează activ pentru a combate amenințarea unor adulți. Facebook, de exemplu, implementează echipe de inginerie care pot detecta fotografii manipulate, audio și video. Pe lângă utilizarea software-ului, Facebook (și alte companii de social media) angajează oameni pentru a căuta manual deepfakes.
"Ne-am extins eforturile continue de a combate mass-media manipulate, incluzând combaterea rezultatelor profunde", a declarat un reprezentant Facebook într-un comunicat. "Știm că apariția continuă a tuturor formelor de mass-media manipulate prezintă adevărate provocări pentru societate. De aceea, investim în noi soluții tehnice, învățând din cercetări academice și lucrăm cu alții din industrie pentru a înțelege realizările profunde și alte forme de media manipulată..“
Nu toate Deepfakes sunt rele
Așa cum am văzut cu videoclipul educativ deepfake realizat de McAfee și videoclipurile comedic deepfake de la televiziunea târziu seara, unele videoclipuri deepfake nu sunt neapărat rele. De fapt, în timp ce politica poate expune pericolele reale ale videoclipurilor deepfake, industria divertismentului arată adesea doar partea mai ușoară a videoclipurilor deepfake.
De exemplu, într-un episod recent din The Late Show With Stephen Colbert, s-a arătat un videoclip amuzant în profunzime, în care chipul actorului Steve Buscemi era suprapus peste corpul actriței Jennifer Lawrence. În alt caz, comediantul Jordan Peeler a înlocuit un videoclip al fostului președinte Barack Obama vorbind cu propria sa voce. Au apărut și videoclipuri umoristice de tip deepfake ca acestea, în care fața președintelui Trump este suprapusă peste chipul cancelarului german Angela Merkel în timp ce persoana vorbește.
Din nou, dacă videoclipurile deepfake sunt utilizate în scopuri satirice sau pline de umor sau pur și simplu ca divertisment, atunci platformele de socializare și chiar casele de producție de filme le permit sau le folosesc. De exemplu, Facebook permite acest tip de conținut pe platforma sa, iar Lucasfilm a folosit un tip de recreere digitală pentru a prezenta o tânără Carrie Fisher pe corpul actriței Ingvild Deila în „Rogue One: A Star Wars Story”.
Grobman, de la McAfee, a menționat că o parte din tehnologia din spatele fondurilor profunde este folosită în mod optim cu dublarea cascadoriei în timpul activităților pentru a păstra actorii în siguranță. "Contextul este totul. Dacă este pentru scopuri comice și este evident că nu este real, asta este o utilizare legitimă a tehnologiei", a spus Grobman. „Recunoașterea faptului că poate fi folosit pentru tot felul de scopuri diferite este esențial”.
Cum să detectați videoclipuri Deepfake
McAfee nu este singura firmă de securitate care experimentează cum să detecteze videoclipuri false. În lucrarea sa livrată la Black Hat 2018, intitulată „AI Gone Rogue: Exterminarea falselor profunde înainte de a provoca amenințarea”, doi experți în securitate Symantec, responsabilul cu răspunsul în securitate Vijay Thaware și inginerul de dezvoltare software Niranjan Agnihotri, scriu că au creat un instrument pentru a detecta videoclipuri false bazate pe Google FaceNet. Google FaceNet este o arhitectură de rețea neuronală dezvoltată de cercetătorii Google pentru a ajuta la verificarea și recunoașterea feței. Utilizatorii antrenează un model FaceNet pe o anumită imagine și își pot verifica identitatea în timpul testelor ulterioare.
Pentru a încerca să oprească răspândirea videoclipurilor deepfake, Fundația AI, o organizație nonprofit axată pe interacțiunea umană și AI, oferă software numit „Reality Defender” pentru a detecta conținut fals. Poate scana imagini și video pentru a vedea dacă au fost modificate folosind AI. Dacă vor avea, vor primi un „Filigran AI cinstit”.
- Ghidul de afaceri pentru învățarea mașinii Ghidul de afaceri pentru învățarea mașinii
- PornHub, Twitter Interzicerea porno "Deepfake" Porno modificat AIHH, Twitter Interzicerea porno "Deepfake" modificată AI
- Ultimele tehnologii Deepfake Te vor dansa ca Bruno Mars Ultimele Tehnici Deepfake Te Vor Dansa Ca Bruno Mars
O altă strategie este de a păstra în minte conceptul de Zero Trust, care înseamnă „niciodată încredere, verificare întotdeauna” - un motto cibersecuritate care înseamnă că profesioniștii IT ar trebui să confirme că toți utilizatorii sunt legitimi înainte de a acorda privilegii de acces. Va rămâne sceptic cu privire la validitatea conținutului video. De asemenea, veți dori ca software-ul cu capacități de analiză digitală să localizeze conținut fals.
Căutați afară pentru Deepfakes
Pentru a merge mai departe, va trebui să fim mai precauți în ceea ce privește conținutul video și să ținem cont de pericolele pe care le pot prezenta societății dacă sunt folosite greșit. După cum a menționat Grobman, „În termenul apropiat, oamenii trebuie să fie mai sceptici față de ceea ce văd și să recunoască faptul că video și audio pot fi fabricate”.
Așadar, urmăriți sceptic videoclipurile politice pe care le vizionați în timp ce ne îndreptăm spre următorul sezon electoral și nu aveți încredere în toate videoclipurile cu lideri corporativi. Pentru că ceea ce auziți nu poate fi ceea ce s-a spus cu adevărat, iar videoclipurile înșelătoare în profunzime au potențialul de a dăuna societății noastre.