Cuprins:
Video: Cum te protejează persoanele decedate (Noiembrie 2024)
La sfârșitul anului 2017, placa de bază a raportat o tehnologie AI care ar putea schimba fețele în videoclipuri. La vremea respectivă, tehnologia - numită ulterior deepfakes - a produs rezultate brute, groase și a fost folosită mai ales pentru a crea videoclipuri porno false cu vedete și politicieni.
Doi ani mai târziu, tehnologia a avansat extraordinar și este mai greu de detectat cu ochiul liber. Alături de fake news, videoclipurile falsificate au devenit o problemă de securitate națională, mai ales pe măsură ce alegerile prezidențiale din 2020 se apropie.
De când au apărut deepfake-uri, mai multe organizații și companii au dezvoltat tehnologii pentru a detecta videoclipuri modificate cu AI. Dar există o teamă că, într-o bună zi, tehnologia deepfakes va fi imposibil de detectat.
Cercetătorii de la Universitatea din Surrey au dezvoltat o soluție care ar putea rezolva problema: în loc să detecteze ceea ce este fals, va demonstra ce este adevărat. Programată pentru a fi prezentată la viitoarea conferință despre computer Vision and Recognition Recognition (CVPR), tehnologia, numită Archangel, folosește AI și blockchain pentru a crea și înregistra o amprentă digitală rezistentă la modificări pentru videoclipuri autentice. Amprenta poate fi folosită ca punct de referință pentru verificarea validității mass-media care este distribuită online sau difuzată la televizor.
Folosind AI pentru a semna videoclipuri
Modul clasic de a dovedi autenticitatea unui document binar este utilizarea unei semnături digitale. Editorii își rulează documentul printr-un algoritm criptografic precum SHA256, MD5 sau Blowfish, care produce un „hash”, un șir scurt de octeți care reprezintă conținutul acelui fișier și devine semnătura sa digitală. Rularea aceluiași fișier prin algoritmul de hashing va produce oricând același hash dacă conținutul său nu s-a schimbat.
Hash-urile sunt sensibile la modificările structurii binare a fișierului sursă. Când modificați un singur octet în fișierul hashed și rulați-l din nou prin algoritm, acesta produce un rezultat total diferit.
Dar, în timp ce hash-urile funcționează bine pentru fișierele și aplicațiile text, acestea prezintă provocări pentru videoclipuri, care pot fi stocate în diferite formate, potrivit lui John Collomosse, profesor de viziune pe calculator la Universitatea din Surrey și conducător de proiect pentru Archangel.
"Am dorit ca semnătura să fie aceeași, indiferent de codecul cu care este comprimat videoclipul", spune Collomosse. "Dacă îmi iau videoclipul și îl convertesc din MPEG-2 în MPEG-4, atunci acel fișier va avea o lungime total diferită, iar biții se vor schimba complet, ceea ce va produce un hash diferit. Ceea ce avem nevoie a fost un algoritm de hashing conștient de conținut."
Pentru a rezolva această problemă, Collomosse și colegii săi au dezvoltat o rețea neuronală profundă, care este sensibilă la conținutul conținut în videoclip. Rețelele neuronale profunde sunt un tip de construcție de AI care își dezvoltă comportamentul prin analiza unor cantități vaste de exemple. Interesant este că rețelele neuronale sunt, de asemenea, tehnologia din centrul adâncurilor.
Când creați deepfakes, dezvoltatorul alimentează rețeaua cu imagini ale feței unui subiect. Rețeaua neuronală învață caracteristicile feței și, cu suficientă pregătire, devine capabilă să găsească și să schimbe fețe în alte videoclipuri cu fața subiectului.
Rețeaua neuronală a lui Arhanghel este instruită pe videoclipul pe care îl are amprentele. "Rețeaua se uită la conținutul videoclipului, mai degrabă decât la biții și biții care stau la baza acestora", spune Collomosse.
După antrenament, atunci când rulați un videoclip nou prin rețea, acesta îl va valida atunci când conține același conținut ca și videoclipul sursă, indiferent de formatul său și îl va respinge atunci când este un videoclip diferit sau a fost modificat sau editat.
Conform Collomosse, tehnologia poate detecta atât modificarea spațială cât și cea temporală. Modificările spațiale sunt modificări aduse cadrelor individuale, cum ar fi modificările de schimbare a feței efectuate în deepfakes.
Dar deepfake-urile nu sunt singurul mod în care videoclipurile pot fi manipulate. Mai puțin discutate, dar la fel de periculoase sunt modificările intenționate făcute în secvența de cadre și în viteza și durata videoclipului. Un videoclip recent manipulat, difuzat pe scară largă de House House, Nancy Pelosi, nu a folosit deepfakes, dar a fost creat prin utilizarea atentă a tehnicilor simple de editare care au făcut-o să pară confuză.
"Una dintre formele de manipulare pe care le putem detecta este eliminarea unor segmente scurte ale videoclipului. Acestea sunt modificări temporale. Și putem detecta până la trei secunde de manipulare. Deci, dacă un videoclip are mai multe ore și eliminați doar trei secunde din acel videoclip, putem detecta asta ", spune Collomosse, adăugând că Archangel va detecta, de asemenea, modificări făcute la viteza videoclipului inițial, așa cum s-a făcut în videoclipul Pelosi.
Înregistrarea amprentei digitale pe Blockchain
Cea de-a doua componentă a proiectului Archangel este un blockchain, o bază de date anti-manipulare, unde informațiile noi pot fi stocate, dar nu pot fi modificate - ideale pentru arhivele video, care nu fac modificări la videoclipuri odată ce au fost înregistrate.
Tehnologia Blockchain stă la baza monedelor digitale, cum ar fi Bitcoin și Ether. Este un registru digital menținut de mai multe partide independente. Majoritatea părților trebuie să cadă de acord cu privire la modificările aduse blockchain-ului, ceea ce face imposibil ca orice parte unică să se implice unilateral cu registrul.
Tehnic este posibil să ataci și să schimbi conținutul unui blockchain dacă peste 50 la sută dintre participanții săi se ciocnesc. Dar, în practică, este extrem de dificil, mai ales când blockchain-ul este menținut de multe partide independente cu obiective și interese diferite.
Blockchain-ul lui Archangel este un pic diferit de blockchain-ul public. În primul rând, nu produce cryptocurrency și stochează doar identificatorul, amprenta conștientă de conținut și hash-ul binar al rețelei neuronale de verificare pentru fiecare videoclip dintr-o arhivă (blockchain-urile nu sunt potrivite pentru stocarea unor cantități mari de date, motiv pentru care videoclipul în sine și rețeaua neuronală sunt stocate în lanț).
De asemenea, este un blockchain permis sau „privat”. Aceasta înseamnă că spre deosebire de Bitcoin blockchain, unde toată lumea poate înregistra noi tranzacții, doar părțile autorizate pot stoca noi înregistrări pe blockchainul Archangel.
Arhanghelul este procesat în prezent de o rețea de arhive ale guvernului național din Marea Britanie, Estonia, Norvegia, Australia și SUA: Pentru a stoca noi informații, fiecare țară implicată trebuie să subscrie adăugarea. În timp ce numai arhivele naționale ale țărilor participante au dreptul să adauge înregistrări, toți ceilalți au acces la citire la blockchain și îl pot utiliza pentru a valida alte videoclipuri împotriva arhivei.
- AI și Machine Learning Exploit, Deepfakes, acum mai greu de detectat AI și Machine Learning Exploit, Deepfakes, acum mai greu de detectat
- Videoclipurile Deepfake sunt aici și nu suntem pregătiți videoclipurile Deepfake sunt aici și nu suntem pregătiți
- Noua AI a Adobe detectează fețele Photoshopped Noile AI ale Adobe detectează fețele Photoshopped
„Aceasta este o aplicație de blockchain pentru binele public”, spune Collomosse. "După părerea mea, singura utilizare rezonabilă a blockchain-ului este atunci când ai organizații independente care nu au neapărat încredere una în alta, dar au acest interes în acest obiectiv colectiv de încredere reciprocă. Și ceea ce căutăm să facem este asigurați arhivele naționale ale guvernului din întreaga lume, astfel încât să le putem subscrie integritatea folosind această tehnologie."
Deoarece crearea videoclipurilor falsificate devine din ce în ce mai ușoară, mai rapidă și mai accesibilă, toată lumea va avea nevoie de tot ajutorul pe care îl pot obține pentru a asigura integritatea arhivelor video, în special guvernele.
„Cred că adâncimile sunt aproape ca o cursă de arme”, spune Collomosse. "Deoarece oamenii produc profunde din ce în ce mai convingătoare, și într-o zi ar putea deveni imposibil să le detectați. De aceea, cel mai bun lucru pe care îl puteți face este să încercați să demonstrați proveniența unui videoclip."