Acasă Păreri Cum au declanșat avertismentele false despre Openai știri false

Cum au declanșat avertismentele false despre Openai știri false

Cuprins:

Video: CU TELEFONUL STERGI ERORILE! - DIAGNOZA IN BUZUNAR + CONCURS (Octombrie 2024)

Video: CU TELEFONUL STERGI ERORILE! - DIAGNOZA IN BUZUNAR + CONCURS (Octombrie 2024)
Anonim

Laboratorul de cercetare AI nonprofit OpenAI a provocat un val de panică de apocalipsă AI luna trecută, când a introdus un AI-ul generator de text de ultimă generație, denumit GPT-2. Dar, în timp ce sărbătorea realizările GPT-2, OpenAI a declarat că nu va elibera publicul său model de AI, temându-se că în mâinile greșite, GPT-2 ar putea fi folosit în scopuri rău intenționate, cum ar fi generarea de articole înșelătoare, impunerea altora online și automatizarea producției de conținut fals pe rețelele de socializare.

În mod previzibil, anunțul OpenAI a creat o inundație de știri senzaționale, dar, în timp ce orice tehnologie avansată poate fi armată, AI încă mai are de făcut înainte de a stăpâni generarea de texte. Chiar și atunci, este nevoie de mai mult decât AI generatoare de text pentru a crea o criză de fake-news. În această privință, avertismentele OpenAI au fost exagerate.

AI și limbajul uman

Calculatoarele s-au străduit istoric să se ocupe de limbajul uman. Există atât de multe complexități și nuanțe în textul scris, încât transformarea tuturor acestora în reguli software clasice este practic imposibilă. Însă progresele recente ale învățării profunde și a rețelelor neuronale au deschis calea pentru o abordare diferită a creării de software care să poată gestiona sarcinile legate de limbă.

Învățarea profundă a adus îmbunătățiri mari în domenii precum traducerea automată, rezumarea textului, răspunsul la întrebări și generarea limbajului natural. Permite inginerilor software să creeze algoritmi care își dezvoltă propriul comportament prin analizarea multor exemple. Pentru sarcini legate de limbă, inginerii alimentează rețele neuronale conținut digitalizat, cum ar fi știri, pagini Wikipedia și postări de socializare. Plasele neuronale compare cu atenție datele și iau notă de cum anumite cuvinte le urmează pe altele în secvențe recurente. Apoi transformă aceste tipare în ecuații matematice complexe care îi ajută să rezolve sarcini legate de limbă, cum ar fi prezicerea cuvintelor lipsă într-o secvență de text. În general, cu cât oferiți mai multe date de formare de calitate unui model de învățare profundă, cu atât va deveni mai bun la îndeplinirea sarcinii sale.

Potrivit OpenAI, GPT-2 a fost instruit pe 8 milioane de pagini web și miliarde de cuvinte, ceea ce este mult mai mult decât alte modele similare. De asemenea, folosește modele AI avansate pentru a aplica mai bine modele de text. Eșantionul de ieșire de la GPT-2 arată că modelul reușește să mențină coerența în secvențe mai lungi de text decât predecesorii săi.

Dar, deși GPT-2 este un pas înainte în domeniul generarii limbajului natural, nu este o descoperire tehnologică spre crearea AI care să înțeleagă sensul și contextul textului scris. GPT-2 încă folosește algoritmi pentru a crea secvențe de cuvinte care sunt similare statistic cu miliarde de extrase de text pe care le-a văzut anterior - nu înțelege absolut ce generează.

Într-o analiză aprofundată, Tiernan Ray de la ZDNet indică mai multe cazuri în care eșantioanele de ieșire ale GPT-2 își trădează natura artificială cu artefacte cunoscute, cum ar fi duplicarea termenilor și lipsa de logică și consecvență în fapte. "Atunci când GPT-2 trece la abordarea scrisului care necesită mai multă dezvoltare a ideilor și a logicii, fisurile se deschid destul de larg", remarcă Ray.

Învățarea statistică poate ajuta calculatoarele să genereze un text corect din punct de vedere gramatical, dar este necesară o înțelegere conceptuală mai profundă pentru a menține consecvența logică și faptică. Din păcate, aceasta este încă o provocare pe care amestecurile actuale de AI nu au depășit-o. De aceea, GPT-2 poate genera paragrafe frumoase de text, dar probabil că ar fi greu de creat pentru a genera un articol autentic de lungă durată sau pentru a înlocui pe cineva într-un mod convingător și într-o perioadă lungă de timp.

De ce panica AI-Fake-News este suprasolicitată

O altă problemă cu raționamentul OpenAI: Se presupune că AI poate crea o criză de fake-news.

În 2016, un grup de adolescenți macedoneni a difuzat milioane de oameni povești false despre alegerile prezidențiale din SUA. În mod ironic, nici măcar nu aveau abilități de engleză adecvate; își găseau poveștile pe rețea și își împleteau conținutul diferit. Au avut succes, deoarece au creat site-uri web care arătau suficient de autentice pentru a convinge vizitatorii să aibă încredere în ei ca surse de știri fiabile. Titluri senzaționale, utilizatori social-media neglijați și algoritmi de tendință au făcut restul.

Apoi, în 2017, actorii răuvoitori au declanșat o criză diplomatică în regiunea Golfului Persic prin hacking site-uri de știri ale statului Qatari și conturi de social media guvernamentale și publicând observații false în numele șeicul Tamim bin Hamad Al Thani, emirul Qatarului.

După cum arată aceste povești, succesul campaniilor de știri false se bazează pe crearea (și trădarea) încrederii, nu pe generarea unor cantități mari de text englez coerent.

Avertismentele OpenAI cu privire la automatizarea producției de conținut fals pentru a fi postate pe rețelele de socializare sunt totuși mai justificate, deoarece scara și volumul joacă un rol mai important în rețelele sociale decât în ​​mediile tradiționale. Presupunerea este că o IA precum GPT-2 va putea inunda rețelele de socializare cu milioane de postări unice despre un anumit subiect, influențând algoritmi de trend și discuții publice.

Dar, totuși, avertismentele nu sunt reale. În ultimii ani, companiile de social media dezvoltă continuu capacități de detectare și blocare a comportamentului automat. Așadar, un actor rău intenționat înarmat cu o AI generatoare de text ar trebui să depășească o serie de provocări dincolo de crearea de conținut unic.

De exemplu, ar avea nevoie de mii de conturi de socializare false pentru a-și posta conținutul generat de AI. Și mai dur, pentru a vă asigura că nu există nicio modalitate de a conecta conturile false, ar avea nevoie de un dispozitiv unic și de adresă IP pentru fiecare cont.

Se înrăutățește: conturile ar trebui să fie create în diferite momente, eventual peste un an sau mai mult, pentru a reduce asemănările. Anul trecut, o anchetă din New York Times a arătat că datele de creare a contului singure ar putea ajuta la descoperirea conturilor bot. Apoi, pentru a-și ascunde în continuare natura automată de alți utilizatori și algoritmi de poliție, conturile ar trebui să se angajeze în comportamente asemănătoare omului, cum ar fi interacțiunea cu alți utilizatori și setarea unui ton unic în postările lor.

Niciuna dintre aceste provocări nu este imposibil de depășit, dar arată că conținutul este doar o parte a efortului necesar pentru desfășurarea unei campanii de știri false despre social media. Și din nou, încrederea joacă un rol important. Câțiva influenți de încredere în rețelele de socializare, care pun câteva știri false vor avea un impact mai mare decât o mulțime de conturi necunoscute care generează volume mari de conținut.

În apărarea avertismentelor OpenAI

Avertizările exagerate ale OpenAI au declanșat un ciclu de hiper și panică mediatică, care, în mod ironic, se învecinează cu știri false, provocând critici din partea unor experți renumiți ai AI.

Ei au invitat oamenii de presă să obțină acces timpuriu la rezultate, cu un embargo de presă, astfel încât totul a devenit public în aceeași zi. Niciun cercetător pe care îl cunosc nu a ajuns să vadă marele model, dar jurnaliștii au făcut-o. Da, au explodat-o intenționat.

- Matt Gardner (@nlpmattg) 19 februarie 2019

Fiecare om nou poate fi folosit pentru a genera știri false, pentru a disemina teoriile conspirației și pentru a influența oamenii.

Ar trebui să nu mai facem bebeluși atunci?

- Yann LeCun (@ylecun) 19 februarie 2019

Am vrut doar să vă dau cu capul, laboratorul nostru a găsit o descoperire uimitoare în înțelegerea limbajului. dar, de asemenea, ne facem griji că poate cădea în mâinile greșite. așa că am decis să-l ștergem și să publicăm în schimb chestii obișnuite * ACL. Un mare respect pentru echipă pentru marea lor muncă.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 februarie 2019

Zachary Lipton, cercetător AI și redactorul Aproximativ corect, a arătat istoria OpenAI de „a-și folosi blogul și a externaliza atenția asupra operei imature a catapultului în viziunea publică și de multe ori redarea aspectelor legate de siguranța umană a muncii care nu are încă intelectual picioare pentru a sta în picioare ".

Deși OpenAI merită toate criticile și căldura pe care le-a primit în urma observațiilor sale înșelătoare, este, de asemenea, corect să fie îngrijorat cu adevărat de posibilele utilizări rău intenționate ale tehnologiei sale, chiar dacă compania a folosit un mod iresponsabil de a educa publicul despre aceasta.

  • Anul industriei AI a calculării etice Anul industriei AI Anul calculului etic
  • Avantaj nedrept: Nu vă așteptați ca AI să joace ca un om Avantaj nedrept: Nu vă așteptați ca AI să joace ca un om
  • Aceasta AI prezice Trolling-ul online înainte de a se întâmpla Acest AI prevede Trolling-ul online înainte de a se întâmpla

În anii trecuți, am văzut cum tehnologiile AI făcute publice fără gândire și reflecție pot fi armate pentru intenții rău intenționate. Un exemplu a fost FakeApp, o aplicație AI care poate schimba fețele în videoclipuri. La scurt timp după ce FakeApp a fost lansat, acesta a fost folosit pentru a crea videoclipuri pornografice false care au prezentat celebrități și politicieni, provocând îngrijorare cu privire la amenințarea falsificării generată de AI.

Decizia OpenAI arată că trebuie să ne oprim și să ne gândim la posibile ramificări ale tehnologiei de eliberare publică. Și trebuie să avem discuții mai active despre riscurile tehnologiilor AI.

"O organizație care întrerupe un proiect anume nu va schimba nimic pe termen lung. Dar OpenAI primește multă atenție pentru tot ceea ce fac… și cred că ar trebui să fie aplaudați pentru faptul că au atras atenția asupra acestei probleme", a spus David Bau, un cercetător la Laboratorul de Informatică și Inteligență Artificială (CSAIL) al MIT, a declarat pentru Slate.

Cum au declanșat avertismentele false despre Openai știri false