Acasă Caracteristici Cum jigsaw-ul google încearcă să detoxifice internetul

Cum jigsaw-ul google încearcă să detoxifice internetul

Cuprins:

Video: Mama a INCHIS INTERNETUL | Ce Facem?! Cum o sa Traim mai Departe?!? (Noiembrie 2024)

Video: Mama a INCHIS INTERNETUL | Ce Facem?! Cum o sa Traim mai Departe?!? (Noiembrie 2024)
Anonim

Internetul se poate simți ca un loc toxic. Troll-urile coboară pe secțiuni de comentarii și fire de socializare pentru a arunca discursurile de ură și hărțuirea, transformând discuții potențial iluminatoare în atacuri ad hominem și în grupuri de grupuri. Adesea, exprimarea unei opinii nu pare să merite vitriolul rezultat.

Platformele sociale masive - inclusiv Facebook, Twitter și YouTube - recunosc că nu pot controla în mod adecvat aceste probleme. Sunt într-o cursă de arme cu roți, trolluri și orice alte persoane nedorite care se strecoară prin filtrele de conținut. Oamenii nu sunt capabili fizic să citească fiecare comentariu pe web; cei care încearcă adesea regretă.

Giganții tehnici au experimentat diverse combinații de moderație umană, algoritmi AI și filtre pentru a se îndepărta prin deluarea conținutului care curge în fluxurile lor în fiecare zi. Jigsaw încearcă să găsească un teren din mijloc. Filiala și incubatorul tehnologic Alphabet, cunoscut anterior drept Google Ideas, începe să demonstreze că învățarea automată (ML), creată în instrumente pentru moderatorii umani, poate schimba modul în care abordăm problema de toxicitate a internetului.

Perspectiva este o API dezvoltată de Jigsaw și echipa Google Technology Counter Abuse Technology. Folosește ML pentru a detecta abuzul și hărțuirea online și notează comentarii bazate pe impactul perceput pe care le-ar putea avea într-o conversație pentru a facilita viața moderatorilor umani.

Perspectivă în mijlocul meciurilor strigătoare

Tehnologia open-source a fost anunțată pentru prima dată în 2017, deși dezvoltarea acesteia a început cu câțiva ani mai devreme. Unele dintre primele site-uri care au experimentat cu Perspective au fost publicații de știri precum The New York Times și site-uri precum Wikipedia. Însă, recent, Perspective și-a găsit o casă pe site-uri precum Reddit și platforma de comentarii Disqus (care este folosită pe PCMag.com.)

CJ Adams, manager de produs pentru Perspective, a declarat că proiectul dorește să examineze modul în care vocile oamenilor sunt reduse la tăcere online. Jigsaw a dorit să exploreze modul în care abuzul țintit sau o atmosferă generală de hărțuire pot crea un efect rece, descurajând oamenii până la punctul în care consideră că nu merită timpul sau energia pentru a-și adăuga vocea la o discuție. Cât de des ați văzut un tweet, postare sau comentariu și ați ales să nu răspundeți pentru că lupta cu troll-urile și obținerea Mad Online nu merită agravarea?

„Este foarte ușor să strici o conversație online”, a spus Adams. "Este ușor să săriți, dar o persoană care este într-adevăr însemnată sau toxică ar putea alunga alte voci. Poate 100 de persoane citesc un articol sau începeți o dezbatere și de multe ori ajungeți cu cele mai zgomotoase voci din cameră fiind singurele rămase, într-un internet optimizat pentru like-uri și share-uri. Așadar, tăceți un pic toate aceste voci. Atunci ceea ce definește dezbaterea este doar cea mai tare voce din cameră - meciul strigător."

    Jigsaw și Google

    A fost un an dur pentru compania surioară a lui Jigsaw, Google, care a prins probleme legate de securitatea datelor, impulsionarea angajaților asupra implicării sale în proiecte pentru Pentagon și China și dezvăluiri cu privire la gestionarea sa de hărțuire sexuală. Nu mai vorbim de o audiere controversată a Congresului în care CEO-ul Sundar Pichai a fost la gratar de către parlamentari.

    Până la Jigsaw, incubatorul altruist al Alfabetului, lucrurile au fost puțin mai puțin dramatice. Echipa și-a petrecut timpul examinând mai multe forme tehnice de cenzură, cum ar fi otrăvirea DNS cu aplicația sa Intra și atacurile DDoS cu Project Shield. Cu perspectiva, obiectivul este mai abstract. În loc să folosească învățarea automată pentru a determina ce este sau nu împotriva unui set de reguli dat, provocarea Perspectivei este una intens subiectivă: clasificarea impactului emoțional al limbajului.

    Pentru a face acest lucru, aveți nevoie de procesarea limbajului natural (NLP), care descompune o propoziție pentru a identifica tiparele. Echipa Perspective se confruntă cu probleme precum prejudecata de confirmare, gândirea de grup și comportamentul hărțuitor într-un mediu în care tehnologia le-a amplificat și le-a făcut mai greu de rezolvat.

    AI este „greșit și mut uneori”

    Îmbunătățirea conversațiilor online cu învățarea automată nu este o sarcină simplă. Este încă un domeniu de cercetare în curs de dezvoltare. Algoritmii pot fi părtinitori, sistemele de învățare automată necesită o perfecționare nesfârșită, iar cele mai grele și mai importante probleme sunt încă în mare parte neexplorate.

    Grupul de cercetare AI Conversație, care a creat Perspective, a început prin întâlnirea cu ziare, editori și alte site-uri care găzduiesc conversații. Unele dintre primele site-uri care au experimentat tehnologia au fost The New York Times , Wikipedia, The Guardian și The Economist .

    În 2017, echipa a deschis demo-ul Perspective inițial pe site-ul public ca parte a unui test alfa, permițând oamenilor să tasteze milioane de comentarii vaste și abuzive pe site. S-a cam asemănat cu infamul experiment al Microsoft chat-ul Tay, eșuat, cu excepția cazului în care a înșelat botul să răspundă cu tweet-uri rasiste, Jigsaw a folosit virulența aglomerată ca date de instruire pentru a-și alimenta modelele, contribuind la identificarea și clasificarea diferitelor tipuri de abuzuri online.

    Procesul public de testare inițială nu a decurs fără probleme. „Trolls Across America”, de la Wired, care a scăzut toxicitatea în comentarii în toată țara, pe baza punctajului Perspective, a arătat cum algoritmul a discriminat în mod inadvertent grupurile în funcție de rasă, identitate de gen sau orientare sexuală.

    Adams era sincer în legătură cu faptul că testarea inițială a Perspective a scos la iveală pete orb majore și prejudecată algoritmică. La fel ca instrumentul de recrutare de la Amazon, care s-a antrenat pe zeci de ani de date despre joburi defecte și a dezvoltat o părtinire inerentă împotriva solicitanților de sex feminin, modelele din perspectiva timpurie aveau defecte evidente din cauza datelor pe care au fost instruiți.

    „În exemplul grupurilor vizate frecvent, dacă ați analizat distribuția pe comentariile din setul de date de formare, a existat un număr extrem de mic de comentarii care includeau cuvântul„ gay ”sau„ feminist ”și îl foloseau în pozitiv. ", a explicat Adams. "Comentariile abuzive folosesc cuvintele ca insulte. Așadar, ML, analizând modelele, ar spune:„ Hei, prezența acestui cuvânt este un predictor destul de bun dacă acest sentiment este sau nu toxic ".

    De exemplu, algoritmul alfa ar putea fi etichetat în mod greșit afirmații precum „Sunt un om gay mândru” sau „Sunt o feministă și transgender” cu scoruri de toxicitate ridicate. Adams a spus însă că procesul de formare public transparent - în timp ce dureros - a fost o lecție de neprețuit pentru Jigsaw.

    Atunci când instruiți modele de învățare automată pe ceva la fel de supărător și personal precum abuzul și hărțuirea online, existența prejudecății algoritmice evidențiază, de asemenea, motivul pentru care AI nu este soluția. Companiile sociale, cum ar fi Facebook și YouTube, și-au adus aminte de caracteristicile de moderare a conținutului AI ale platformelor lor doar pentru a trasa înapoi pe fondul scandalului și corectarea cursului, angajând mii de moderatori umani.

    Tipul lui Jigsaw este un hibrid dintre cei doi. Perspectiva nu este algoritmii AI care iau decizii în vid; API-ul este integrat în interfețele de administrare a comunității și de moderare a conținutului pentru a servi drept instrument de asistență pentru moderatorii umani. Inginerii din perspectivă descriu moderarea discursului de ură cu sau fără ML, folosind o analogie cu fân: AI ajută automatizând procesul de sortare, aruncând vârfuri de fân în jos, în timp ce le oferă oamenilor ultimul cuvânt despre faptul că un comentariu este considerat abuziv sau hărțuire.

    "Este această nouă capacitate a ML", a spus Adams. „Oamenii vorbesc despre cât de inteligentă este AI, dar de multe ori nu vorbesc despre toate modalitățile în care este greșit și mut uneori. De la bun început, știam că asta va face multe greșeli, și așa am spus:„ Aceasta instrumentul este util pentru moderarea umană asistată de mașină, dar nu este pregătit să ia decizii automate. " Dar poate să ia „acul într-o căpățână de fân”, găsind acest discurs toxic și să-l coboare la o mână de fân. ”

    Ce este un scor de toxicitate?

    Cel mai divizibil aspect al modelării perspectivei este acela de a pune numerele la o variabilă la fel de subiectivă precum „toxicitatea”. Primul lucru subliniat de Adams este că scorurile Perspective sunt o indicație a probabilității, nu a gravității. Un număr mai mare reprezintă o probabilitate mai mare ca modelele din text să semene cu tiparele în comentariile pe care oamenii le-au etichetat ca fiind toxice.

    În ceea ce înseamnă „toxic”, de fapt, echipa Perspective o definește în general ca „un comentariu nepoliticos, lipsit de respect sau nerezonabil, care poate să te facă să părăsești o discuție”. Dar modul în care se manifestă acest lucru poate fi subtil. În 2018, Jigsaw s-a asociat cu Laboratorul de inteligență artificială Rhodes (RAIL) pentru a dezvolta modele ML care pot ridica forme mai ambigue de discurs amenințător sau urât, precum un comentariu respingător, condescendent sau sarcastic care nu este deschis ostil.

    Până în acest moment, majoritatea modelelor Perspective au fost instruite solicitând oamenilor să noteze comentariile pe internet pe o scară de la „foarte toxice” la „foarte sănătoase”. Dezvoltatorii pot apoi calibra modelul pentru a marca comentarii peste un anumit prag, de la 0, 0 la 1, 0. Un scor peste 0, 9 indică o probabilitate ridicată de toxicitate, iar un scor de 0, 5 sau mai jos înseamnă un grad mult mai mic de certitudine algoritmică. Perspectiva folosește și ceea ce se numește normalizarea scorului, ceea ce oferă dezvoltatorilor o bază de referință constantă din care să interpreteze scorurile. Adams a explicat că, în funcție de forum sau site-ul web, dezvoltatorii pot amesteca și potrivi modele. Așadar, atunci când o comunitate nu se deranjează cu profanitatea, acel atribut poate fi cântărit.

    Adams mi-a arătat o interfață de moderare demo integrată cu API-ul Perspective. În panoul de administrare, lângă opțiunile de a sorta comentarii după cele mai noi, cele mai noi și așa mai departe, este o pictogramă mică pentru a sorta toxicitatea. Există, de asemenea, un mecanism de feedback încorporat pentru ca moderatorul uman să spună Perspective că a marcat în mod incorect un comentariu și să îmbunătățească modelul în timp.

    A dat clic pe o interfață demonstrativă pentru a modera comentariile din pagina de discuție Wikipedia marcate de diferite modele de perspectivă și un grafic de histogramă care descompune comentariile care ar putea fi un atac la un autor de pagină sau un atac la un alt comentator.

    „Vrem să construim instrumente de moderare asistate de mașini pentru a semnala lucrurile pentru ca un om să le revizuiască, dar nu dorim ca o definiție centrală sau cineva să spună ce este bine și rău”, a spus Adams. "Deci, dacă aș sorta în funcție de toxicitate, vedeți că comentariile în vârf devin în vârf. Dar dacă vă pasă mai mult, să zicem, atacuri de identitate sau amenințări decât metrici precum înjurături, poate că nu ați folosi un model general de toxicitate. ingrediente pe care le puteți amesteca. Oferim acestea, iar dezvoltatorii le cântăresc."

    Experimentul RAIL adoptă o abordare mai granulară. Studenții de gradul Oxford construiesc un set de date de zeci de mii de comentarii din secțiunea de comentarii a ziarului canadian Globe și Mail și a paginilor Wikipedia Talk. Ei solicită „adnotatori” umani să răspundă la întrebări legate de fiecare comentariu legat de cinci sub-atribute ale „conținutului nesănătos”: ostile sau insultătoare (trolluri), respingătoare, condescendente sau patronante, sarcastice și generalizări nedrepte.

    Încadrarea pe aceste atribute mai subtile a relevat noi probleme complexe, cu părtinirea neintenționată către grupuri specifice și falsele pozitive cu comentarii sarcastice. Face parte din durerile de creștere a AI, alimentând modelele din ce în ce mai multe date care îl ajută să înțeleagă semnificațiile implicite și indirecte din spatele vorbirii umane. Echipa încă combină și adnotează mii de comentarii și intenționează să lanseze setul de date final la începutul acestui an.

    „Ceea ce dorim să lucrăm este ceva în care comunitatea poate înscrie un set de comentarii, iar apoi le putem face un mix personalizat de modele de perspectivă care să se potrivească”, a spus Adams.

    Patul de încercare curios al lui Reddit

    Reddit este un microcosmos din tot ceea ce este bun și teribil cu internetul. Există o comunitate de subreditare pentru fiecare subiect și nișă, interes bizar la care vă puteți gândi. Jigsaw nu funcționează cu Reddit la nivel corporativ, dar unul dintre cele mai interesante locuri în care este testată moderarea AI a Perspective este pe un subreddit numit r / changemyview.

    În mod surprinzător, există colțuri ale internetului unde încă se întâmplă dezbateri și discuții autentice. Change My View, sau CMV, nu este ca majoritatea celorlalte subreddituri. Ideea este de a posta o opinie pe care o acceptați poate fi defectuoasă sau este deschisă să se schimbe, apoi să ascultați și să înțelegeți alte puncte de vedere pentru a vedea dacă vă pot schimba părerea cu privire la o problemă. Firele variază de la subiecte mundane, cum ar fi ordinea de vizionare corespunzătoare a filmelor din Războiul Star până la discuții serioase despre probleme, inclusiv rasism, politică, controlul armelor și religie.

    Change My View este un testbed interesant pentru Perspective, deoarece subreddit-ul are propriul set detaliat de reguli pentru pornirea și moderarea conversațiilor care incită la argumente și dezbateri aprinse după design. Kal Turnbull, care trece prin u / Snorrrlax pe Reddit, este fondatorul și unul dintre moderatorii r / changemyview. Turnbull a declarat pentru PCMag că API-ul Perspective se aliniază deosebit de bine cu Regula 2 a subsumului, care practic interzice vorbirea nepoliticoasă sau ostilă.

    "Pare o regulă simplă, dar există o mulțime de nuanțe pentru ea", a spus Turnbull, care are sediul în Scoția. „Este greu să automatizezi această regulă fără să fii inteligent în ceea ce privește limbajul. Reddit vă oferă acest lucru numit AutoModerator, unde puteți configura filtre și cuvinte cheie pentru semnalizare. Există atât de multe falsuri pozitive și poate fi destul de greu de prins, pentru că cineva poate spune un cuvânt rău fără să insulte pe cineva și poate insulta pe cineva fără a folosi cuvinte rele. ”

    Jigsaw a ajuns la Turnbull în martie 2018. Colaborarea a început cu regula 2, dar în curând echipa a construit modele de perspectivă și pentru alte reguli. Nu este o integrare completă a API-ului Open-Source Perspective, ci mai degrabă un bot Reddit care permite moderatorilor să semnalizeze comentariile obținute peste un prag de toxicitate dat.

    În ultimii șase ani, Turnbull și celelalte moduri fac toate acestea manual din coada rapoartelor AutoModerator (cuvinte cheie marcate) și rapoarte utilizator. Jigsaw a folosit ani întregi de note de încălcare a regulilor de la moderatori, pe care au urmărit-o printr-o extensie a browserului și a construit modele Perspective bazate pe aceste date combinate cu unele dintre modelele de toxicitate existente ale Perspective. Pe tot parcursul anului 2018, mod-urile CMV au oferit feedback cu privire la probleme precum excesul de pozitive false, iar Jigsaw a modificat pragurile de notare în timp ce continua să modeleze mai multe reguli ale CMV.

    Hotărâri complexe în dezbatere online

    (Botul Perspective integrat în interfața moderatorului Reddit.)

    Perspectiva nu este activă pentru toată modularea regulilor subreditului. Unele dintre regulile mai complicate sau abstracte sunt în continuare dincolo de ceea ce poate înțelege acest tip de ML.

    Regula 4, de exemplu, reglementează sistemul de puncte Delta din sub, în ​​timp ce regula B oprește utilizatorii să joace avocatul diavolului sau să utilizeze o postare pentru „săpunarea cu săpun”. Această moderație nuanțată necesită date contextuale și o înțelegere umană simplă, pentru a discerne dacă cineva argumentează un punct din motive autentice sau pur și simplu trolling.

    Pentru viitorul previzibil, vom avea în continuare nevoie de modificări umane. Aceste scenarii de judecată mai complexe sunt cele în care moderatorii CMV încep să vadă fisuri în modelarea AI și o automatizare mai inteligentă ar putea determina dacă toate acestea sunt scalabile.

    "Cred că motivul pentru care este atât de complicat este acela că este o combinație a judecății noastre despre postarea lor inițială și interacțiunile lor de-a lungul întregii conversații. Deci nu este doar un comentariu care declanșează un model", a spus Turnbull. „Dacă un argument merge înainte și înapoi, iar la final este un comentariu care spune„ mulțumesc ”sau o confirmare, lăsăm să meargă chiar dacă o regulă a fost încălcată mai devreme în fir. Sau o glumă plină de inimă, care în context s-ar putea să pară nepoliticos - este un lucru frumos și uman și asta nu este încă pe care botul nu îl primește."

    Change My View este singurul subreddit care folosește în mod activ modele Perspective ML pentru moderare în acest moment, deși Adams a spus că echipa a primit cereri de acces de la alte câteva persoane. Setul de reguli specifice CMV l-a făcut un caz de test ideal, dar modelele din perspectivă sunt maleabile; subredditurile individuale pot personaliza algoritmul de notare pentru a se potrivi cu ghidurile comunității lor.

    Următorul pas pentru Turnbull este eliminarea CMV de pe Reddit, deoarece comunitatea o depășește, a spus el. În ultimele șase luni, noul format al moderatorilor a lucrat cu Jigsaw pe un site dedicat, cu o funcționalitate mai profundă decât interfața modă a Reddit și pot oferi bot-urile.

    Proiectul este încă în testare alfa, dar Turnbull a vorbit despre caracteristici, cum ar fi alertele proactive atunci când un utilizator tastează un comentariu care ar putea încălca o regulă, raportare integrată pentru a oferi moderatorilor mai mult context și date istorice pentru a lua decizii. Turnbull a subliniat că nu există planuri de închidere sau migrare a subreditării, dar este încântat de noul experiment.

  • Toate comentariile se potrivesc

    În funcție de ziua săptămânii, site - ul The New York Times primește oriunde între 12.000 și peste 18.000 de comentarii. Până la jumătatea anului 2017, secțiunile de comentarii ale lucrării au fost moderate de un personal de management comunitar cu normă întreagă, care a citit fiecare comentariu și a decis dacă îl aprobă sau îl respinge.

    Bassey Etim, care până în această lună a fost redactorul comunității pentru Times , a petrecut un deceniu la biroul comunității și a fost redactorul său din 2014. La apogeul unei zile săptămânale, echipa ar putea avea câteva persoane care moderează comentarii despre poveștile de opinie în timp ce altele a abordat știrile. O foaie de calcul a împărțit și a urmărit diferite responsabilități, dar echipa de aproximativ o duzină de oameni au fost reasignate sau mutate constant în funcție de noutățile de top ale momentului. De asemenea, s-au hrănit cu jurnalele din comentariile înapoi la reporteri pentru furajele potențiale.

    În cele din urmă, a devenit clar că acest lucru a fost mai mult de 12 oameni ar putea face față. Secțiunile de comentarii despre povești ar trebui să se închidă după ce a ajuns la un număr maxim de comentarii pe care echipa le-ar putea modera.

    Grupul de dezvoltare a audienței din ziar a experimentat deja învățarea mașină pentru aprobări de comentarii de bază, evidente, dar Etim a spus că nu este deosebit de inteligent sau personalizabil. The Times și-a anunțat pentru prima dată parteneriatul cu Jigsaw în septembrie 2016. De atunci, secțiunile de comentarii s-au extins de la apariția a mai puțin de 10 la sută din toate poveștile până la aproximativ 30 la sută și a urcat.

    Din perspectiva lui Jigsaw, incubatorul a văzut posibilitatea de a alimenta date anonimizate din Perspective din milioane de comentarii pe zi, moderat de profesioniști care ar putea ajuta la rafinarea procesului. În schimbul datelor anonime de pregătire ML, Jigsaw și Times au lucrat împreună pentru a construi o platformă numită Moderator, care a fost lansată în iunie 2017.

  • Moderatorul interior, interfața de comentarii din NYT

    (Imagine amabilitate pentru The New York Times )

    Moderatorul combină modelele Perspective cu peste 16 milioane de comentarii anonime, moderate ale Times, care se remarcă în 2007.

    Ceea ce echipa comunității vede de fapt în interfața Moderator este un tablou de bord cu o diagramă histogramă interactivă care vizualizează defalcarea comentariilor peste un anumit prag. Acestea pot trage glisorul înainte și înapoi, de exemplu, pentru a aproba automat toate comentariile cu doar un scor sumar de la 0 la 20 la sută, care se bazează pe o combinație între potențialul comentariului de obscenitate, toxicitate și probabilitatea de a fi respins. Mai jos există butoane de moderare rapidă pentru a aproba sau respinge un comentariu, amâna sau eticheta comentariul, pentru a continua îmbunătățirea modelării Perspective.

    "Pentru fiecare secțiune a site-ului web, am analizat comentariile primite și modul în care Perspective le-ar eticheta. Am folosit atât modelele publice de perspectivă, cât și modele proprii unice pentru New York Times ", a spus Etim. „Aș analiza comentariile de la fiecare secțiune și aș încerca să găsesc punctul de tăiere în care am fi confortabil spunând:„ OK, totul peste această probabilitate folosind aceste etichete de toxicitate specifice, cum ar fi obscenitatea, de exemplu, vom aproba ”.

    Învățarea automată aprobă un procent relativ mic de comentarii (în jur de 25% sau mai mult, a spus Etim), în timp ce Times lucrează pentru a extrage comentarii despre mai multe povești și, în final, chiar pentru a personaliza modul în care modelele filtrează și aprobă comentariile pentru diferite secțiuni ale site-ului. Modelele aprobă doar comentarii; respingerea este încă gestionată în întregime de moderatorii umani.

    Aceste întreruperi manuale au disparut. Comentariile se închid, de obicei, la o poveste, fie la 24 de ore de la publicarea online, fie a doua zi după ce a publicat în tipar, a spus Etim.

    „Nu te înlocuim cu mașini”

    Următoarea fază constă în crearea mai multor funcții în sistem pentru a ajuta moderatorii să acorde prioritate care sunt comentariile care trebuie privite la început. Automatizarea din ce în ce a fost întotdeauna un proces manual a permis moderatorilor să-și petreacă timpul lucrând proactiv cu reporterii pentru a răspunde la comentarii. S-a creat o buclă de feedback în care comentariile duc la raportarea ulterioară și la povești suplimentare - pot salva și realoca resurse pentru a crea mai mult jurnalism.

    „Moderatorul și perspectiva au făcut ca Times să răspundă mult mai mult preocupărilor cititorilor, pentru că avem resurse pentru a face acest lucru, fie că este vorba de scrierea poveștilor noi înșine, fie de a lucra cu reporterii pentru a descoperi povești”, a spus Etim. "Cel mai tare lucru al acestui proiect este că nu am dat drumul nimănui. Nu te înlocuim cu mașini. Folosim pur și simplu oamenii pe care îi avem mai eficient și pentru a lua decizii cu adevărat dure."

    Lucrarea este deschisă să colaboreze cu alte publicații pentru a ajuta restul industriei să implementeze acest tip de tehnologie. Poate ajuta punctele de știri locale cu resurse limitate să mențină secțiuni de comentarii fără un personal mare dedicat și să utilizeze comentarii așa cum face The Times , pentru a găsi potențiali clienți și să alimenteze jurnalismul de bază.

    Etim a asimilat moderarea asistată de AI pentru a oferi unui fermier un plug mecanic versus o picadă. Puteți face treaba mult mai bine cu un plug.

    „Dacă perspectiva poate evolua într-un mod corect, poate, să sperăm, să creeze cel puțin un set de linii directoare repetabile pentru magazinele mici”, a spus el. "Este un joc lung, dar am pus deja bazele multor fonduri pentru a face parte din acea experiență de cititor. Atunci poate că aceste lucrări locale pot avea din nou comentarii și pot stabili un mic cap de plajă împotriva jucătorilor sociali importanți."

    Urlă în abis

    În acest moment, majoritatea dintre noi am văzut persoane atacate sau hărțuite pe social media pentru că au exprimat o opinie. Nimeni nu vrea să se întâmple cu ei, cu excepția troll-urilor care prospera la fel. Și am aflat că strigătele la un străin care nu va asculta niciodată un argument rațional nu reprezintă o utilizare valoroasă a timpului nostru.

    Perspectiva încearcă să sporească această dinamică, dar CJ Adams a spus că obiectivul mai larg este să publice date, cercetare și noi modele UX open-source pentru a crea noi structuri de conversație - o sarcină descurajantă. A face internetul un loc sănătos, care merită timpul oamenilor înseamnă să scalzi aceste sisteme dincolo de secțiunile de comentarii și subreditările de știri. În cele din urmă, instrumentele AI trebuie să poată gestiona aplicațiile și rețelele sociale importante care domină interacțiunile noastre digitale de zi cu zi.

    Lăsând deoparte ceea ce fac Facebook, Twitter și alți giganți sociali pe plan intern, cel mai direct mod de a realiza acest lucru este de a împinge tehnologia de la moderatori la utilizatori înșiși. Adams a arătat către Coral Project pentru o idee despre cum ar putea arăta asta.

    Proiectul Coral a fost inițial fondat ca o colaborare între Fundația Mozilla, The New York Times și Washington Post. Coral creează instrumente open-source, cum ar fi platforma Talk, pentru a încuraja discuțiile online și a oferi site-urilor de știri o alternativă la închiderea secțiunilor de comentarii. În prezent, Talk forțează platforme pentru aproape 50 de editori online, inclusiv Post , New York Magazine, The Wall Street Journal și The Intercept.

    La începutul acestei luni, Vox Media a achiziționat Proiectul Coral de la Fundația Mozilla; intenționează să-l „integreze” profund în cor, platforma sa de gestionare a conținutului și de povestiri.

    Perspective are un plugin pentru Coral Project care utilizează aceeași tehnologie de bază - punctarea toxicității bazată pe ML și pragurile - pentru a oferi utilizatorilor sugestii proactive pe măsură ce scriu, a spus Adams. Prin urmare, atunci când un utilizator scrie un comentariu care conține fraze semnalate ca abuz sau hărțuire, o notificare ar putea apărea pentru utilizator spunând: „Înainte de a posta acest lucru, asigurați-vă că vă amintiți ghidul comunității noastre” sau „Limba din acest comentariu poate încălca linii directoare ale comunității. Echipa noastră de moderare o va trece în revistă în curând."

    "Acest mic nod poate ajuta oamenii să ia acea secundă să gândească, dar nu blochează pe nimeni", a spus Adams. „Nu se oprește discuția”.

    Este un mecanism pe care platformele de chat și jocuri video le-au integrat pentru a provoca abuzul și hărțuirea. Utilizatorii de Twitter ar putea beneficia clar și de un astfel de sistem.

    Vorbește la o idee pe care omul de știință MIT, Andrew Lippmann, a adus-o în ediția viitoare a PCMag: El a vorbit despre mecanisme încorporate care ar permite oamenilor să se oprească și să se gândească înainte de a împărtăși ceva online, pentru a ajuta la răspândirea dezinformării. Conceptul se aplică și discuțiilor online. Am creat sisteme de comunicare fără frecare, capabile să amplifice în mod exponențial atingerea unei enunțări într-o clipă, dar uneori puțină fricțiune poate fi un lucru bun, a spus Lippmann.

    Perspectiva nu se referă la utilizarea AI ca soluție pătură. Este o modalitate de a modela modelele ML în instrumente pentru oameni pentru a-i ajuta să-și curețe propriile experiențe. Dar un contrapunct este că, dacă le faceți mai ușor pentru oameni să regleze zgomotul online care nu le place, internetul va deveni și mai mult dintr-o cameră ecologică decât este deja.

    Întrebat dacă instrumente precum Perspective ar putea exacerba acest lucru, Adams a spus că consideră că camerele ecografiei online există, deoarece nu există mecanisme care să găzduiască o discuție în care oamenii să nu poată fi de acord în mod semnificativ.

    "Calea cu cea mai mică rezistență este" Acești oameni se luptă. Haideți să-i lăsăm să se pună de acord cu ei înșiși în propriile lor colțuri. Lăsați oamenii să se silece singuri ", a spus el. "Lăsați pe oameni să strige pe toți ceilalți din cameră sau opriți discuția. Vrem ca Perspectiva să creeze o a treia opțiune."

    Adams a prezentat un exemplu de scenariu. Dacă întrebi o cameră de 1000 de persoane, „Câți dintre voi ați citit ceva astăzi de care v-a interesat cu adevărat?” majoritatea utilizatorilor de internet vor indica un articol, un tweet, o postare sau ceva citit online. Dar dacă îi întrebi, „Câți dintre voi au crezut că merită să vă faceți comentarii sau să discutați?” toate mâinile din cameră vor coborî.

    "Pentru atât de mulți dintre noi, nu merită doar efortul. Structura discuției pe care o avem în acest moment înseamnă doar că este o răspundere. Dacă aveți un gând rezonabil actual sau ceva pe care doriți să îl împărtășiți, pentru majoritatea oamenilor, ei nu" Nu vreau să iau parte ”, a spus Adams. "Asta înseamnă că din acei 1.000 de oameni care ar putea fi în sală, aveți doar o mână reprezentată în discuție; să zicem, 10 persoane. Am o credință profundă că putem construi o structură care să le permită celorlalți 990 să revină în discuție. și o face într-un mod în care consideră că merită timpul lor ”.

Cum jigsaw-ul google încearcă să detoxifice internetul