Acasă Păreri Anul industriei aeriene a calculului etic

Anul industriei aeriene a calculului etic

Cuprins:

Video: Neurochirurgii Ionuț Gobej și Dorin Bică: „Mai are rost o astfel de medicină?“ (Octombrie 2024)

Video: Neurochirurgii Ionuț Gobej și Dorin Bică: „Mai are rost o astfel de medicină?“ (Octombrie 2024)
Anonim

De când rețelele neuronale profunde au câștigat cea mai importantă competiție de recunoaștere a imaginilor din 2012, toată lumea a fost încântată de ceea ce inteligența artificială ar putea dezlănțui. Dar în cursa de a dezvolta noi tehnici și aplicații de AI, posibilele impacturi negative au luat un loc din spate.

Acum vedem o schimbare către o mai mare conștientizare a eticii AI. În 2018, dezvoltatorii AI au devenit mai conștienți de posibilele ramificări ale creațiilor lor. Mulți ingineri, cercetători și dezvoltatori au dat de înțeles că nu vor construi tehnologii care să dăuneze sau să producă daune vieții oamenilor nevinovați și și-au ținut companiile.

Recunoașterea facială în aplicarea legii

În trecut, crearea de aplicații de recunoaștere facială a fost dificilă, intensiv în resurse și predispusă la erori. Dar, odată cu progresele viziunii computerizate - subsetul de AI care permite calculatoarelor să recunoască conținutul de imagini și video - crearea aplicațiilor de recunoaștere facială a devenit mult mai ușoară și la îndemâna tuturor.

Companiile mari de tehnologie, cum ar fi Microsoft, Amazon și IBM au început să furnizeze servicii bazate pe cloud care au permis oricărui dezvoltator să integreze tehnologia de recunoaștere a feței în software-ul lor. Aceasta a deblocat multe cazuri noi de utilizare și aplicații în diferite domenii, precum protecția identității și autentificarea, securitatea inteligentă a locuinței și vânzarea cu amănuntul. Dar activiștii pentru drepturile de confidențialitate și-au exprimat îngrijorarea cu privire la potențialul de utilizare greșită.

În mai 2018, Uniunea Americană pentru Libertăți Civile a dezvăluit că Amazon comercializa Rekognition, o tehnologie video-analitică în timp real, către agențiile de aplicare a legii și guvern. Potrivit ACLU, poliția din cel puțin trei state folosea Rekognition pentru recunoașterea facială a fluxurilor video de supraveghere.

"Cu Rekognition, un guvern poate acum să construiască un sistem care să automatizeze identificarea și urmărirea oricui. Dacă camerele de corp ale poliției, de exemplu, ar fi echipate cu recunoașterea facială, dispozitivele destinate transparenței și răspunderii ofițerului se vor transforma în mașini de supraveghere orientate către public ", a avertizat ACLU. "Prin automatizarea supravegherii în masă, sistemele de recunoaștere facială precum Rekognition amenință această libertate, reprezentând o amenințare specială pentru comunitățile care sunt deja țintite în mod nejustificat în actualul climat politic. Odată ce sistemele puternice de supraveghere sunt construite și dislocate, daunele vor fi extrem de dificil de anulat..“

Îngrijorările ACLU au avut ecoul angajaților Amazon, care, în iunie, a scris o scrisoare către Jeff Bezos, CEO-ul companiei și i-a cerut să înceteze să vândă Rekognition oamenilor de ordine. "Compania noastră nu ar trebui să se afle în activitatea de supraveghere; nu ar trebui să fim în activitatea de poliție; nu ar trebui să ne ocupăm de sprijinirea celor care monitorizează și oprim populațiile marginalizate", se arată în scrisoare.

În octombrie, un angajat anonim Amazon a dezvăluit că cel puțin 450 de angajați au semnat o altă scrisoare prin care i-au chemat pe Bezos și alți directori să înceteze vânzarea Rekognition către poliție. "Nu putem profita dintr-o mulțime de clienți puternici în detrimentul comunităților noastre; nu ne putem evita ochii de costurile umane ale afacerii noastre. Nu vom construi în tăcere tehnologie pentru a oprima și a ucide oameni, fie în țara noastră, fie în alte persoane, "a spus.

Renunțarea la proiectul AI militar Google

În timp ce Amazon se confrunta cu această reacție internă, Google se confrunta cu lupte similare pentru un contract de dezvoltare a AI pentru armata americană, denumită Project Maven.

Se pare că Google a ajutat Departamentul Apărării să dezvolte o tehnologie de vizionare a computerului, care va prelucra imagini video cu dron. Cantitatea de înregistrări video înregistrate de drone în fiecare zi a fost prea mare pentru a analiza analiștii umani, iar Pentagonul a dorit să automatizeze o parte din proces.

Recunoscând natura controversată a sarcinii, un purtător de cuvânt al Google a stipulat că furnizează numai API-uri pentru TensorFlow, platforma sa de învățare automată, pentru detectarea obiectelor din fluxurile video. De asemenea, Google a subliniat că dezvoltă politici și garanții pentru a aborda aspecte etice ale tehnologiei sale.

Însă Project Maven nu s-a înțeles bine cu angajații Google - dintre care 3.000, inclusiv zeci de ingineri, au semnat în curând o scrisoare deschisă către directorul executiv Sundar Pichai, care solicita încheierea programului.

„Credem că Google nu ar trebui să se afle în afacerile războiului”, a scris scrisoarea. Aceasta a solicitat companiei „să elaboreze, să publice și să aplice o politică clară care să ateste că nici Google, nici contractanții săi nu vor construi vreodată tehnologie de război”.

De asemenea, angajații Google au avertizat că angajatorul lor pune în pericol reputația și capacitatea sa de a concura pentru talent în viitor. „Nu putem externaliza responsabilitatea morală a tehnologiilor noastre către terți”, au subliniat Googlers.

La scurt timp, o petiție semnată de 90 de universitari și cercetători a solicitat executivilor de top Google să întrerupă activitatea privind tehnologia militară. Semnatarii au avertizat că activitatea Google va constitui scena pentru „recunoașterea automatizată a țintelor și sisteme de arme autonome”. Ei au avertizat, de asemenea, că, pe măsură ce tehnologia se dezvoltă, vor sta „la un pas scurt de a autoriza drone autonome să omoare automat, fără supraveghere umană sau control uman semnificativ”.

Pe măsură ce tensiunile au crescut, câțiva angajați Google și-au dat demisia la protest.

Cum au răspuns liderii tehnici

Sub presiune, Google a declarat în iunie că nu își va reînnoi contractul cu Departamentul Apărării pe Proiectul Maven după ce expiră în 2019.

Într-o postare pe blog, CEO-ul Sundar Pichai (ilustrat mai jos) a declarat un set de principii etice care ar guverna dezvoltarea și vânzarea companiei de tehnologie AI. Potrivit lui Pichai, compania va lua în considerare de acum încolo proiecte care sunt pentru binele societății în ansamblu și va evita dezvoltarea AI care să consolideze prejudecățile neloiale existente sau să submineze siguranța publică.

Pichai a mai spus în mod explicit că compania sa nu va lucra la tehnologii care încalcă normele privind drepturile omului.

Bezos-ul Amazon a fost mai puțin înfocat de ultrajul pentru Rekognition. "Vom continua să susținem DoD, și cred că ar trebui", a spus Bezos la o conferință tehnică din San Francisco, în octombrie. „Unul din locurile de muncă ale conducerii superioare este să ia decizia corectă, chiar și atunci când este nepopular.”

De asemenea, Bezos a subliniat necesitatea ca comunitatea tehnologică să sprijine armata. „Dacă companiile mari de tehnologie vor întoarce spatele DoD, această țară va avea probleme”, a spus el.

Președintele Microsoft, Brad Smith, a cărui companie s-a confruntat cu critici pentru activitatea sa cu ICE, a publicat o postare pe blog în iulie în care a solicitat o abordare măsurată în ceea ce privește vânzarea de tehnologii sensibile agențiilor guvernamentale. Deși Smith nu a exclus să vândă servicii de recunoaștere facială către forțele de ordine și militari, el a subliniat necesitatea unei mai bune reglementări și transparență în sectorul tehnologiei.

  • MIT va cheltui 1 miliard de dolari pentru program pentru a studia etica AI MIT pentru a cheltui 1 miliard de dolari pentru program pentru a studia etica AI
  • Vorbește într-adevăr limba noastră AI? Vorbește într-adevăr limba noastră AI?
  • Încetarea fabricii AI de neoprit din China Încetarea fabricii AI de neoprit din China

"Am ales reprezentanți în Congres, dispun de instrumentele necesare evaluării acestei noi tehnologii, cu toate ramificațiile sale. Beneficiem de verificările și soldurile unei Constituții care ne-a văzut de la epoca lumânărilor până la o eră a inteligenței artificiale. Ca și în de atâtea ori în trecut, trebuie să ne asigurăm că noile invenții servesc libertăților noastre democratice în conformitate cu statul de drept ”, a scris Smith.

În 2018, amenințările îndepărtate ale roboților ucigași și șomajul în masă au dat loc îngrijorărilor cu privire la impactul etic și social mai imediat al AI. În multe feluri, aceste evoluții indică faptul că industria se maturizează, deoarece algoritmii AI devin mai proeminenți în sarcinile critice. Dar, pe măsură ce algoritmii și automatizarea devin mai înrădăcinate în viața noastră de zi cu zi, vor apărea mai multe dezbateri.

Anul industriei aeriene a calculului etic