Acasă Caracteristici 10 Algoritmul stânjenitor eșuează

10 Algoritmul stânjenitor eșuează

Cuprins:

Video: Cum sa asculti muzica de pe YOUTUBE CU ECRANUL OPRIT la telefon ! (Noiembrie 2024)

Video: Cum sa asculti muzica de pe YOUTUBE CU ECRANUL OPRIT la telefon ! (Noiembrie 2024)
Anonim

Tehnologia nu este doar pentru geek, este pentru toată lumea și asta este o mulțime de oameni. Cu doar un număr de companii care controlează majoritatea hardware-ului și software-ului, de la Apple și Amazon la Facebook, Microsoft și Google - nu pot face decât să controleze portofelul și globurile oculare. Ce să facă o corporație săracă și uriașă? Se bazează pe algoritmi pentru a lua unele dintre deciziile importante.

Oxford Living Dictionaries definește algoritmul drept „un proces sau un set de reguli care trebuie urmate în calcule sau în alte operațiuni de rezolvare a problemelor, în special de un computer”. Un exemplu perfect este Facebook News Feed. Nimeni nu știe cum funcționează că unele dintre postările tale apar sau nu pe Feeds News, dar Facebook face asta. Sau ce zici de Amazon care vă arată cărți înrudite? Căutări înrudite pe Google? Toate acestea sunt secrete îndeaproape păzite, care fac multă muncă pentru companie și pot avea un impact mare asupra vieții tale.

Dar algoritmii nu sunt perfecti. Nu reușesc, iar unele nu reușesc spectaculos. Adăugați strălucire de pe social media și un mic glitch se poate transforma într-un adevărat coșmar PR rapid. Rareori este răuvoitor; acestea tind să fie ceea ce New York Times numește „Frankenstein Moments”, unde creatura pe care cineva a creat-o se transformă într-un monstru. Dar se întâmplă și am compilat mai jos câteva dintre cele mai neobișnuite exemple recente. Spuneți-ne preferatele dvs. în comentariile de mai jos.

    1 anunțuri discutabile pe Instagram

    Conform raportului The Guardian , Facebook îi place să difuzeze reclame pentru serviciul său Instagram cu postări de la proprii utilizatori. Dar algoritmul a ales „fotografia” greșită pentru a împinge prietenilor Oliviei Solon, ea însăși o reporteră la The Guardian , selectând o captură de ecran în vârstă de un an pe care a făcut-o pe un e-mail amenințător.

    2 reclame rasiste vizate

    Săptămâna trecută, ProPublica a raportat că Facebook le-a permis agenților de publicitate să vizeze categorii ofensive ofensive, cum ar fi „haters evrei”. Site-ul a plătit 30 de dolari pentru un anunț (de mai sus) care vizează o audiență care să răspundă pozitiv la lucruri precum „de ce evreii strică lumea” și „Hitler nu a făcut nimic rău”. A fost aprobat în 15 minute.

    Ardezia a găsit categorii la fel de ofensive și a devenit o alta în linia lungă de articole pe care Facebook a trebuit nu numai să-i ceară scuze, dar a promis că se va rezolva cu o oarecare supraveghere umană. Știi, ca atunci când a plasat reclame electorale în valoare de 100.000 USD pentru Rusia.

    Într-o postare pe Facebook, COO Sheryl Sandberg a declarat că este „dezgustată și dezamăgită de acele cuvinte” și a anunțat modificări ale instrumentelor sale de publicitate.

    BuzzFeed a verificat modul în care Google se va descurca cu lucruri similare și a considerat că este ușor să creezi și anunțuri direcționate care să poată fi văzute de către rasi și bigoti. Daily Beast a verificat-o pe Twitter și a găsit milioane de anunțuri folosind termeni precum „nazist”, „wetback” și cuvântul N.

    3 Anul Facebook în rău de recenzie

    Dacă sunteți pe Facebook, nu ați văzut, fără îndoială, videoclipurile sale de la sfârșitul anului, generate de algoritmi, cu cele mai importante momente din ultimele 12 luni. Sau pentru unii, luminile joase. În 2014, un tată a văzut o poză cu fiica sa răposată, în timp ce un altul a văzut instantanee ale casei sale în flăcări. Alte exemple includ persoane care își văd animalele de companie târzie, urne pline cu cenușa părinților și prieteni decedați. Până în 2015, Facebook a promis că va filtra amintirile triste.

  • 4 Tesla Autopilot Crash

    Cele mai multe melci algoritmici sunt departe de a fi fatale, dar lumea mașinilor care se auto-conducă va aduce un cu totul nou nivel de pericol. Acest lucru s-a întâmplat deja cel puțin o dată. Un proprietar Tesla de pe o autostradă din Florida a folosit modul semi-autonom (Pilot automat) și s-a prăbușit într-un tractor-trailer care l-a tăiat. Tesla a emis rapid upgrade-uri, dar a fost cu adevărat vina modului Autopilot? Administrația națională de siguranță a traficului rutier spune că poate nu din moment ce sistemul necesită șoferului să rămână alert pentru probleme, așa cum puteți vedea în video de mai sus. Acum, Tesla împiedică Autopilotul să fie angajat chiar dacă șoferul nu răspunde la indicii vizuale.

  • 5 Tay the Racist Microsoft AI

    Cu câțiva ani în urmă, robotii de chat trebuiau să ducă lumea prin furtună, înlocuind repetițiile pentru serviciile clienților și făcând lumea online un loc de discuție pentru a obține informații. Microsoft a răspuns în martie 2016, dând la iveală un AI numit Tay, că oamenii, în special, între 18 și 24 de ani, ar putea interacționa cu Twitter. La rândul său, Tay ar face tweet-uri publice pentru mase. Dar, în mai puțin de 24 de ore, învățând de la masele cu gât urât, Tay a devenit un rasist plin de viață. Microsoft l-a tras pe Tay în jos instantaneu; ea s-a întors ca un nou AI numit Zo în decembrie 2016, cu „controale și echilibre puternice pentru a o proteja de exploatare”.

    6 Felicitări pentru bebelușul tău (inexistent)!

    Dezvăluire completă: în timp ce scriu acest lucru, soția mea este de fapt însărcinată. Amândoi am primit acest e-mail de la Amazon spunând că cineva ne-a cumpărat ceva din registrul nostru pentru copii. Nu am făcut-o încă publică, dar nu a fost atât de șocant. Între timp, alte câteva milioane de clienți Amazon au obținut aceeași notă, inclusiv unii fără registru… sau un copil pe drum. Ar fi putut face parte dintr-o schemă de phishing, dar nu a fost. Amazon a surprins eroarea și a trimis un e-mail de scuză de urmărire. Până atunci, mulți s-au plâns că acest lucru era inadecvat sau insensibil. Acesta a fost mai puțin algoritm decât serverul de e-mail glitchy, dar vă arată că este întotdeauna ușor de jignit.

    7 Materiale Bombă „Recomandă” Amazon

    Toată lumea a sărit pe asta după ce a fost raportată de Channel 4 News din Marea Britanie, de la Fox News până la New York Times . Se presupune că funcția Amazon „cumpărată frecvent” le arăta oamenilor ce au nevoie pentru a construi o bombă, dacă ar începe cu unul dintre ingredientele pe care site-ul nu le va numi (era nitrat de potasiu).

    Ceea ce a făcut algoritmul Amazon a fost să le arate cumpărătorilor ingredientele pentru a face pulbere neagră în cantități mici, ceea ce este total legal în Regatul Unit și este folosit pentru tot felul de lucruri - cum ar fi artificii - așa cum s-a subliniat rapid într-un mod incredibil de bine gândit - afară postare pe blog la Idle Words. În schimb, toate rapoartele sunt despre modul în care Amazon privește, deoarece asta trebuie să spună că fac într-o lume frică de terorism și logică.

    8 Google Maps devine Racist

    În 2015, Google a trebuit să-și ceară scuze atunci când Google Maps caută „n ***** rege” și „n *** o casă”, conduc la Casa Albă, care era încă ocupată de Barack Obama la acea vreme. Acesta a fost rezultatul unei „Googlebomb”, în care un termen folosit de mai multe ori este preluat de motorul de căutare și marcat drept „popular”, astfel încât rezultatele merg în partea de sus a căutării. Este modul în care cuvântul „Santorum” a obținut noua sa definiție.

    9 Etichete Google Oameni ca gorile

    Google Photos este o aplicație / serviciu uimitoare care vă stochează toate imaginile și multe altele. Una dintre aceste lucruri este de a eticheta automat oamenii și lucrurile din fotografii. Folosește recunoașterea facială pentru oameni pentru a le îngusta până la persoana corectă. Am chiar un dosar cu toți câinii mei și nu i-am etichetat. Pentru că, la fel de bine, funcționează, a fost neplăcut când în 2015 Google a trebuit să-și ceară scuze programatorului de calculator Jacky Alciné când el și un prieten - amândoi negri - au fost identificați de serviciul de gorile. „Ne pare îngrozitor și ne pare rău că s-a întâmplat acest lucru”, a declarat Google pentru PCMag.

    10 Robot Security lovește copilul, se ucide pe sine

    Knightscope face roboți autonomi de securitate numiți K5 pentru patrularea școlilor, mall-urilor și cartierelor. Conurile Dalek-esque de 5 metri înălțime pe roți - care, în opinia lor, sunt încă în testare beta - au tendința de a face veștile nu pentru infracțiunile criminalității, ci pentru vrăjitoare.

    De exemplu, în iulie 2016, K5 din Centrul comercial Stanford din Palo Alto a alergat pe piciorul unui tânăr de 16 luni, iar Knightscope a trebuit să își ceară scuze în mod oficial. Aceeași locație - poate același droid - a avut o altercație într-o parcare cu un bețiv, dar cel puțin asta nu a fost vina K5-ului. Juriul este încă în unitatea K5 din Georgetown Waterfront, complex de birouri / cumpărături din Washington DC… că unul ar fi coborât pe niște scări într-o fântână cu apă, după doar o săptămână la slujbă. Nu arată bine pentru armata lui Skynet.

10 Algoritmul stânjenitor eșuează