Video: Diriliş Ertuğrul - Bamsı Alp (Noiembrie 2024)
PRINEVILLE, Ore. - Există o mulțime de modalități de a vă asigura că aveți internet rapid. Te-ai putea muta într-un oraș Google Fiber. Puteți selecta unul dintre cele mai rapide ISP-uri. Sau, ai putea să îți construiești casa lângă un centru de date Facebook.
Luăm primul centru de date Facebook, de exemplu. Deschis în Prineville, Ore., În 2011, a servit drept model pentru fiecare centru de date pe care gigantul social media l-a construit de atunci, din Suedia până în Iowa. Consuma atât de multă lățime de bandă încât necesită mai multe ISP-uri care servesc zona pentru a-și fortifica rețelele, aducând rezidenții locali pentru călătorie.
S-ar putea să vă gândiți la centrul de date Prineville, împreună cu celelalte facilități Facebook, ca inima colectivă a celei mai mari rețele de socializare din lume: primesc o serie de solicitări de fotografii, actualizări de stare și actualizări de știri de la 1, 65 miliarde de utilizatori activi ai site-ului și răspunde cât mai repede posibil, similar cu o inimă care pompează oxigen în fluxul sanguin.
Instalația de la Prineville se apropie de cea de-a cincea aniversare și gestionează cererile de date pentru lucruri pe care Mark Zuckerberg probabil habar nu avea să le facă Facebook când a visat ideea companiei din camera sa din dormitorul Harvard.
Săptămâna aceasta, PCMag s-a oprit pentru un tur.
Prineville stochează încă fotografii și actualizări de stare, desigur, dar are acum și mii de GPU-uri Nvidia care susțin cercetarea informațiilor artificiale Facebook, precum și 2.000 de telefoane iOS și Android care efectuează teste 24 de ore pe zi. Acest lucru îi ajută pe inginerii companiei să crească eficiența energetică a aplicațiilor sale, care includ Instagram, Messenger și WhatsApp, pe lângă Facebook.
Datele Facebook sunt „rezistente, nu sunt redundante”
Primul lucru pe care îl observați despre instalația Prineville este dimensiunea ei pură. Ieșind din deșertul înalt cu arbori din centrul Oregonului, la trei ore de mers cu mașina de Portland nu este o singură clădire, ci patru (și asta nu include un alt centru de date imens Apple construit recent peste drum, denumit în mod potrivit Connect Way). Una dintre clădirile Facebook poate încadra două Walmarts în interior și este cu aproximativ 100 de metri mai lungă decât un portavion din clasa Nimitz.
În interior sunt servere care dețin mai multe petabytes de stocare și pe care inginerii Facebook le actualizează constant înlocuind componente. Dintre cele 165 de persoane care lucrează cu normă întreagă la centrul de date, 30 pe clădire sunt alocate doar pentru a repara sau înlocui surse de alimentare, procesoare, memorie și alte componente.
Semnul distinctiv al aproape oricărei companii care operează pe internet, de la Amazon la Charles Schwab, este redundanța: mai multe servere care stochează mai multe copii de date. Acesta este mai puțin cazul la Prineville, unde Ken Patchett, directorul Facebook al operațiunilor de date occidentale, este în schimb concentrat pe rezistență - definit ca fiind capacitatea de a fi gata oricând și oriunde în lume, cineva se conectează la Facebook.
Concentrându-se pe „reziliență, nu redundanță”, după cum spune Patchett, este posibil, deoarece Facebook are luxul de a stoca mai multe copii de date în celelalte locații ale sale din întreaga lume, de la Lulea, Suedia, la Altoona, Iowa. Deci, în loc să aibă două sau mai multe din toate, se poate concentra pe achizițiile de echipamente strategice în fiecare locație, cum ar fi un generator de energie de rezervă pentru fiecare șase generatoare principale.
„Trebuie să fii responsabil din punct de vedere fiscal dacă vei fi rezistent”, a explicat Patchett. Este unul dintre părinții fondatori ai centrelor de date de înaltă tehnologie din deșertul înalt din Oregon. Înainte de a ajunge la Facebook, a ajutat la lansarea unui centru de date din The Dalles, Ore., Pentru Google, una dintre primele companii de internet care a valorificat energia hidroelectrică ieftină și vremea răcoroasă și uscată care caracterizează marea parte a estului a noua cea mai mare din America. stat.
Puterea abundentă, desigur, este crucială pentru funcționarea Facebook. Temperatura serverului este reglată de o combinație de lichid de răcire a apei și ventilatoare imense care trag în aer uscat de deșert (mai jos) în loc de unități de aer condiționat cu energie electrică și cu bani. Intervalul de temperatură țintă este între 60 și 82 de grade Fahrenheit. Echipa Patchett a devenit atât de bună în atingerea acestei ținte, încât Prineville are acum un raport de eficiență a puterii de 1, 07, ceea ce înseamnă că echipamentele de răcire, luminile și încălzitoarele - orice nu este un dispozitiv de calcul - consumă doar 7% din consumul total de energie al instalației..
32 de iPhone-uri într-o cutie
Cea mai mare parte a răcirii și a puterii se îndreaptă către satisfacerea cerințelor serverelor, dar unele sunt redirecționate către o sală de testare a aplicațiilor relativ mică, cu implicații pentru reducerea consumului de energie nu doar în Prineville, ci pe fiecare telefon cu o aplicație Facebook.
Nu este un secret faptul că aplicația Facebook s-a luptat cu gestionarea puterii. The Guardian a afirmat la începutul acestui an că aplicația scade durata de viață a bateriei pe iPhone cu 15%. Pentru a eficientiza aplicația și a reduce consumul bateriei sale, compania a adus aproximativ 2.000 de telefoane iOS și Android la Prineville, unde sunt instalate în cutii în grupuri de 32.
Fiecare cutie are propria sa rețea Wi-Fi, amplasată de pereți izolați și bandă de cupru, pe care inginerii din sediul din Silicon Valley o folosesc pentru a livra o baterie de teste. Caută „regresii” în utilizarea bateriei și a performanței cauzate de actualizările aplicațiilor Facebook, Instagram, Messenger și WhatsApp. Dacă găsesc unul în propriul cod Facebook, îl rezolvă. Dacă ineficiența a fost introdusă de un dezvoltator, sistemul lor notifică automat infractorul prin e-mail.
Casetele nu conțin doar cele mai recente iPhone 6s sau Galaxy S7. Pe partea de iOS, acestea includ multe modele de la iPhone 4s și versiuni ulterioare. Pe partea de Android, cine știe? Este suficient să spunem că există un tip al cărui job este să găsească dispozitive Android obscure și să le aducă la Prineville.
„Trebuie să furnizăm telefoane de pretutindeni”, a spus Antoine Reversat, un inginer care a ajutat la dezvoltarea infrastructurii și software-ului de testare. Scopul său final este de a dubla capacitatea rafturilor de a reține până la 62 de telefoane fiecare și de a descoperi o modalitate de a reduce procedura manuală în 20 de pași necesară pentru a configura telefonul pentru testare la un pas. Acest lucru ar trebui să mângâie pe oricine și-a făcut telefonul să moară în timp ce își reîmprospăta fluxurile de știri.
Big Sur: creierul AI de Facebook
Următoarele turnee noastre au fost serverele de inteligență artificială Big Sur, care, la fel ca linia de coastă din California pentru care sunt numite, constituie, probabil, cea mai pitorească parte a centrului de date. Nu vorbim, bineînțeles, despre vizionarele Pacificului, ci despre un ecran de computer care a afișat ceea ce părea a fi un grup de tablouri, condus de Ian Buck, vicepreședintele Nvidia, vice-președinte de calcul accelerat.
„Am antrenat o rețea neuronală pentru a recunoaște tablourile”, a explicat Buck. „După aproximativ o jumătate de oră de a privi tablourile, este capabil să înceapă să-și genereze propriile.
Cele afișate seamănă cu impresionismul francez din secolul al XIX-lea, dar cu o răsucire. Dacă doriți o combinație de o natură naturală a fructelor și un peisaj de râu, Big Sur îl va picta pentru dvs. flexând 40 de petaflop-uri ale puterii de procesare pe server. Este unul dintre mai multe sisteme AI care folosesc GPU Nvidia - în acest caz, procesoare Tesla M40 bazate pe PCI.e - pentru a rezolva probleme complexe de învățare a mașinilor. Proiectul de asistență medicală DeepMind Google folosește, de asemenea, procesoarele Nvidia.
Facebook folosește Big Sur pentru a citi povești, a identifica fețele din fotografii, a răspunde la întrebări despre scene, a juca jocuri și a învăța rutine, printre alte sarcini. Este, de asemenea, software-ul de aprovizionare deschisă, oferind altor dezvoltatori un model pentru modul de configurare a propriei infrastructuri specifice AI. Hardware-ul include opt placi GPU Tesla M40 de până la 33 de wați fiecare. Toate componentele sunt ușor accesibile într-un sertar al serverului pentru a crește ușurința actualizărilor, care vor fi sigur că vor veni, deoarece Nvidia lansează noi versiuni PCI.e ale GPU-urilor sale Tesla, inclusiv P100.
Depozitare la rece pentru fotografii uitate
Întrucât Prineville este primul centru de date al Facebook, tinde să fie locul în care inginerii testează ideile pentru a face serverele Facebook mai eficiente. Una dintre cele mai recente idei este stocarea la rece sau serverele dedicate care stochează nimic pe Facebook care nu primește o mulțime de vizualizări - fotografiile tale de liceu, de exemplu, sau acele zeci de actualizări de stare pe care le-ai postat când Michael Jackson a murit în 2009.
Secretul depozitării la rece pentru succes este multiplele sale niveluri. Primul nivel este alcătuit din hardware-ul de înaltă performanță pentru întreprinderi, în timp ce nivelurile inferioare folosesc componente mai ieftine și, în unele cazuri, poate pentru acele fotografii ale tale cu acolade pe care speri că nimeni nu le vede vreodată - bibliotecile cu bandă de rezervă. Rezultatul final este că fiecare rack al serverului de stocare la rece poate conține 2 petabytes de stocare, sau echivalentul a 4.000 de stive de bănuți care ajung până la Lună.
Construirea pentru viitor
Deși Facebook a adus mai rapid Internet și alte beneficii pentru Prineville, inclusiv peste 1 milion de dolari în donații către școlile locale și organizațiile de caritate, prezența sa nu este lipsită de controverse. Oregon renunță la o mulțime de bani pentru reduceri de impozite către companie, într-un moment în care economia locală, care încă se învârte din bula de locuințe din 2008, urmărește media națională.
Totuși, 1, 65 miliarde de oameni nu ar avea acces la Facebook fără acest avanpost de deșert și centrele de date ale surorii sale. Și chiar dacă pune punct final asupra celei de-a patra clădiri Prineville, compania este în curs de a finaliza un al cincilea centru din Texas. Dar dacă asta te face să te simți vinovat pentru energia consumată de navigarea dvs. pe Facebook, nu ar trebui. Potrivit Patchett, un singur utilizator care navighează pe Facebook un an întreg consumă mai puțină energie decât este necesar pentru a face un latte. Cu alte cuvinte, puteți renunța la o singură călătorie la Starbucks și să parcurgeți fluxul de știri până la conținutul inimii voastre.