Acasă Gândire înainte Provocările de fabricare a cipurilor se confruntă cu legea lui Moore

Provocările de fabricare a cipurilor se confruntă cu legea lui Moore

Video: 302.1 FIZICA - Electricitate - Legea lui OHM pentru un circuit simplu (Octombrie 2024)

Video: 302.1 FIZICA - Electricitate - Legea lui OHM pentru un circuit simplu (Octombrie 2024)
Anonim

La fiecare câțiva ani, există povești despre modul în care legea lui Moore - conceptul potrivit căruia numărul tranzistorilor într-o anumită zonă se dublează la fiecare doi ani sau ceva mai mult - moare. Astfel de povești au trecut de zeci de ani, dar continuăm să vedem cipuri noi cu mai mulți tranzistoare la fiecare câțiva ani, cam la termen.

De exemplu, în februarie, Intel a introdus un cip tranzistor de 4, 3 miliarde numit Xeon E7v2 sau Ivytown pe o matriță de 541 milimetri pătrați, folosind procesul său de 22 nm. În urmă cu un deceniu, Xeon de înaltă performanță Intel, cunoscut sub numele de Gallatin, era un cip de 130 de nm cu 82 de milioane de tranzistoare pe o matriță de 555 milimetri pătrați. Asta nu înseamnă că se menține o dublare la fiecare doi ani, dar este aproape.

Desigur, asta nu înseamnă că va continua să funcționeze pentru totdeauna și, într-adevăr, confecționarea cipurilor trece prin unele schimbări mari care afectează atât fabricația, cât și designul cipurilor, iar toate acestea vor avea impacturi durabile asupra utilizatorilor.

Cel mai clar, a fost clar de mult timp că viteza ceasului nu devine mai rapidă. La urma urmei, Intel a introdus cipuri Pentium în 2004, care au rulat la 3, 6 GHz; astăzi, top-end-ul Core i7 al companiei rulează la 3, 5 GHz cu o viteză turbo maximă de 3, 9 GHz. (Desigur, există unii oameni care overclock, dar asta a fost întotdeauna cazul.)

În schimb, designerii au reacționat adăugând mai multe nuclee la cipuri și crescând eficiența fiecărui nucleu individual. Astăzi, chiar și cel mai mic capăt pe care îl puteți obține pentru un desktop sau laptop este un cip dual-core, iar versiunile quad-core sunt obișnuite. Chiar și în telefoane, vedem acum o mulțime de piese quad-core și chiar octa-core.

Este excelent pentru a rula mai multe aplicații în același timp (multi-tasking) sau pentru aplicații care pot profita cu adevărat de mai multe nuclee și fire, dar majoritatea aplicațiilor încă nu fac asta. Dezvoltatorii - în special cei care creează instrumente pentru dezvoltatori - au petrecut mult timp pentru ca aplicațiile lor să funcționeze mai bine cu mai multe nuclee, dar există încă o mulțime de aplicații care depind în mare parte de performanța cu un singur filet.

În plus, dezvoltatorii de procesoare pun mult mai multe nuclee grafice și alte nuclee specializate (cum ar fi cele care codifică sau decodează video, sau criptează sau decriptează date) în cadrul unui procesor de aplicații, în ceea ce o mare parte din industrie a numit procesare eterogenă. AMD, Qualcomm și MediaTek au impulsionat acest concept, ceea ce are mult sens pentru anumite lucruri. Cu siguranță ajută la integrare - făcând cipurile mai mici și mai puțin flămând de putere; și pare să aibă un sens perfect în procesoarele mobile - cum ar fi abordarea big.LITTLE pe care ARM a luat-o acolo unde combină nuclee mai puternice, dar mai puternice, cu cele care iau doar puterea. Pentru mulți dintre noi, obținerea de cipuri care utilizează mai puțină energie pentru aceeași performanță - și, prin urmare, dispozitivele mobile care consumă mai mult timp la o încărcare a bateriei, este o mare sumă.

Utilizarea unui număr extraordinar de nuclee - indiferent dacă sunt nuclee grafice sau nuclee x86 specializate - are cu siguranță un impact uriaș asupra calculelor de înaltă performanță, în care lucruri precum plăcile Tesla Nvidia sau Intel Xeon Phi (Knight's Corner) au un impact imens. Într-adevăr, majoritatea supercomputerelor de top folosesc astăzi una dintre aceste abordări. Dar funcționează în continuare doar pentru anumite tipuri de utilizări, în principal pentru aplicații în principal pentru aplicațiile care folosesc comenzi SIMD (instrucțiune unică, date multiple). Pentru alte lucruri, această abordare nu funcționează.

Și nu doar că cipurile care nu pot rula mai repede. Pe partea de fabricație, există și alte obstacole în calea mai multor tranzistoare. În ultimul deceniu, am văzut tot felul de noi tehnici pentru confecționarea cipurilor, trecând de la amestecul tradițional de siliciu, oxigen și aluminiu către tehnici noi precum „siliconul încordat” (unde inginerii întind atomii de siliciu), înlocuind porți cu materiale de înaltă K / porți metalice și, cel mai recent, trecerea de la porți plane tradiționale la porți 3-D cunoscute sub numele de FinFETs sau „TriGate” în limbajul Intel. Primele două tehnici sunt acum utilizate de către toți producătorii de cipuri avansați, turnările urmând să introducă FinFET-uri în următorul an, după introducerea Intel 2012.

O alternativă se numește FD-SOI (silicon-on-izolator complet epuizat), o tehnică pe care ST Microelectronics a împins-o în special, care folosește un strat de izolare subțire între substratul de siliciu și canal pentru a asigura un control electric mai bun al tranzistoarelor minuscule, în teorie care oferă o performanță mai bună și o putere mai mică. Dar până acum, nu pare să aibă aproape impulsul marilor producători pe care îi au FinFET-urile.

În ultimul timp, Intel a făcut o mare parte din cât de departe este la fabricarea cipurilor și, într-adevăr, a început să livreze producția de volum a microprocesoarelor Core pe procesul său de 22 nm cu tehnologia TriGate în urmă cu aproximativ doi ani și intenționează să livreze produse de 14 nm în a doua jumătate din acest an. Între timp, marile turnări de plăci plănuiesc să producă volum de 20 de milimetri în volum la sfârșitul acestui an folosind tranzistoarele plane tradiționale, cu produse de 14 sau 16 nm cu FinFET-uri pentru anul viitor.

Intel a prezentat diapozitive care arată cât de departe este pe densitatea cipului, cum ar fi acesta din ziua analistului:

Dar fundațiile nu sunt de acord. Iată o prezentare din cel mai recent apel de investitori al TSMC, care spune că poate închide decalajul anul viitor.

Evident, doar timpul va spune.

Între timp, obținerea dimensiunilor mai mici de matrițe este mai dificilă cu instrumentele tradiționale de litografie utilizate pentru gravarea liniilor în cipul de siliciu. Litografia de imersie, pe care industria a folosit-o de ani buni, și-a atins limita, astfel încât vânzătorii apelează acum la „modelare dublă” sau chiar mai multe treceri pentru a obține dimensiuni mai fine. Deși am observat un progres în ultima perioadă, mult așteptată mișcare spre litografia ultravioletă extremă (EUV), care ar trebui să ofere un control mai fin, rămâne cu ani buni.

Lucruri precum FinFET-uri și modelări multiple ajută la crearea următoarei generații de cipuri, dar la costuri crescânde. Într-adevăr, un număr de analiști spun că costul pe tranzistor de producție la 20 de milioane poate să nu fie o îmbunătățire a costului la 28 de milioane, din cauza necesității dublei modelări. Și noi structuri precum FinFET-urile vor fi, de asemenea, mai scumpe, cel puțin la început.

Drept urmare, mulți producători de cipuri analizează metode și mai exotice de îmbunătățire a densității, chiar dacă tehnicile tradiționale ale Legii Moore nu funcționează.

Memoria flash NAND folosește cea mai avansată tehnologie de proces, astfel încât deja se confruntă cu probleme grave cu scalarea orizontală convențională. Soluția este de a crea șiruri verticale NAND. Celulele de memorie individuale nu vor fi mai mici, dar pentru că puteți stiva atât de multe unele peste altele - toate pe același substrat - veți avea o densitate mult mai mare în aceeași amprentă. De exemplu, un cip 3D NAND 3D în 16 straturi fabricat pe un proces de 40nm ar fi aproximativ echivalent cu un cip convențional 2D NAND realizat pe un proces de 10 nm (cel mai avansat proces folosit acum este 16nm). Samsung spune că își fabrică deja V-NAND (Vertical-NAND), iar Toshiba și SanDisk vor urma ceea ce numește p-BiCS. Micron și SK Hynix dezvoltă, de asemenea, 3D NAND, dar par a fi concentrați pe standardul 2D NAND pentru următorii doi ani.

Rețineți că acesta nu este același lucru cu stivuirea cipurilor 3D. Memoria DRAM lovește de asemenea un perete de scalare, dar are o arhitectură diferită care necesită un tranzistor și un condensator în fiecare celulă. Soluția aici este să stivați mai multe cipuri de memorie DRAM fabricate una peste alta, să găuriți prin substraturi, apoi să le conectați folosind o tehnologie numită prin siliciu-vias (TSVs). Rezultatul final este același - o densitate mai mare într-o amprentă mai mică - dar este mai mult un proces avansat de ambalare decât un nou proces de fabricare. Industria intenționează să folosească această aceeași tehnică pentru a stoca memoria pe partea de logică, nu numai pentru a tăia amprenta, ci și pentru a îmbunătăți performanța și a reduce puterea. O soluție care a atras multă atenție este Cubul de memorie hibrid Micron. În cele din urmă, stivuirea cipurilor 3D ar putea fi utilizată pentru a crea cipuri mobile puternice care combină procesoare, memorie, senzori și alte componente într-un singur pachet, dar mai există încă multe probleme de rezolvat cu fabricarea, testarea și funcționarea acestor așa-numite eterogene Stive 3D.

Dar este următoarea generație de tehnici despre care au vorbit producătorii de cipuri care par mult mai exotice. La conferințele cu cipuri, auziți multe despre Asamblarea Auto Directă (DSA), în care materialele noi se vor asambla de fapt în modelul de tranzistor de bază - cel puțin pentru un strat de cip. Suna cam la ficțiune științifică, dar știu o serie de cercetători care cred că acest lucru nu este deloc departe.

Între timp, alți cercetători se uită la o clasă de materiale noi - cunoscute sub denumirea de semiconductori III-V în stiluri mai tradiționale de fabricație; în timp ce alții se uită la diferite structuri semiconductoare pentru a suplimenta sau înlocui FinFET-uri, cum ar fi nanofirele.

O altă metodă de reducere a costurilor este de a face tranzistoare pe o placă mai mare. Industria a trecut prin astfel de tranziții înainte de a trece de la placi de 200 mm la napolitane de 300 mm (aproximativ 12 inci în diametru) acum aproximativ un deceniu. Acum, se vorbește foarte mult despre trecerea la napolitane de 450 mm, majoritatea marilor producători de napolitane și furnizorii de instrumente creând un consorțiu pentru a privi tehnologiile necesare. O astfel de tranziție ar trebui să reducă costurile de fabricație, dar va avea un cost de capital ridicat, deoarece va necesita noi fabrici și o nouă generație de instrumente de fabricare a cipurilor. Intel are o fabrică în Arizona, care ar putea să producă 450 mm, dar a întârziat comandarea instrumentelor, iar mulți dintre furnizorii de instrumente întârzie și ofertele lor, ceea ce face probabil ca prima producție reală de napolitane de 450 mm să nu fie până 2019 sau 2020 cel mai devreme.

Totul pare să fie din ce în ce mai greu și mai scump. Dar acesta a fost cazul fabricării de semiconductori încă de la început. Marea întrebare este întotdeauna dacă îmbunătățirea performanței și densitatea suplimentară vor merita costul suplimentar în fabricație.

ISSCC: Extinderea Legii lui Moore

Modul de extindere a Legii lui Moore a fost un subiect major la conferința internațională a statelor solide de la luna trecută (ISSCC). Mark Horowitz, un profesor de la Universitatea Stanford și fondatorul Rambus, a menționat că motivul pentru care avem calcule în tot astăzi este acela că calculul a devenit ieftin, datorită Legii lui Moore și regulilor lui Dennard privind scalarea. Acest lucru a dus la așteptări că dispozitivele de calcul vor deveni tot mai ieftine, mai mici și mai puternice. (Stanford a reprezentat performanța procesoarelor de-a lungul timpului la cpudb.stanford.edu).

El a menționat însă că frecvența de ceas a microprocesoarelor a încetat să mai crească în jurul anului 2005, deoarece densitatea puterii a devenit o problemă. Inginerii au atins o limită reală de putere - pentru că nu puteau face cipurile mai fierbinți, așa că acum toate sistemele de calcul sunt limitate la putere. După cum a menționat, reducerea puterii - tensiunea de alimentare - se schimbă foarte lent.

Prima înclinație a industriei de a rezolva această problemă este schimbarea tehnologiei. "Din păcate, nu sunt optimist că vom găsi o tehnologie care să înlocuiască CMOS pentru calcul", a spus el, atât pentru probleme tehnice cât și economice. Singurul mod de a face ca operațiunile pe secundă să crească, prin urmare, este să scadă energia pe operație, a spus el, sugerând că acesta este motivul pentru care toată lumea are procesoare multi-core azi, chiar și în telefoanele mobile. Însă problema este că nu puteți continua să adăugați nuclee, deoarece atingeți rapid un punct de scădere a randamentelor în ceea ce privește energia de performanță și zona de morire. Proiectanții procesorului știu de acest lucru de ceva timp și optimizează procesoarele de mult timp.

Horowitz a spus că nu trebuie să uităm de energia folosită de memorie. În prezentarea sa, el a arătat defalcarea energiei pentru un procesor actual, neidentificat cu 8 nuclee, în care nucleele procesorului au utilizat aproximativ 50 la sută din energie, iar memoria cernută (L1, L2 și L3) au folosit celelalte 50 la sută. Aceasta nu include chiar memoria externă a sistemului DRAM, care ar putea ajunge să fie cu 25% din mai mult din consumul total de energie al sistemului.

Mulți oameni vorbesc despre utilizarea hardware-ului specializat (cum ar fi ASIC-urile), care poate fi de o mie de ori mai bun din punct de vedere al energiei pe operație, comparativ cu un procesor de uz general. Dar, după cum a remarcat Horowitz, aici eficiența vine parțial, deoarece este utilizată pentru aplicații specifice (cum ar fi procesarea modemului, procesarea imaginilor, compresia video și decompresia), care practic nu au acces la memorie. De aceea, se ajută atât de mult cu energie - nu este vorba atât despre hardware, ci despre mutarea algoritmului într-un spațiu mult mai restrâns.

Vestea proastă este că acest lucru înseamnă că aplicațiile pe care le puteți construi sunt restricționate. Vestea bună este că s-ar putea să creezi un motor mai general care să poată gestiona aceste tipuri de aplicații cu „localitate înaltă”, ceea ce înseamnă că nu trebuie să acceseze memoria. El se referă la acest lucru ca la modelul de calcul înalt local și la „aplicațiile stencil” care pot rula pe el. Acest lucru necesită desigur un nou model de programare. Stanford a dezvoltat un limbaj specific domeniului, un compilator care poate construi aceste aplicații stencil și le poate rula pe FPGA și ASIC.

Tot la conferința ISSCC, Ming-Kai Tsai, președinte și CEO al MediaTek, a spus că oamenii întreabă încă de la începutul anilor 1990 cât va dura Legea lui Moore. Dar cum a spus Gordon Moore la ISSCC în 2003, „Niciun exponențial nu este pentru totdeauna. Dar îl putem amâna pentru totdeauna”. Industria a făcut o treabă excelentă susținând Legea lui Moore mai mult sau mai puțin, a spus el. Costul tranzistorului și-a continuat declinul istoric. Pentru costul a 100 de grame de orez (aproximativ 10 cenți), puteți cumpăra doar 100 de tranzistoare în 1980, dar până în 2013 puteți cumpăra 5 milioane de tranzistoare.

Tsai a spus că dispozitivele mobile au atins un plafon, deoarece procesoarele nu pot rula eficient cu viteze peste 3 GHz și pentru că tehnologia bateriei nu s-a îmbunătățit prea mult. MediaTek a lucrat la această problemă folosind procesoare multicore și multiprocesare eterogenă (HMP). El a spus că compania a introdus primul procesor HMP cu 8 nuclee adevărat în 2013, iar la începutul acestei săptămâni, a anunțat un procesor cu 4 nuclee care utilizează tehnologia PTP (Performance, Thermal și Power) pentru a crește și mai mult performanța și reduce puterea. El a vorbit și despre progresul rapid în conectivitate. Multe aplicații mobile care erau anterior imposibile sunt acum viabile din cauza acestor îmbunătățiri ale rețelelor WLAN și WWAN, a spus el.

MediaTek lucrează la diferite tehnologii pentru „Cloud 2.0”, inclusiv soluții de încărcare wireless, „Aster” SoC pentru purtabile (care măsoară doar 5, 4x6, 6 milimetri) și sisteme eterogene ca parte a fundației HSA, a spus el. Cloud 2.0, în conformitate cu Tsai, va fi caracterizat prin mai multe dispozitive - în special purtabile - cu mai multe radiouri; mai mult de 100 de radiouri de persoană până în 2030.

Cele mai mari provocări pentru Cloud 2.0 vor fi energia și lățimea de bandă, a spus Tsai. Primul va necesita sisteme inovatoare, soluții hardware și software; o tehnologie mai bună a bateriei; și o anumită formă de recoltare a energiei. Al doilea va necesita o utilizare mai eficientă a spectrului disponibil, rețele adaptive și conectivitate mai fiabilă.

Orice s-ar întâmpla cu fabricarea cipurilor, este sigur că va duce la noi aplicații și noi decizii cu care se vor confrunta producătorii de cipuri, designerii de produse și, în final, utilizatorii finali.

Provocările de fabricare a cipurilor se confruntă cu legea lui Moore