Macro | π½ Stati della computazione/1 π½
Una serie su chip, AI stack, infrastrutture tecnologiche, geopolitica, clima.
Affermare che viviamo nellβ βera digitaleβ Γ¨ un luogo comune. Meno comune Γ¨ ricordare come ciΓ² che chiamiamo βera digitaleβ si regga in realtΓ su infrastrutture materiali che operano tramite computazione, ovvero per calcoli. Ancora meno ovvio Γ¨ sottolineare come la complessitΓ di tali sistemi, e dei relativi calcoli, non solo stia aumentando ma, come vedremo, per molti versi stia cambiando pelle. Γ chiamata ad affrontare problemi β di natura tecnica, politica, economica, etica, ecologica β inauditi. Problemi che aprono le porte a interrogativi che riguardano il futuro di intere societΓ e modi di vivere.
Per questa ragione ritengo utile mettere insieme una specie di riepilogo, a scopo divulgativo, di quello che Γ¨ lo βstato della computazioneβ contemporanea. Lo farΓ² in piΓΉ βpuntateβ, pensate per essere pubblicate sulla mia newsletter, Macro, e su quella di Stefano Feltri, Appunti. Questa Γ¨ la prima: consideratela una sorta di introduzione.
La computazione Γ¨ unβinfrastruttura
Suppongo che se chiedessimo a cento italiani estratti a sorte di indicarci un computer, la stragrande maggioranza ci mostrerebbe un desktop o un laptop. Qualcuno probabilmente uno smartphone. Una percentuale minore citerebbe una console da videogiochi. Pochissimi unβautomobile o un elettrodomestico.
Come dimostra mia madre ogni volta che, consultando il meteo di Google, esclama: βdomani piove, lo dice il cellulareβ, la maggioranza di noi continua a concepire la computazione come una specie di magia che avviene soltanto allβinterno degli oggetti tecnologici in suo possesso ed Γ¨ ad essi indissolubilmente legata. Γ un riflesso comprensibile. In fondo la computazione Γ¨ entrata nelle nostre vite per prima cosa sotto forma di oggetti personali. Dopo i primi decenni di vita, in cui i computer occupavano intere stanze, negli anni Settanta la computazione ha cominciato a divenire un βoggetto di consumoβ, una merce materiale. Si entrava in un negozio e se ne usciva con un personal computer. Un oggetto. Un poβ piΓΉ tardi se ne usciva con scatole piene di manuali e di cd per installare software. Altri oggetti. Infine, ancora piΓΉ in lΓ , se ne usciva con Playstation, iPod, iPhone. Sempre e comunque oggetti.
In parallelo a questa storia, ne scorrevano perΓ² giΓ altre. Una aveva a che fare con le dimensioni (minori), le capacitΓ (maggiori) e i costi (piΓΉ bassi) di quegli oggetti. Essa dipendeva dal processo, di per sΓ© strabiliante, di miniaturizzazione dei transistor (i neuroni artificiali della computazione) contenuti nei chip. Unβevoluzione che ha fatto sΓ¬ che la CPU del computer su cui scrivo contenga decine di miliardi di transistor nello spazio di pochi centimetri. Se volete un metro di paragone: nel primo microprocessore β lβIntel 4004 del 1971 β i transistor erano 2,300. Tuttavia, come racconteremo tra poco, questo processo di miniaturizzazione Γ¨ oggi prossimo al suo limite fisico. E non solo, come vedremo in una successiva puntata, lβindustria dei chip Γ¨, ormai da anni, al centro di una delle principali contese geopolitiche del nostro tempo.
Unβaltra storia β comunque dipendente dalla precedente β aveva a che fare con la trasformazione della computazione da un fenomeno che avveniva principalmente allβinterno di oggetti di fronte a noi, in un fenomeno che si svolgeva in luoghi distanti per esserci poi venduto sotto forma di servizi. Questa storia inizia β giΓ negli anni Cinquanta β con i primi esperimenti di interconnessione dei computer in reti. Col tempo queste reti si inspessiscono e infittiscono. Cominciano a generare e immagazzinare informazione che non risiede piΓΉ fisicamente nellβhardware di chi ne fa uso ma si trova altrove, dentro computer specializzati chiamati server, e viene distribuita attraverso cavi, fibre e segnali. Man mano che questo tipo di computazione avanza, e i servizi che offre divengono sempre piΓΉ appariscenti nelle nostre vite, i server si fanno piΓΉ potenti e numerosi, al punto che, per contenerli, diviene necessario costruire delle vere e proprie cattedrali della computazione: i famosi data center.
Questa seconda evoluzione Γ¨ la ragione per cui, negli ultimi quindici anni, siamo divenuti dipendenti da social media, app, piattaforme; nonchΓ© il motivo per cui sentiamo quotidianamente parlare di big data, cyber-security e intelligenza artificiale. BenchΓ© spesso si presenti questo sviluppo con un termine etereo come cloud computing, o semplicemente cloud (nuvola), la realtΓ Γ¨ che questa βnuvolaβ non ha nulla di impalpabile. Tuttβaltro. Essa puΓ² fluttuare sopra le nostre teste solo grazie a una gigantesca infrastruttura materiale. O meglio, grazie a uno stack (pila) di infrastrutture che, tramite una serie di standard, connette, coordina e integra diversi livelli e protocolli di computazione.
Micro e macro
Tutto ciΓ² che di rilevante accade oggi nellβuniverso della computazione accade nelle due principali dimensioni dello stack: la scala microscopica dei chip e dei transistor e quella macroscopica delle infrastrutture di accumulazione, elaborazione e distribuzione dei dati. Le due scale sono interdipendenti, nel senso che dalle direzioni, e dai ritmi, dello sviluppo di una dipende lβaltra e viceversa. I problemi dellβuna diventano spesso dellβaltra e cosΓ¬ via.
Questa interdipendenza esisteva giΓ da parecchio ma negli ultimi dieci anni si Γ¨ ulteriormente approfondita in virtΓΉ della crescita del settore dellβintelligenza artificiale che, piΓΉ di ogni altro, rappresenta un punto di sutura tra le due dimensioni.
La peculiare tipologia di calcoli necessaria allo sviluppo dellβintelligenza artificiale non solo sta mutando lβinfrastruttura della computazione ma sta anche esasperando alcune sue criticitΓ . Come accennavo allβinizio, tali criticitΓ sono di diversa natura, cosΓ¬ come di diversa natura sono le loro conseguenze sul mondo in cui viviamo e vivremo.
Alla base dello stack dellβAI β le sue fondamenta, per cosΓ¬ dire β cβΓ¨, come detto, il microchip, la particella elementare della computazione, dal cui sviluppo dipende da sempre la progressione della potenza di calcolo a nostra disposizione. Tale progressione Γ¨ stata osservata, giΓ agli esordi della tecnologia, da uno dei suoi pionieri: Gordon Moore. Il quale, nel 1965, notΓ² che βla complessitΓ di un chip, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesiβ. Questa osservazione, in seguito leggermente rivista (i mesi diventarono 24), Γ¨ passata alla storia come βlegge di Mooreβ.
La βlegge di Mooreβ tuttavia non Γ¨ affatto una βleggeβ, nel senso in cui si intende il termine in campo matematico o fisico. La parola chiave in questo caso Γ¨ βosservazioneβ. Nel 1965 Moore fece caso a una tendenza iniziale relativa allβaumento del numero dei transistor e si limitΓ² a ipotizzare che tale tendenza sarebbe potuta durare per un certo periodo di tempo. La sua osservazione non aveva rigore scientifico nΓ© pretendeva di averlo. Tuttavia, anche grazie agli sforzi compiuti da scienziati e ingegneri per rispettarla, la βlegge di Mooreβ Γ¨ sopravvissuta per quasi mezzo secolo, garantendoci unβesplosione di potere di computazione a costi sempre piΓΉ contenuti. Γ grazie alla validitΓ della predizione di Moore se lβinformatica si Γ¨ (finora) presentata come un fenomeno sempre piΓΉ inclusivo e se β come raccontavo pocβanzi β la computazione Γ¨ entrata nelle nostre vite sotto forma di oggetti sempre piΓΉ piccoli ed economici.
La βlegge di Mooreβ non Γ¨ purtroppo destinata a durare per sempre. I transistor possono essere rimpiccioliti solo fino a un certo punto. DopodichΓ© le leggi della fisica classica lasciano il posto a quelle della meccanica quantistica che rendono impossibile controllare i flussi di elettroni a fini computativi. GiΓ oggi i transistor, e i fili che li connettono, sono misurati su scala atomica, poco piΓΉ larghi di un filamento di DNA umano (2,5 nanometri). Sebbene resti ancora margine per rimpicciolirli, i progressi nella miniaturizzazione dei transistor diventano ogni anno piΓΉ lenti e costosi e, in ogni caso, tra non molto dovranno arrendersi, come detto, di fronte a limiti fisici al momento invalicabili. Possiamo insomma discutere a lungo (e nellβindustria dei chip lo si fa di continuo) se la legge di Moore sia ancora viva o se invece sia giΓ morta (come suggeriscono alcuni indicatori) ma quel che Γ¨ certo Γ¨ che ci avviciniamo al suo capezzale.
La βfineβ della legge di Moore non solo sta spingendo alla ricerca di strumenti e sistemi computativi alternativi (ne parleremo in un prossimo episodio) ma sta portando allβestremo la complessitΓ tecnica inerente alla progettazione e alla manifattura dei microchip, con effetti soprattutto economici. Il risultato Γ¨ che il settore Γ¨ oggi piagato da rendimenti decrescenti in termini di potere di computazione e da una ipertrofia dei costi che coinvolge lβintera catena del valore: macchinari di produzione da 300 milioni di dollari a pezzo, impianti che costano 12-20 miliardi per una singola fabbrica, ingegneri con costi e tempi di formazione elevatissimi e cosΓ¬ via.
Tutto ciΓ² si traduce nel fatto che, per esempio, lo sviluppo di Blackwell, la nuova architettura per GPU di Nvidia, ha richiesto allβazienda di Santa Clara un investimento di quasi 10 miliardi, per un prodotto che verrΓ immesso sul mercato a un prezzo che dovrebbe oscillare, a seconda della configurazione, tra i 30 e i 70mila dollari per esemplare. Cifre simili per un singolo pezzo di hardware sono una netta inversione rispetto alla tendenza a diventare piΓΉ economica e personale che aveva contrassegnato la precedente fase della computazione. E infatti le GPU di Nvidia non sono un prodotto destinato a semplici consumatori, ma sono, a tutti gli effetti, un componente industriale altamente specializzato che viene principalmente utilizzato β con ordinazioni da decine di migliaia di pezzi al costo di centinaia di milioni di dollari β nei data center delle aziende del βbig techβ che partecipano alla cosiddetta βcorsa alla AIβ.
Γ intorno a questa corsa che oggi la storia βmicroβ dei chip e dei transistor, incrocia la dimensione βmacroβ delle infrastrutture della computazione legata allβaddestramento dellβintelligenza artificiale. Il risultato di questo incontro Γ¨ che 1) lβinfrastruttura della computazione si sta sovraccaricando di enormi stress energetici ed ecologici e 2) si sta trasformando in un settore in cui la differenza tra perdite e profitti dipende da enormi economie di scala e di potere computazionale che solo una manciata di aziende, dalle tasche profondissime e dal know-how particolarmente vasto, possono raggiungere. Queste aziende sono oggi note come hyperscaler e il loro peso nellβinfrastruttura della computazione, AI e non solo, Γ¨ sempre piΓΉ una questione con enormi ricadute geopolitiche ed economiche.
E proprio lβaumento della bolletta energetica complessiva dellβinfrastruttura dellβAI e le conseguenze, economiche e geopolitiche, della proibitiva barriera di capitali al suo ingresso saranno i temi della prossima puntata.
Se siete nuovi da queste parti, io mi chiamo Cesare Alemanni. Mi interesso di questioni allβintersezione tra economia e geopolitica, tecnologia e cultura. Per Luiss University Press ho pubblicato La signora delle merci. Dalle caravelle ad Amazon, come la logistica governa il mondo (2023) e Il re invisibile. Storia, economia e sconfinato potere del microchip (2024).
bravissimo