Macro | π‘ Stati della computazione/4 π‘
La crisi di Intel e le prospettive sul futuro del calcolo
Benvenuti alla quarta e ultima puntata di βStati della computazioneβ, la mini-serie che approfondisce il tema dellβinfrastruttura del computing e che esce in contemporanea su Macro e su Appunti di Stefano Feltri. Qui la prima, la seconda e la terza puntata.
Nel corso di βStati della computazioneβ ho nominato spesso la βlegge di Mooreβ, ovvero lβosservazione che il numero di transistor per chip β e quindi la loro capacitΓ di calcolo β raddoppia in media ogni due anni. Quello che non ho raccontato forse abbastanza Γ¨ chi fosse il suo βprofetaβ, il chimico Gordon Moore (1929 - 2023).
Moore Γ¨ stato uno dei grandi protagonisti della microelettronica novecentesca. Ha fatto parte dei celebri βtraitorous eightβ, il gruppo di otto che, a fine anni Cinquanta, abbandonΓ² uno dei padrini dellβintera disciplina, William Shockley β uomo di leggendario narcisismo β per passare a Fairchild Semiconductors, dove nacque a tutti gli effetti la produzione di massa dei chip, e infine co-fondΓ², insieme a Bob Noyce, unβazienda che Γ¨ sinonimo di informatica: Intel.

Nata nello stesso anno β il 1968 β in cui milioni di giovani occidentali speravano di cambiare il mondo a colpi di slogan, Intel il mondo lo ha cambiato davvero. Nei suoi 56 anni di vita, lβazienda ha creato quasi da sola il mercato dellβinformatica di largo consumo, grazie alla sua capacitΓ di miniaturizzare i transistor e di estendere per decenni la validitΓ della legge di Moore, rendendo in tal modo piΓΉ economici, maneggevoli e potenti i computer.
Oggi Intel versa tuttavia in uno stato di profonda crisi. Una situazione che si deve a errori specifici dei suoi vertici ma che fa da cartina di tornasole dello βstato della computazioneβ contemporanea.
Un errore vitale
Le radici della crisi di Intel affondano nella metΓ degli anni Zero, quando lβallora CEO Paul Otellini disse un clamoroso no allβofferta di Steve Jobs di produrre i chip per un nuovo dispositivo su cui Apple puntava moltissimo: lβiPhone.
Otellini era convinto che non fosse un buon affare. Due miliardi e mezzo di iPhone venduti in nemmeno ventβanni la dicono diversamente e spiegano perchΓ©, ancora oggi, il suo niet riecheggi come un anatema tra i corridoi di Intel a Santa Clara.
Lβerrore di Otellini danneggiΓ² Intel anche indirettamente. Lβascesa degli smartphone infatti non contribuΓ¬ solo a ridurre le quote di mercato dei PC, i principali βconsumatoriβ di chip Intel, ma plasmΓ² lβintero ecosistema della computazione. Gli smartphone furono infatti il perno decisivo per il successo delle piattaforme e per lβaffermazione del cloud computing.
Questa svolta erose ulteriormente la diffusione dei PC e mandΓ² in crisi il mercato dei chip logici (CPU) in cui storicamente Intel era leader grazie alla sua architettura x86, il gold standard del settore.
Negli anni Dieci tale standard venne messo in discussione dai giganti degli smartphone prima e del cloud computing poi. I quali iniziarono a esplorare soluzioni alternative, inclusa la possibilitΓ di sviluppare architetture diverse da quelle di Intel, a partire da matrici fornite dallβinglese ARM Holdings.
Il cambiamento del mercato dellβinformatica di largo consumo derivato dallβintroduzione degli smartphone, e lβaccelerazione che ciΓ² impresse al ritmo dellβinnovazione dei chip, resero ancora piΓΉ vantaggioso lo scorporo dellβindustria in due rami che era cominciato giΓ negli anni Ottanta.
Ovvero da una parte aziende βfablessβ, che si occupano solo di progettazione (come Nvidia) e dallβaltra aziende βfoundryβ, che si occupano solo di manifattura (come TSMC). Esattamente lβopposto del modello βintegratoβ di Intel, una delle pochissime aziende IDM (Integrated Device Manufacturer) che ancora svolge entrambe le fasi.
Intel si Γ¨ trovata cosΓ¬ a competere su due fronti contro aziende specializzate solo in uno e ha finito per perdere quote di mercato su entrambi. Anche perchΓ© nel frattempo lβemergere del calcolo parallelo per la computazione AI, ha portato a prediligere le famose GPU, chip molto diversi dai chip logici, e in cui Nvidia partiva con un vantaggio tecnologico e di mercato incolmabile (anche per una precedente scelta di Intel di non investire nella tecnologia).
Per anni Intel Γ¨ riuscita a celare lβentitΓ della crisi ma negli ultimi mesi essa Γ¨ emersa in modo fragoroso.
Lβattuale CEO Pat Gelsinger sta tentando una complessa operazione di salvataggio che punta a dotare Intel di capacitΓ di manifattura per conto terzi paragonabili a quelle di TSMC, cosΓ¬ da alimentare un flusso di cassa con cui nutrire la ricerca avanzata su tecnologie particolarmente futuribili. In pratica Intel continuerebbe a fare entrambe le fasi ma scorporandole e usando una per nutrire lβaltra.
Γ una strategia di difficile attuazione (e che sembra giΓ in difficoltΓ ) che il governo americano seguirΓ con grande attenzione, visto che su Intel ha scommesso molto denaro del CHIPS and Science Act, oltre che importanti commesse per la difesa.
Gli Stati Uniti considerano del resto Intel uno dei loro asset industriali piΓΉ strategici nonchΓ© un pilastro della loro sicurezza tecnologica. Una crisi terminale dellβazienda β che di recente ha cominciato a perdere quote anche nel mercato delle CPU (vedi grafico sotto) β costituirebbe un durissimo colpo alle ambizioni americane di resilienza nellβindustria dei semiconduttori.
La lezione di Intel
La vicenda di Intel Γ¨ un esempio emblematico della rapiditΓ con cui si muove il settore dei chip e di come un singolo cambio di paradigma nello stack della computazione possa travolgere persino aziende che hanno scritto la Storia.
CiΓ² che oggi vale per Intel potrebbe in futuro valere per gli attuali dominatori del settore, soprattutto se commetteranno errori di valutazione grossolani come quello di Ottolini.
Come si Γ¨ spesso ripetuto negli articoli precedenti, oggi la computazione (AI e non) Γ¨ dominata da un lato dai soggetti che ne gestiscono lβinfrastruttura βmacroβ β i cosiddetti hyperscaler come Amazon Web Services, Google Cloud e Microsoft Azure β e dallβaltro da quelli che meglio padroneggiano la dimensione βmicroβ dei transistor, come Nvidia e TSMC.
La computazione Γ¨ intersecata inoltre da tre grandi crisi del suo (e del nostro) tempo: la crisi energetico-ambientale, la crisi politica del mondo multipolare, e la fine della βlegge di Mooreβ, ovvero la crescente difficoltΓ , per ragioni di natura fisica, di mantenere costante il raddoppio biennale dei transistor a prezzi accettabili.
Γ possibile, se non certo, che, in un orizzonte medio-lungo, lβintreccio di questi temi trasformerΓ gli βstati della computazioneβ in modi tali da renderli quasi irriconoscibili a chi li osserva oggi.
Vale dunque la pena sintetizzare cosa potrebbe accadere in ognuno degli ambiti (micro e macro) in cui agisce la computazione e con quali effetti sul computing stack e sui suoi protagonisti.
Quantum
Come la rivoluzione industriale stimolΓ² lo sviluppo delle infrastrutture energetiche, rendendolo molto piΓΉ potenti e capillari, in questa fase diverse forze convergenti β lβespandersi dellβAI, i problemi fisici e geopolitici dei chip e quelli energetici degli hyperscaler β promettono di cambiare la natura profonda del computing.
Il calcolo classico, basato sul transistor e sul silicio, Γ¨ stato finora il modello dominante. Tuttavia, i suoi limiti sono sempre piΓΉ evidenti e ciΓ² sta spingendo lβindustria della computazione a esplorare nuove soluzioni tecnologiche.
La piΓΉ estrema, e capace di catturare lβimmaginazione , Γ¨ la computazione quantistica, un paradigma di calcolo che sfrutta i principi della meccanica quantistica, la teoria che descrive il comportamento delle particelle subatomiche.
A differenza dei calcolatori tradizionali, che elaborano informazioni utilizzando bit che possono rappresentare uno solo tra due valori (0 e 1) alla volta, i computer quantistici usano qubit (quantum bit), che possono rappresentare contemporaneamente 0, 1, o una combinazione di entrambi.
Due principi fondamentali rendono la computazione quantistica molto potente: la sovrapposizione e lβentanglement.
Grazie alla sovrapposizione, un qubit puΓ² esplorare molte soluzioni contemporaneamente, permettendo ai computer quantistici di affrontare problemi complessi in un tempo molto inferiore rispetto ai computer classici.
In virtΓΉ dellβentanglement, i qubit si correlano tra loro cosΓ¬ che lo stato di uno dipenda da quello dellβaltro, anche a grandi distanze.
Quando i qubit sono entangled, un'operazione su uno di essi influenza immediatamente gli altri, consentendo di rappresentare simultaneamente un numero esponenziali di combinazioni di stati, in pratica una versione iper-potenziata del calcolo parallelo che avviene nei chip GPU con cui oggi si addestrano le AI.
Nonostante i suoi vantaggi, l'entanglement Γ¨ molto sensibile alle interferenze esterne (il cosiddetto quantum noise), un problema noto come decoerenza quantistica. Questo rende difficile mantenere stati stabili per lunghi periodi di tempo, rappresentando una delle principali sfide nella costruzione e nellβutilizzo di computer quantistici.
Non cβΓ¨ tuttavia dubbio che unβeventuale maturazione della computazione quantistica rappresenterebbe un evento epocale per tutto lβuniverso della computazione, al punto che non siamo neppure in grado di pronosticarne la portata (e questo Γ¨ da intendere sia nel senso che potrebbe eccedere le nostre aspettative, che il contrario).
CiΓ² che invece giΓ sappiamo Γ¨ che, date le loro caratteristiche, i computer quantistici avrebbero, per esempio, la capacitΓ di violare in pochi minuti (contro le decine di migliaia di anni necessari a un supercomputer tradizionale) tutte le crittografie su cui si basa la sicurezza delle trasmissioni dati a livello globale.
Per questo le principali potenze del pianeta stanno investendo in modo considerevole nel settore, in modo da assicurarsi il cosiddetto βvantaggio quantisticoβ rispetto agli avversarsi, e la cosiddetta βresistenza quantisticaβ nei confronti dei loro potenziali attacchi.
In modo simile a quanto avvenuto nei chip avanzati, gli USA si stanno per esempio muovendo da anni per rallentare lo sviluppo del quantum cinese e hanno di recente aumentato i divieti agli investimenti americani in questo settore in Cina.
Di fronte alla continuitΓ di questa frammentazione geopolitica (che al 99,9% proseguirΓ sotto Trump e oltre) tra sfera di sviluppo tecnologico americano e sfera cinese, Γ¨ lecito supporre che il futuro della computazione (quantistica o meno, AI e non solo) rifletterΓ sempre piΓΉ profondamente questa spartizione a tutti i livelli, con la formazione di unβinfrastruttura caratterizzata da protocolli sempre meno globali e compatibili e sempre piΓΉ mutualmente esclusivi e con capacitΓ limitate di interazione.
Chip sempre piΓΉ specializzati
Senza arrivare allβestremo del quantum computing (o di prospettive persino piΓΉ suggestive come la computazione ottica, neuromorfica o il DNA usato come chip di memoria), lβhardware alla base della computazione β il chip β Γ¨ destinato per forza di cose a cambiare nei prossimi anni.
Con la βlegge di Mooreβ ormai vicina ai suoi limiti fisici, il futuro dei chip non sarΓ piΓΉ dettato solo dalla densitΓ dei transistor, ma piuttosto dalla loro specializzazione e da unβintegrazione sempre piΓΉ stretta con i software.
Chip sempre piΓΉ specializzati come gli acceleratori per lβAI β NPU, TPU e DPU β sono con ogni probabilitΓ solo i precursori di una nuova era di hardware, in cui ogni elemento dellβecosistema informatico verrΓ costruito per una specifica tipologia di calcolo.
Questa frammentazione potrebbe condurre a una sorta di βera post-computazionaleβ in cui i computer universali, capaci di svolgere qualsiasi compito, lasceranno il posto a un insieme di dispositivi ottimizzati per applicazioni individuali.
Il risultato sarΓ un panorama frammentato, in cui ogni settore industriale potrebbe avere un proprio tipo di chip specializzato: automotive, sanitΓ , telecomunicazioni e difesa etc, ognuno di questi ambiti richiederΓ hardware personalizzati e interamente progettati in funzione delle loro specifiche esigenze.
Per tenere sotto controllo i costi di produzione di oggetti sempre meno βuniversaliβ, una buona strategia potrebbe essere il ricorso ai chiplet, ovvero un nuovo approccio, in stile Lego, alla produzione di semiconduttori, componibili in diverse configurazioni piΓΉ grandi, da specializzare a seconda delle necessitΓ .
Lβazienda che per prima ha esplorato questo settore, Siliconbox di Singapore, ha da poco confermato un investimento da 3,2 miliardi per un impianto di produzione in Italia, nel novarese.
Il ruolo dellβAI e dellβedge computing
LβAI non Γ¨ solo un prodotto dellβinfrastruttura della computazione ma un suo componente ormai sempre piΓΉ fondamentale.
Se oggi le reti neurali e gli algoritmi di deep learning vengono addestrati su hardware specifici, come le stra-citate GPU, nei prossimi anni queste tecnologie evolveranno per integrare AI che ottimizzino in modo auto-evolutivo le proprie risorse hardware.
I sistemi AI potrebbero insomma non solo interagire con i dati per generare risposte, ma anche per migliorare le proprie stesse architetture e lβuso delle loro risorse, con notevoli effetti di tipo economico, qualitativo ed energetico.
In uno scenario del genere, lβinfrastruttura della computazione potrebbe trovarsi a dover affrontare dinamiche molto diverse da quelle attuali.
Produttori di chip e hyperscaler che oggi sembrano dotati di un vantaggio cosΓ¬ profondo da non essere piΓΉ recuperabile si troverebbero a doversi guardare le spalle da competitor con forse meno potenza a disposizione ma con migliori AI per ottimizzarne lβuso (Γ¨ tuttavia piΓΉ probabile che i vantaggi si βcomponganoβ e i soggetti con le maggiori risorse siano anche quelli con le migliori AI a disposizione).
Unβaltra profonda evoluzione delle dinamiche tecnologiche ed economiche dellβinfrastruttura della computazione verrΓ dalla crescente diffusione dellβedge computing.
Paragonabile metaforicamente a una sorta di filosofia βchilometro 0β applicata alla computazione, lβedge computing Γ¨ un modello di calcolo distribuito nel quale la computazione avviene il piΓΉ vicino possibile a dove i dati da elaborare sono stati generati.
Spostando il calcolo piΓΉ vicino ai dati di origine, si riduce la necessitΓ di trasferire e immagazzinare grandi volumi di informazioni in singoli enormi data center. CiΓ² porta vantaggi in termini di tempi di elaborazione (particolarmente critici per applicazioni AI come le automobili a guida autonoma e i robot industriali), di volume complessivo del traffico dei dati e di consumi energetici a essi connessi.
Se si dimostrerΓ piΓΉ sostenibile, conveniente e scalabile, la diffusione dellβedge computing potrebbe segnare inoltre la fine del modello dominante dei data center centralizzati a favore di infrastrutture piΓΉ piccole e maggiormente distribuite.
In un simile scenario, persino i colossi oggi inscalfibili del cloud computing e gli hyperscaler dovrebbero evolversi, pena il rischio di finire nella situazione in cui si trova oggi Intel.
Se siete nuovi da queste parti, io mi chiamo Cesare Alemanni. Mi interesso di questioni allβintersezione tra economia e geopolitica, tecnologia e cultura. Per Luiss University Press ho pubblicato La signora delle merci. Dalle caravelle ad Amazon, come la logistica governa il mondo (2023) e Il re invisibile. Storia, economia e sconfinato potere del microchip(2024).
:
Tutta la serie tratta un tema complesso e multidisciplinare in maniera strutturata ed interessante. LeggerΓ³ il libro e complimenti per il lavoro divulgativo.
ci capisco poco....