La domanda di calcoli informatici determinerà il futuro dell’alta tecnologia

La domanda di calcoli informatici determinerà il futuro dell’alta tecnologia
La domanda di calcoli informatici determinerà il futuro dell’alta tecnologia

Ascoltare

Mai l’umanità ha fatto investimenti così colossali in un periodo di pace come le somme astronomiche consacrate allo sviluppo dell’intelligenza artificiale (AI). Dopo aver stanziato quasi 100 miliardi di dollari fino allo scoppio della pandemia di Covid nel 2019, ne ha mobilitati 91,5 miliardi nel 2022 e altri 89 miliardi nel 2023, senza contare gli investimenti nelle infrastrutture, secondo Human-Centered AI dell’Università di Stanford. Secondo le previsioni del governo McKinsey, quest’anno i quattro colossi dell’alta tecnologia (Amazon, Meta, Microsoft e Google) intendono investire una nuova fortuna di 200 miliardi di dollari in nuove strutture e servizi di base. Quella escalation non si è fermata. A causa dei prezzi astronomici raggiunti dai processori specializzati, come quelli prodotti dal leader dei semiconduttori Nvidia, gli investimenti privati ​​nei soli server dedicati all’intelligenza artificiale aumenteranno da 25 a 125 miliardi di dollari all’anno (+500% tra il 2022 e il 2025).

Quali ragioni spiegano questo fenomeno? “La richiesta di calcoli computerizzati per l’intelligenza artificiale si è moltiplicata per un milione negli ultimi 6 anni e aumenta a un tasso annuo del 10%”, ha affermato il CEO di Google, Sundar Pichai, il 14 maggio. Quella frase fa pensare a milioni di pulcini con il becco aperto, subito dopo la schiusa, in attesa del momento per soddisfare la propria voracità.

L’arrampicata senza limiti lanciata dall’IA, soprattutto negli ultimi 10 anni, non si limita ad una gara tecnologia per ridurre il volume dei processori e aumentare la capacità dei semiconduttori al fine di rispondere alla domanda dell’industria delle criptovalute e alla generalizzazione della tecnologia telefonica 5G. Implica anche una febbrile ricerca tecnologica volta a ottenere algoritmi più efficienti, semiconduttori più veloci e potenti e costruire nuovi DPC (centri di elaborazione dati o Centri dati) meno vorace di energia. Poiché nessuna rivoluzione tecnologica e industriale ha un “costo” ecologico neutro, anche questa vertiginosa transizione non è esente da inconvenienti.

Apparentemente, a Banca dati Si tratta semplicemente di un enorme edificio o di un allineamento di moduli prefabbricati che ospitano batterie di computer giganti che archiviano informazioni critiche ed elaborano algoritmi al ritmo di milioni di calcoli al secondo. Per garantire un funzionamento sicuro ed efficiente, l’American Society of Heating, Refrigerating and Air-Conditioning Engineers (Ashrae) consiglia di mantenere la temperatura ottimale di questi parchi elettronici entro un intervallo di 24°C ± 2°C.

Si stima che fino al 2020 il parco mondiale Centri dati Aveva una capacità di oltre 1.400 exabyte (un exabyte equivale a circa un miliardo di gigabyte). Il suo volume raddoppia ogni due o tre anni, il che significa che la sua capacità di archiviazione varia attualmente tra 4.500 e 5.600 exabyte. Per visualizzare quel volume devi solo immaginare che la capacità di stoccaggio totale dell’8000 Centri dati esistenti nel mondo equivalgono a circa 43.750 miliardi di smartphone (5.468 cellulari per abitante, neonati compresi).

Come membri del settore tecnologie dell’informazione (IT), i data center sono diventati una delle aree più dinamiche dell’economia mondiale. Quel mercato colossale, emerso meno di 20 anni fa, pesava 215,8 miliardi di dollari nel 2023 e, secondo la società di consulenza di mercato Grand View Research, prevede una crescita annua del 10% dal 2024 al 2030. migliori giocatori (Amazon Web Services, Microsoft Azure, Google Cloud, Equinix e Digital Realty) lo scorso anno hanno registrato un fatturato di 196 miliardi di dollari.

Il problema è che questo rapido sviluppo e la domanda prevedibile per il prossimo quarto di secolo richiedono nuovi investimenti e la realizzazione di gigantesche opere infrastrutturali per rispondere, ad esempio, alla domanda di energia elettrica: Centri dati l’anno scorso hanno consumato tra gli 800 e i 1.000 TWh (terawatt), una cifra attualmente equivalente all’1,3% della domanda globale di elettricità, secondo tre fonti coincidenti: l’annuario statistico energetico della BP, l’Agenzia internazionale dell’energia (IEA) e il Global Energy Statistical Yearbook di Enerdata. Alcuni esperti, tuttavia, respingono questi calcoli e stimano che le tecnologie digitali mobilitino effettivamente il 10% della produzione globale di elettricità e raggiungeranno il 20% prima del 2030. Poiché il 60% di questo totale proviene da combustibili fossili, un rapporto del World Il Forum Economico (WEF) di Davos stima che la generalizzazione dell’intelligenza artificiale causerà un aumento delle emissioni di gas serra dall’attuale 6-8% del totale mondiale al 9-10% nel 2030.

Anche l’impatto è molto forte, anche se meno visibile, durante il processo industriale. Più piccoli sono i componenti, più significativa è la loro impronta tecnica. Produrre un circuito integrato da 2 grammi richiede, ad esempio, 32 chili di materie prime. Il Global E-waste Monitor del WEF ha valutato che nel 2023 il High tech accumulato 146 milioni di tonnellate di rifiuti elettronici, metalli e scarti di produzione che sono quasi impossibili da riciclare. Questa cifra non include alcuni materiali “invisibili”, come gli 1,3 milioni di chilometri di cavi sottomarini posati sul fondo dell’oceano, attraverso i quali passa il 97% del traffico Internet mondiale.

“Lungi dal liberarci dalle limitazioni del mondo fisico, la tecnologia digitale ci lascia con la più gigantesca discarica di rifiuti della storia, gran parte della quale sarà impossibile da riciclare”, ha scritto John Perry Barlow in Dichiarazione di indipendenza del cyberspaziopubblicato nel 1996.

Il problema più grande, tuttavia, è il funzionamento di ciascuno server Diventa una vera e propria stufa che genera fino a 60 gradi di calore. Un impianto di medie dimensioni necessita di sistemi di raffreddamento che comportano consumi aggiuntivi di energia e circa 600.000 metri cubi di acqua all’anno. Grazie alla miniaturizzazione permanente di minuscole schede e semiconduttori sviluppata da Nvidia e dagli altri leader del settore High tech Finora è stato possibile limitare il consumo di elettricità e la produzione di alte temperature, che contribuiscono ad esacerbare il riscaldamento climatico. Queste aziende hanno anche iniziato a utilizzare un arsenale di nuovi metodi di refrigerazione, come i cosiddetti raffreddamento gratuitoLui raffreddamento a liquido oppure l’immersione dei contenitori nel fondo dell’oceano, procedimento inventato dall’olandese Asperitas. Grazie al contributo di Naval Group, specialista in tecnologie subacquee, Microsoft ha effettuato il suo primo esperimento con un cilindro con 864 server immerso a una profondità di 100 metri. Il colosso cinese Alibaba sta studiando l’ancoraggio di parte dei suoi server al petrolio. Altre aziende hanno scelto di costruire Centri dati nei paesi nordici per approfittare delle loro basse temperature.

L’ultima idea consiste nel fare appello alla stessa tecnologia che gli scienziati cercano di realizzare per raffreddare i computer quantistici, che devono funzionare a temperature prossime allo zero assoluto (-273°C). “Refrigerare a Banca dati È una vera scienza. Può darsi che da qui arriverà la prossima rivoluzione nel calcolo informatico”, prevede Jean-Michel Rodriguez, un esperto IBM. È la grande sfida perché per funzionare, prima che dalla potenza di calcolo, il futuro dell’informatica dipende – soprattutto – da un cavo e da una spina.

Specialista di intelligence economica e giornalista

Conosci il progetto Trust
 
For Latest Updates Follow us on Google News
 

-