L’Intelligenza Artificiale ha una fame insaziabile di cloud (reti di server remoti che offrono archiviazione ed elaborazione via Internet) e di chip (microprocessori di silicio).
Ogni nuova generazione di modelli richiede quantità crescenti di energia e data center sempre più potenti.
Strumenti come ChatGPT hanno bisogno di enormi risorse computazionali: non bastano server tradizionali, servono infrastrutture ottimizzate con GPU (schede grafiche), CPU (unità di elaborazione) specializzate e nuovo acceleratori di IA (hardware pensato per velocizzare i calcoli).
Il problema? Le GPU sono rare, costose e difficili da reperire. Per questo le aziende non possono fare da sole e devono affidarsi ai grandi provider di cloud.
Finora OpenAI si era appoggiata soprattutto ad Azure (Microsoft). Dal 11 settembre 2025 ha però avviato una partnership con Oracle, gestore di data center alternativo a Microsoft, ottenendo più potenza di calcolo grazie a data center dedicati, minore dipendenza da un unico partner, un’infrastruttura già connessa a NVIDIA - leader mondiale nei chip per l’IA - e una presenza globale utile per scalare e rispettare le normative locali.
L’accordo con Oracle vale 300 miliardi di dollari in 5 anni, una cifra senza precedenti. Per sostenerlo servirà un’energia pari al consumo di 4 milioni di persone: un segnale inquietante dell’impatto sempre più insostenibile dei data center per l’IA.
Immagine in alto: Larry Ellison, amministratore delegato di Oracle e Sam Altman, amministratore delegato di Open AI.
Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/