Il nostro approccio all'innovazione energetica e l'impronta ambientale dell'AI
L'AI rappresenta una delle trasformazioni tecnologiche più significative del nostro tempo, che diventerà più evidente nel prossimo decennio. Applicata a settori come la medicina, l'energia, i sistemi autonomi e il computing quantistico, l'AI è destinata ad aiutare le persone ad affrontare le principali sfide sociali, che si tratti di aiutare gli studenti ad apprendere, diagnosticare il cancro in fase iniziale, rendere più sicuri i complessi sistemi di trasporto e di cybersicurezza o persino prevedere il percorso degli incendi per i primi soccorritori.
Per realizzare il potenziale dell'AI saranno necessarie un'infrastruttura energetica solida, un uso più efficiente dell'energia e persino nuove soluzioni tecnologiche innovative. Stiamo affrontando questo problema da molti punti di vista: investendo in nuove infrastrutture, progettando reti più intelligenti e resilienti e ampliando le fonti di energia pulita sia consolidate che di nuova generazione. Allo stesso tempo, ci concentriamo anche sulla massimizzazione dell'efficienza in ogni livello delle nostre operazioni, dalla progettazione del nostro hardware personalizzato al software e ai modelli che vengono eseguiti nei nostri data center.
Per migliorare l'efficienza energetica dell'AI, è importante avere una comprensione chiara e completa dell'impronta ambientale dell'AI. Finora, i dati completi sull'impatto energetico e ambientale dell'inferenza dell'AI sono stati limitati.
Oggi contribuiamo a colmare questa lacuna pubblicando una metodologia completa per misurare il consumo di energia e acqua e le emissioni di carbonio dei modelli di AI di Google. È fondamentale sottolineare che il nostro lavoro sull'efficienza del modello sta portando a rapidi progressi. In un periodo di 12 mesi, pur fornendo risposte di qualità superiore, il consumo medio di energia e l'impronta di carbonio per prompt di testo delle app Gemini sono diminuiti rispettivamente di 33 e 44 volte. In base alla nostra recente analisi, abbiamo scoperto che il nostro lavoro sull'efficienza si sta dimostrando efficace e l'energia consumata per prompt mediano equivale a guardare la televisione per meno di nove secondi. Questi progressi si basano sul nostro impegno di lunga data per l'efficienza dei data center. Nel 2024, ad esempio, abbiamo ridotto le emissioni energetiche dei nostri data center del 12%, anche se il consumo di elettricità è cresciuto del 27% su base annua, a causa dell'espansione della nostra attività e dei nostri servizi.
Mentre continuiamo a investire nella tecnologia e nell'innovazione necessarie per soddisfare le nuove e significative richieste di energia, la trasparenza è fondamentale per il progresso. Ci auguriamo che questo studio contribuisca agli sforzi in corso per sviluppare un'AI efficiente in questo momento critico per l'energia, la sostenibilità e la scoperta scientifica, a vantaggio di tutti. Scopri di più su come siamo arrivati a questi calcoli e sul nostro approccio full stack all'innovazione energetica e consulta la nostra pubblicazione tecnica.