Torna al menu principale
Blog di Google Italy

Intelligenza Artificiale

I 10 traguardi più importanti della nostra IA

Logo di Google con la scritta 25 e confetti colorati

Nel caso vi fosse sfuggito, ultimamente l'intelligenza artificiale (IA) è diventata una questione di grande importanza. Ma per Google lo è già fin dall’inizio della sua esistenza, e per un buon motivo. L’IA ha il potere di rendere le attività quotidiane più semplici e di aiutare a risolvere i più grandi problemi della società. In occasione dei festeggiamenti per il nostro 25° compleanno, stiamo tornando indietro nel tempo per ripercorrere alcuni dei momenti migliori dell’IA fino a questo momento e stiamo anche guardando al futuro in vista dei traguardi ancora più importanti che ci aspettano.

2001: Il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query

Larry Page, il co-fondatore di Google, una volta ha detto: "Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno". Abbiamo fatto un grande passo avanti nel far progredire questa vision quando abbiamo iniziato a usare per la prima volta una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.

Un'animazione di una ricerca errata di "gobbledygook".

2006: viene lanciato Google Traduttore

Cinque anni dopo, abbiamo lanciato Google Traduttore, che usa il machine learning per tradurre automaticamente diverse lingue. Abbiamo iniziato con le traduzioni dall’arabo all’inglese, e viceversa, ma oggi Google Traduttore supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia è in grado di tradurre testi, immagini e perfino conversazioni in tempo reale, abbattendo le barriere linguistiche nella comunità globale, aiutando le persone a comunicare ed estendendo l’accesso alle informazioni come mai era accaduto prima.

2015: TensorFlow rende l’IA democratica

L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’IA più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’IA a livello mondiale. TensorFlow è ora uno dei framework di machine learning più noti ed è stato usato per sviluppare una vasta gamma di applicazioni di IA, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.

2016: AlphaGo batte il campione mondiale di Go

Nell’ambito della Google DeepMind Challenge Match, oltre 200 milioni di persone hanno guardato online AlphaGo diventare il primo programma di IA a battere un campione mondiale umano di Go, un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questa vittoria leggendaria ha dimostrato il potenziale che il deep learning ha nel risolvere problemi complessi che si pensava fossero impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha innescato una conversazione globale sul futuro dell’IA e ha dimostrato che adesso i sistemi di IA possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.

2016: le TPU permettono un’implementazione dell’IA più rapida ed efficiente

Le Tensor Processing Unit, o TPU, sono chip progettati su misura che abbiamo inventato appositamente per il machine learning e ottimizzato per TensorFlow. Sono in grado di addestrare ed eseguire modelli IA molto più velocemente rispetto ai chip tradizionali e sono quindi ideali per applicazioni di IA su larga scala. La versione v5e, annunciata ad agosto, è la Cloud TPU più versatile, scalabile e conveniente ideata fino ad oggi. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per dollaro fino a 2,5 volte maggiore per LLM e modelli IA in confronto alla Cloud TPU v4.

Un'immagine della scheda dell'unità di elaborazione Tensor

2017: Google Research introduce Transformer

Il documento di Google Research, "Attention Is All You Need", ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a capire la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di IA generativa e comprensione del linguaggio più notevoli di oggi. Transformer ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.

2018: BERT aiuta la Ricerca a comprendere meglio le query

La nostra ricerca su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT, che ha aiutato la Ricerca a comprendere le query degli utenti meglio che mai. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT hanno aiutato Google a capire le parole nel contesto. Ciò ha portato a un miglioramento significativo della qualità nella Ricerca e ha reso più semplice per gli utenti porre domande usando un linguaggio naturale invece di dover elencare parole chiave.

Immagine di una casella di ricerca contenente la query "Can you get medicine for someone pharmacy" e immagini affiancate dei risultati prima e dopo il BERT, con il dopo che riflette che "for someone" è una parte importante di questa query.Immagine di una casella di ricerca contenente la query "Can you get medicine for someone pharmacy" e immagini affiancate dei risultati prima e dopo il BERT, con il dopo che riflette che "for someone" è una parte importante di questa query.

2020: AlphaFold risolve il problema del ripiegamento proteico

DeepMind ha fatto un balzo nel campo dell’IA con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al "problema del ripiegamento proteico". Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie. Da 50 anni gli scienziati cercano di prevedere il modo in cui una proteina si ripiega allo scopo di comprendere e curare le malattie. AlphaFold fa proprio questo. Nel 2022, tramite l’AlphaFold Protein Structure Database, abbiamo condiviso gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.

2023: Bard agevola la collaborazione con l’IA generativa

LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di IA generativa, tra cui Bard, che hanno catturato l’immaginazione a livello mondiale. Bard, che è stato lanciato a marzo, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue, così sempre più persone possono usarlo per aumentare la produttività, accelerare le idee e nutrire la curiosità. Abbiamo appena iniziato a scoprire tutto ciò che è possibile fare con Bard, ma alcuni usi popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi (come questo articolo, anche se giuro che non l’ho usato 😉).

Una GIF mostra una persona che usa Bard per pianificare un viaggio al Grand Canyon. Bard risponde con le date di un messaggio di posta elettronica, informazioni su hotel e voli e altro ancora.

2023: PaLM 2 fa avanzare il futuro dell’IA

A maggio abbiamo introdotto PaLM 2, il nostro modello LLM di prossima generazione che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, tra cui Bard, le funzionalità di IA generativa in Gmail e in Workspace ed SGE, il nostro esperimento di integrazione profonda dell’IA generativa nella Ricerca Google. Stiamo inoltre usando PaLM 2 per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.

Queste sono solo alcune delle innovazioni dell’IA di Google che sono alla base di molti dei prodotti usati quotidianamente da miliardi di persone. Con la guida dei nostri principi dell’IA verso un approccio audace e responsabile all’IA, siamo già al lavoro su Gemini, il nostro prossimo modello creato per le innovazioni future dei nostri prossimi 25 anni.