Torna al menu principale
Blog di Google Italy

Un approccio audace all'IA implica un atteggiamento responsabile fin dall'inizio

Immagini di persone racchiuse in cerchi collegati da linee

Riteniamo che il nostro approccio all'intelligenza artificiale debba essere al tempo stesso audace e responsabile. Per noi, questo significa sviluppare l'IA in modo da massimizzare i benefici per la società e affrontarne al tempo stesso le sfide, guidati dai nostri principi per l'IA. Sebbene esista una tensione naturale tra i due aspetti, riteniamo che sia possibile, anzi cruciale, accettare questa tensione in modo produttivo. L'unico modo per essere veramente audaci nel lungo periodo è essere responsabili fin dall'inizio.

Stiamo applicando l'IA con audacia nei nostri prodotti, nei nostri progressi scientifici e nel contributo che forniamo per affrontare le sfide della società.

L’IA nei nostri prodotti

l'AI è già presente in molti dei prodotti che milioni (e talora miliardi) di persone usano come Google Maps, Google Traduttore, Google Lens e altri ancora. E ora la stiamo introducendo per aiutare a stimolare la creatività con Bard, aumentare la produttività con gli strumenti di Workspace e rivoluzionare il modo in cui accediamo alle informazioni attraverso la Search Generative Experience. In Google Labs si possono trovare molti altri esperimenti ed esempi iniziali di applicazioni utili.

L’IA per contribuire ad affrontare le sfide della società

Stiamo applicando l'AI per la mitigazione e l'adattamento al cambiamento climatico, fornendo previsioni di alluvioni in più di 20 paesi, tracciando il perimetro degli incendi in tempo reale e contribuendo a ridurre le emissioni di anidride carbonica grazie alla diminuzione del traffico a singhiozzo. E ancora, la stiamo applicando per migliorare l'assistenza sanitaria in aree quali l'assistenza alla maternità, le cure contro il cancro e lo screening della tubercolosi. Di recente abbiamo anche annunciato Med-PaLM, un nuovo Large Language Model che potrebbe rivelarsi uno strumento utile per i medici. Inoltre, entro la fine dell'anno, Data Commons, un sistema che organizza i dati provenienti da centinaia di fonti per informare l’approccio di vari paesi a grandi problemi sociali quali sostenibilità, assistenza sanitaria, lavoro ed economia, sarà accessibile tramite Bard, rendendolo ancora più utile.

L’IA nella nostra ricerca all'avanguardia

L'IA sta aiutando gli scienziati a compiere progressi netti e che porteranno benefici alla società in campi quali la fisica, la scienza dei materiali e la salute. Prendiamo per esempio il programma AlphaFold di Google DeepMind. AlphaFold è in grado di prevedere con precisione la forma 3D di 200 milioni di proteine, quasi tutte le proteine catalogate note alla scienza: questo è un risultato che ci ha permesso di raggiungere in poche settimane l’equivalente di 400 milioni di anni di progressi nella ricerca. L’IA sta inoltre consentendo progressi nel rendere l’informazione accessibile alle persone ovunque. Per esempio, ci sta consentendo di realizzare progetti ambiziosi come la nostra 1.000 Languages Initiative: attraverso lo Universal Speech Model formato su oltre 400 lingue, abbiamo fatto importanti progressi nel raggiungere l’obiettivo di estendere il supporto alle 1000 lingue più parlate al mondo .

Le sfide

Benché sia esaltante assistere a queste audaci conquiste, siamo consapevoli che l'IA è una tecnologia emergente e che c’è ancora molto da fare. E’ importante essere consapevoli che l’IA ha anche il potenziale di peggiorare alcune sfide sociali esistenti, come l’influenza di pregiudizi ingiusti, e di porne di nuove a mano a mano che diventa più avanzata e ne emergono nuovi usi, così come evidenziato dalla nostre stesse ricerche e da quelle altrui. Ecco perché crediamo che sia imperativo adottare un approccio responsabile, guidato dai principi per l'IA che abbiamo stabilito per la prima volta nel 2018. Ogni anno pubblichiamo un report su come stiamo attuando i nostri principi, che approfondisce esempi pratici. E’ un lavoro che si evolve in continuazione con il progredire delle funzionalità e con l’emergere di nuove applicazioni di queste tecnologie, e condividiamo quello che noi stessi impariamo.

Valutare l’informazione

Un'area al centro dell'attenzione di molti, noi inclusi, è la disinformazione. L'IA generativa rende più facile che mai creare nuovi contenuti, ma solleva anche ulteriori domande in merito all'affidabilità dell’informazione online. È per questo che continuiamo a sviluppare e a fornire alle persone strumenti per valutare le informazioni online. Nei prossimi mesi, introdurremo nella Ricerca Google un nuovo strumento: About this image. Questo strumento fornirà un contesto importante, ad esempio quando e dove immagini simili potrebbero essere apparse per la prima volta e dove altro sono state viste online, compresi siti di notizie, di fact checking o social media. Più avanti nell’anno About this image sarà disponibile su Chrome e Google Lens.

Applicare i principi per l’IA

A mano a mano che applichiamo i principi per l'AI ai nostri prodotti, iniziamo anche a notare potenziali tensioni tra un approccio audace e uno responsabile. Ad esempio, Universal Translator è un servizio sperimentale di doppiaggio video basato sull'AI che aiuta gli esperti a tradurre la voce di una persona che parla e a far coincidere i movimenti delle labbra. Ha un enorme potenziale per migliorare l'apprendimento, tuttavia, consapevoli dei rischi che potrebbe comportare nelle mani di malintenzionati, abbiamo creato il servizio prevedendo dei paletti per limitarne l'uso improprio e rendendolo accessibile solo ai partner autorizzati.

Un altro modo attraverso cui rispettiamo i nostri principi per l'IA è usando l'innovazione per affrontare le sfide nel momento in cui emergono. Per esempio, siamo stati tra i primi nel settore ad automatizzare i test antagonistici utilizzando gli LLM, il che ha migliorato significativamente la velocità, la qualità e la copertura dei test, consentendo agli esperti di sicurezza di concentrarsi sui casi più difficili. Per contribuire a risolvere il problema della disinformazione, presto integreremo novità relative a watermarking e metadati nei nostri ultimi modelli generativi. Inoltre, stiamo facendo progressi sugli strumenti per rilevare la sintesi vocale: nel progetto AudioLM abbiamo addestrato un classificatore che è in grado di rilevare la sintesi vocale nei nostri modelli audio con un'accuratezza quasi del 99%.

Uno sforzo collettivo

Sappiamo che sviluppare l'IA in modo responsabile deve essere uno sforzo collettivo che coinvolge ricercatori, scienziati sociali, esperti, governi, creator, publisher, nonché le persone che utilizzano l'IA nella loro vita di tutti i giorni.

Condividiamo le nostre innovazioni con altri per aumentarne l'impatto, come nel caso di Perspective API, che era stata originariamente sviluppata dai nostri ricercatori di Jigsaw per mitigare la tossicità dei commenti online. Ora la stiamo applicando ai nostri modelli LLM, compresi tutti quelli menzionati ad I/O, e i ricercatori accademici l'hanno utilizzata per creare una valutazione standard di settore impiegata da tutti i più importanti LLM, compresi i modelli di OpenAI e Anthropic.

Siamo convinti che un ecosistema web florido vada a beneficio di tutti, oggi come in futuro, e per supportarlo lavoreremo con la comunità di chi opera sul web a modalità per dare ai publisher scelta e controllo sul loro contenuto web.

Parte di ciò che rende l'IA così entusiasmante è il suo potenziale immenso e concreto di portare benefici alle persone e alla società e l’imperativo di svilupparla ed utilizzarla in modo responsabile. C’è così tanto che cambia a mano a mano che la tecnologia progredisce e le persone ne fanno esperienza, la condividono, sviluppano e utilizzano. Impariamo costantemente dalla nostra ricerca, dalle esperienze, dagli utenti e dalla comunità in generale e incorporiamo quanto appreso nel nostro approccio. Guardando al futuro, ci sono così tanti traguardi che possiamo raggiungere e così tante cose che dobbiamo fare nel modo giusto, insieme.

Vorrei ringraziare i miei colleghi dei team Responsible AI, Responsible Innovation, Google.org, Labs, Jigsaw, Google Research e Google DeepMind per il loro lavoro, complesso e fonte di ispirazione.