I nostri Principi sull'IA
A livello fondamentale, con intelligenza artificiale si intende la programmazione di un computer in modo che apprenda e si adatti. L’IA non può risolvere tutti i problemi, ma il suo potenziale per migliorare le nostre vite è profondo. In Google, utilizziamo l'intelligenza artificiale per rendere i prodotti più utili, dalle e-mail più facili da scrivere e prive di spam, a un assistente digitale con cui parlare in modo naturale, alle foto che mettono in risalto gli elementi più divertenti nell’immagine.
Oltre ai nostri prodotti, utilizziamo l'intelligenza artificiale per aiutare le persone ad affrontare problemi urgenti. Una coppia di studenti delle scuole superiori sta costruendo sensori basati sull'IA per prevedere il rischio di incendi. Gli agricoltori usano l’IA per monitorare la salute delle loro mandrie. I medici stanno iniziando a utilizzarla per migliorare le diagnosi tumorali e prevenire la cecità. Questi benefici evidenti sono il motivo per cui Google investe molto nella ricerca e nello sviluppo dell'IA e rende queste tecnologie ampiamente disponibili agli altri tramite i nostri strumenti e codice open source.
Riconosciamo che una tecnologia così potente solleva domande altrettanto importanti sul suo utilizzo. Il modo in cui l'IA viene sviluppata e utilizzata avrà un impatto significativo sulla società per molti anni a venire. In qualità di leader nell'IA, sentiamo la profonda responsabilità di fare la cosa giusta. Per questo, oggi annunciamo sette Principi per l'intelligenza artificiale che guideranno il nostro lavoro in futuro. Non si tratta di concetti teorici: sono standard concreti che governeranno attivamente la nostra ricerca e lo sviluppo dei prodotti e avranno un impatto sulle nostre decisioni aziendali.
Riconosciamo che quest'area è dinamica e in evoluzione e affronteremo il nostro lavoro con umiltà. Ci impegneremo per attivarci sia internamente che esternamente, con la volontà di adattare il nostro approccio man mano che nel tempo scopriremo cose nuove.
Obiettivi delle applicazioni IA
Valuteremo le applicazioni IA sulla base dei seguenti obiettivi. Pensiamo che l'IA dovrebbe:
1. Portare benefici alla società.
L'estesa portata delle nuove tecnologie influisce sempre di più sulla società nel suo complesso. I progressi nel campo dell'IA avranno impatti trasformativi in diversi campi, tra cui assistenza sanitaria, sicurezza, energia, trasporti, industria manifatturiera e intrattenimento. Durante la valutazione dello sviluppo e degli utilizzi potenziali delle tecnologie dell'IA, prenderemo in considerazione una vasta gamma di fattori sociali ed economici e procederemo nella direzione in cui riterremo che i probabili benefici complessivi superino notevolmente i rischi e svantaggi prevedibili.
L'IA migliora anche la nostra capacità di comprendere il significato dei contenuti su larga scala. Useremo l'IA per cercare di rendere prontamente disponibili informazioni precise e di alta qualità, continuando a rispettare le norme culturali, sociali e legali dei paesi in cui operiamo. E continueremo a valutare attentamente quando rendere le nostre tecnologie disponibili senza fini commerciali..
2. Evitare di creare o di rafforzare disparità.
Gli algoritmi e i set di dati utilizzati dell’IA possono rispecchiare, rafforzare o ridurre le disparità. Distinguere tra differenziazioni eque e differenziazioni ingiuste non è sempre facile e la prospettiva può cambiare a seconda della cultura e della società. Tuttavia, cercheremo di evitare di provocare impatti iniqui sulle persone, in particolare quelli riconducibili a caratteristiche sensibili come gruppo etnico, genere, nazionalità, reddito, orientamento sessuale, abilità, credo religioso e orientamento politico.
3. Essere sviluppata e testata pensando soprattutto alla sicurezza.
Continueremo a sviluppare e applicare procedure di sicurezza e protezione efficaci per evitare risultati imprevisti che possano avere ripercussioni dannose. Progetteremo i nostri sistemi di IA in modo che rispettino adeguati principi di prudenza e cercheremo di svilupparli seguendo le best practice sulla sicurezza. Nei casi opportuni, testeremo le tecnologie di IA in contesti limitati monitorandone il funzionamento dopo l'implementazione.
4. Essere responsabile nei confronti delle persone.
Progetteremo sistemi di IA che offrano adeguate possibilità di fornire feedback, dare opportune spiegazioni e presentare ricorso contro determinate decisioni. Le nostre tecnologie di IA saranno sottoposte ad adeguato controllo e direzione da parte di personale umano.
5. Incorporare i principi della privacy by design.
Integreremo i nostri principi sulla privacy nello sviluppo e nell'utilizzo delle nostre tecnologie di IA. Faremo in modo che le persone siano informate e possano dare il proprio consenso, incoraggeremo la realizzazione di architetture con misure di tutela della privacy e provvederemo a offrire trasparenza adeguata e controllo sull'uso dei dati.
6. Sostenere elevati standard di eccellenza scientifica.
L'innovazione tecnologica è basata sul metodo scientifico e sull'impegno volto a garantire rigore intellettuale, integrità, collaborazione e una ricerca di tipo esplorativo. Gli strumenti di IA sono potenzialmente in grado di estendere la ricerca scientifica a nuovi campi e di farci acquisire conoscenze in aree importanti come la biologia, la chimica, la medicina e le scienze ambientali. Aspiriamo a raggiungere standard elevati di eccellenza scientifica durante il nostro lavoro per sviluppare l'IA.
Lavoreremo con diversi stakeholder per promuovere in quest'ambito una leadership riflessiva, delineando degli approcci scientificamente rigorosi e multidisciplinari. Condivideremo le conoscenze sull'IA in maniera responsabile, pubblicando materiale educativo, best practice e ricerche che consentano a più persone di sviluppare applicazioni di IA utili.
7. Essere resa disponibile per utilizzi conformi a questi principi.
Molte tecnologie hanno diversi usi. Cercheremo di limitare le applicazioni potenzialmente dannose oppure offensive. Durante lo sviluppo e l'implementazione delle tecnologie di IA, valuteremo i possibili utilizzi alla luce dei seguenti fattori:
- Scopo principale e utilizzo: lo scopo principale e il probabile utilizzo di una tecnologia e applicazione, tenendo conto della probabilità con cui la soluzione potrebbe essere usata o adattata per causare danni.
- Natura e unicità: valutiamo se la tecnologia che stiamo fornendo è unica nel suo genere o potrebbe già essere generalmente disponibile.
- Scala: valutiamo se l'uso della tecnologia avrà un impatto significativo.
- Natura del coinvolgimento di Google: stabiliamo se stiamo fornendo strumenti dedicati a un utilizzo generalista, integrando strumenti per i clienti o sviluppando soluzioni personalizzate.
Applicazioni IA di cui non ci occuperemo
In aggiunta agli obiettivi sopra indicati, non progetteremo né implementeremo l'IA nelle seguenti aree di applicazione:
- Tecnologie che causano o potrebbero causare danni generalizzati. In caso di rischio sostanziale di danni, procederemo soltanto nei casi in cui riteniamo che i benefici compensino in modo rilevante i rischi e incorporeremo limiti di sicurezza appropriati.
- Armi o altre tecnologie la cui implementazione o finalità principale è causare o facilitare in maniera diretta il ferimento di persone.
- Tecnologie che raccolgono o usano informazioni per la sorveglianza violando le norme vigenti a livello internazionale.
- Tecnologie il cui scopo viola principi largamente accettati dalle leggi internazionali e i diritti umani.
Questo elenco potrebbe essere ampliato in base alle nuove esperienze acquisite in questo campo.
Vogliamo essere chiari sul fatto che mentre non stiamo sviluppando l'IA per l'utilizzo nelle armi, continueremo il nostro lavoro con i governi e le forze armate in molte altre aree. Questi includono sicurezza informatica, addestramento, reclutamento militare, assistenza sanitaria ai veterani, ricerca e soccorso. Queste collaborazioni sono importanti e cercheremo attivamente altri modi per aumentare il lavoro critico di queste organizzazioni e proteggere sia chi opera al loro interno che i civili.
IA nel lungo periodo
Sebbene questo sia il modo in cui abbiamo deciso di avvicinarci all'IA, comprendiamo che ci sia spazio per molte altre voci in questa conversazione. Man mano che le tecnologie di intelligenza artificiale progrediscono, lavoreremo con i rappresentanti dell'ecosistema per promuovere una leadership ponderata in questo settore, seguendo approcci scientificamente rigorosi e multidisciplinari. E continueremo a condividere ciò che abbiamo imparato per migliorare le tecnologie e le pratiche di intelligenza artificiale.
Crediamo che questi principi siano la giusta base per la nostra azienda e per il futuro sviluppo dell'IA. Questo approccio è coerente con i valori enunciati nella nostra Lettera dei Fondatori nel 2004. Lì abbiamo chiarito la nostra intenzione di adottare una prospettiva a lungo termine, anche se ciò significa fare rinunce nel breve termine. Lo dicevamo allora e ci crediamo adesso.