Una nuova partnership per promuovere un’IA responsabile
Nota dell’editor: Google, Microsoft, OpenAI e Anthropic hanno pubblicato oggi il seguente annuncio congiunto in cui viene lanciato il Frontier Model Forum.
Oggi Anthropic, Google, Microsoft e OpenAI hanno annunciato la creazione del Frontier Model Forum, un ente di settore impegnato nello sviluppo responsabile e sicuro dei modelli di intelligenza artificiale all’avanguardia. Il Frontier Model Forum farà affidamento sulle competenze tecniche ed operative delle aziende che ne fanno parte per portare benefici all’intero ecosistema dell’IA. Per esempio, attraverso il miglioramento delle valutazioni tecniche e dei benchmark, e lo sviluppo di una libreria pubblica di soluzioni pensate per supportare le best practice e gli standard di settore.
Gli obiettivi principali del Forum sono:
- Supportare l’avanzamento nella ricerca per la sicurezza dell’intelligenza artificiale per promuovere lo sviluppo dei modelli di frontiera, minimizzare i rischi e rendere possibili valutazioni di capacità e di sicurezza indipendenti e standardizzate;
- Identificare le best practice per uno sviluppo e un’implementazione etica dei modelli di intelligenza artificiale, aiutando il pubblico a comprendere la natura, le capacità, le limitazioni e l’impatto della tecnologia.
- Collaborare con policymaker, accademici, la società civile e le aziende per condividere le conoscenze relative ai problemi di sicurezza e di affidabilità.
- Supportare il lavoro per sviluppare applicazioni che possano aiutare a risolvere le più grandi sfide della società, come la mitigazione della crisi climatica e l’adattamento a essa, la diagnosi del cancro e la sua prevenzione e il contrasto alle minacce informatiche.
Criteri di adesione
Il Forum definisce i modelli di frontiera (frontier models) come modelli di machine learning su larga scala che superano le capacità attualmente presenti nei modelli più avanzati esistenti, e che possono svolgere una vasta serie di compiti.
L’adesione al Forum è aperta a organizzazioni che:
- sviluppano e implementano i modelli di intelligenza artificiale (come definiti dal Forum).
- dimostrano un forte impegno per la sicurezza dei modelli, anche attraverso approcci tecnici ed istituzionali.
- vogliono contribuire a supportare l’impegno del Forum partecipando a iniziative congiunte e supportando lo sviluppo e il funzionamento dell’iniziativa.
Il Forum accoglie le organizzazioni che soddisfano questi criteri e le invita a unirsi e a collaborare per assicurare uno sviluppo sicuro e responsabile dei modelli IA di frontiera.
Cosa farà il Frontier Model Forum
I governi e l’industria concordano sul fatto che, sebbene l’IA offra enormi potenzialità per migliorare il mondo, è necessario implementare delle barriere in grado di mitigare i rischi. Il governo americano, quello inglese, l’Unione Europea, l’OCSE, il G7 (attraverso il processo di Hiroshima sull’AI) e altri hanno già presentato importanti contributi in questo senso.
Per portare avanti questo processo, è necessario ulteriore lavoro sugli standard e le valutazioni di sicurezza per assicurare che i modelli IA siano sviluppati e implementati eticamente. Il Forum sarà una delle piattaforme per dibattiti tra organizzazioni diverse e azioni pensate per garantire la sicurezza e l’accountability dell’intelligenza artificiale.
Nei prossimi anni, il Forum si concentrerà su tre aree chiave per supportare uno sviluppo sicuro e responsabile dei modelli IA:
Identificazione delle best practice: promuovere la condivisione delle conoscenze e le best practice nell’industria, nei governi, nella società civile e in ambiente accademico, con un focus sugli standard e le pratiche di sicurezza per mitigare una vasta gamma di rischi potenziali.
Portare avanti la ricerca per la sicurezza dell’intelligenza artificiale: supportare l’ecosistema legato all'IA identificando le più importanti domande di ricerca aperte sulla sicurezza dell’intelligenza artificiale. Il Forum coordinerà la ricerca per portare avanti questi percorsi in campi come l’adversarial robustness (robustezza avversaria), la mechanistic interpretability (interpretabilità meccanicistica), lo scalable oversight (supervisione scalabile), l’accesso di ricerca indipendente, i comportamenti emergenti e la rilevazione di anomalie. Inizialmente, imprimeremo un forte focus sullo sviluppo e nella condivisione di una library pubblica di valutazioni tecniche e di benchmark per i modelli IA.
Facilitare la condivisione di informazioni tra aziende e governi: stabilire meccanismi sicuri e affidabili per la condivisione di informazioni tra le aziende, i governi e gli stakeholder di rilievo circa la sicurezza e i rischi legati all’IA. Il Forum seguirà le best practice per quanto riguarda la divulgazione responsabile, attingendo da aree come la cybersecurity.
Kent Walker, President, Global Affairs, Google & Alphabet ha dichiarato: “Non vediamo l’ora di lavorare assieme ad altre aziende leader, condividendo l’expertise tecnico per promuovere un’innovazione responsabile nel campo dell’IA. Dovremo lavorare tutti insieme per assicurarci che l’intelligenza artificiale sia di beneficio per tutti.”
Brad Smith, Vice Chair & President, Microsoft ha dichiarato: “Le aziende che stanno sviluppando le intelligenze artificiali hanno la responsabilità di assicurare che siano sicure, affidabili e che rimangano sotto il controllo degli umani. Questa iniziativa è un passo vitale per unire l’industria tecnologica e garantire un’intelligenza artificiale etica, oltre che per affrontare le sfide così che possa essere di beneficio a tutta l’umanità.”
Anna Makanju, Vice President of Global Affairs, OpenAI ha dichiarato: “Le tecnologie avanzate di intelligenza artificiale hanno il potenziale di apportare profondi benefici alla società, e la possibilità di raggiungere questo potenziale richiede supervisione e governance. È vitale che le aziende che si occupano di intelligenza artificiale, - specialmente quelle che lavorano sui modelli più potenti - concordino su una base comune e promuovano pratiche di sicurezza ponderate e adattabili per garantire che gli strumenti di intelligenza artificiale più potenti generino il più ampio beneficio possibile. Questo è un lavoro urgente e questo Forum è ben posizionato per agire rapidamente per migliorare lo stato della sicurezza dell'intelligenza artificiale."
Dario Amodei, CEO, Anthropic, ha dichiarato: "Anthropic crede che l'intelligenza artificiale abbia il potenziale di cambiare profondamente il modo in cui il mondo funziona. Siamo entusiasti di collaborare con l'industria, la società civile, il governo e l'accademia per promuovere uno sviluppo sicuro e responsabile della tecnologia. Il Frontier Model Forum svolgerà un ruolo vitale nel coordinare le migliori pratiche e condividere la ricerca sulla sicurezza dei modelli di intelligenza artificiale."
Come funzionerà il Frontier Model Forum
Nel corso dei prossimi mesi, il Frontier Model Forum costituirà un Consiglio Consultivo per aiutare a guidare la sua strategia e le sue priorità, rappresentando una diversità di background e prospettive.
Le aziende fondatrici stabiliranno anche importanti accordi istituzionali, compresa una carta, una governance e un finanziamento, con un gruppo di lavoro e un consiglio esecutivo per guidare questo processo. Pianifichiamo di consultare la società civile e i governi nelle prossime settimane sul progetto del Forum e su modalità significative ed efficaci per collaborare.
Il Frontier Model Forum accoglie l'opportunità di contribuire e alimentare iniziative governative e multilaterali esistenti come il processo di Hiroshima del G7, il lavoro dell'OCSE sui rischi, gli standard e l'impatto sociale dell'IA, e il Consiglio Commerciale e Tecnologico tra gli Stati Uniti e l'Unione Europea.
Il Forum cercherà anche sviluppare ulteriormente il prezioso lavoro di iniziative esistenti dell'industria, della società civile e della ricerca in ciascuno dei suoi ambiti di lavoro. Iniziative come il Partnership on AI e MLCommons continuano a fornire importanti contributi all'interno della comunità dell'intelligenza artificiale, e il Forum esplorerà modi per collaborare e sostenere queste e altre preziose iniziative multilaterali.