Torna al menu principale
Blog di Google Italy

Gemma: una nuova famiglia di modelli aperti

Gemma

Noi di Google crediamo nel rendere l'intelligenza artificiale utile per tutti. Abbiamo una lunga storia di contributi innovativi alla comunità aperta, come con Transformers , TensorFlow , BERT , T5 , JAX , AlphaFold e AlphaCode . Oggi siamo entusiasti di presentare una nuova generazione di modelli aperti di Google per assistere sviluppatori e ricercatori nella creazione di un'intelligenza artificiale responsabile.

Modelli aperti Gemma

Gemma è una famiglia di modelli aperti leggeri e all'avanguardia, costruiti con la stessa ricerca e tecnologia utilizzata per creare i modelli Gemini . Sviluppato da Google DeepMind e altri team di Google, Gemma si ispira ai Gemelli e il nome riflette il latino gemma , che significa "pietra preziosa". Insieme al peso dei nostri modelli, stiamo rilasciando anche strumenti per supportare l'innovazione degli sviluppatori, promuovere la collaborazione e guidare l'uso responsabile dei modelli Gemma.

Gemma è disponibile in tutto il mondo a partire da oggi. Ecco i dettagli chiave da sapere:

Prestazioni all'avanguardia in termini di dimensioni

I modelli Gemma condividono componenti tecnici e infrastrutturali con Gemini , il nostro modello di intelligenza artificiale più grande e capace oggi ampiamente disponibile. Ciò consente a Gemma 2B e 7B di ottenere le migliori prestazioni della categoria per le loro dimensioni rispetto ad altri modelli aperti. Inoltre, i modelli Gemma possono essere eseguiti direttamente sul laptop o sul computer desktop dello sviluppatore. In particolare, Gemma supera modelli significativamente più grandi rispetto ai parametri di riferimento chiave, aderendo al tempo stesso ai nostri rigorosi standard per risultati sicuri e responsabili. Consulta la relazione tecnica per dettagli su prestazioni, composizione del set di dati e metodologie di modellazione.

Responsabile fin dalla progettazione

Gemma è progettata tenendo in primo piano i nostri principi di intelligenza artificiale. Per rendere sicuri e affidabili i modelli pre-addestrati Gemma, abbiamo utilizzato tecniche automatizzate per filtrare determinate informazioni personali e altri dati sensibili dai set di addestramento. Inoltre, abbiamo utilizzato un'ampia messa a punto e l'apprendimento di rinforzo dal feedback umano (RLHF) per allineare i nostri modelli ottimizzati per le istruzioni con comportamenti responsabili. Per comprendere e ridurre il profilo di rischio dei modelli Gemma, abbiamo condotto valutazioni approfondite tra cui red-teaming manuale, test contraddittori automatizzati e valutazioni delle capacità del modello per attività pericolose. Queste valutazioni sono delineate nella nostra Scheda Modello .

Insieme a Gemma, stiamo inoltre rilasciando un nuovo Responsible Generative AI Toolkit per aiutare gli sviluppatori e i ricercatori a dare priorità alla creazione di applicazioni AI sicure e responsabili. Il kit di strumenti include:

  • Classificazione di sicurezza: forniamo una nuova metodologia per creare robusti classificatori di sicurezza con esempi minimi.
  • Debug: uno strumento di debug del modello ti aiuta a indagare sul comportamento di Gemma e ad affrontare potenziali problemi.
  • Linee guida: puoi accedere alle best practice per gli sviluppatori di modelli in base all'esperienza di Google nello sviluppo e nell'implementazione di modelli linguistici di grandi dimensioni.

Ottimizzato su framework, strumenti e hardware

Puoi ottimizzare i modelli Gemma sui tuoi dati per adattarli a esigenze applicative specifiche, come il riepilogo o la generazione aumentata con recupero (RAG). Gemma supporta un'ampia varietà di strumenti e sistemi:

  • Strumenti multi-framework: porta il tuo framework preferito, con implementazioni di riferimento per l'inferenza e la messa a punto su Keras 3.0 multi-framework, PyTorch nativo, JAX e Hugging Face Transformers.
  • Compatibilità tra dispositivi: i modelli Gemma funzionano sui tipi di dispositivi più diffusi, tra cui laptop, desktop, IoT, dispositivi mobili e cloud, consentendo funzionalità AI ampiamente accessibili.
  • Piattaforme hardware all'avanguardia: abbiamo collaborato con NVIDIA per ottimizzare Gemma per le GPU NVIDIA , dal data center al cloud fino ai PC AI RTX locali, garantendo prestazioni leader del settore e integrazione con tecnologia all'avanguardia.
  • Ottimizzato per Google Cloud: Vertex AI fornisce un ampio set di strumenti MLOps con una gamma di opzioni di ottimizzazione e implementazione con un clic utilizzando ottimizzazioni di inferenza integrate. La personalizzazione avanzata è disponibile con gli strumenti Vertex AI completamente gestiti o con GKE autogestito, inclusa l'implementazione in un'infrastruttura conveniente su GPU, TPU e CPU da entrambe le piattaforme.

Crediti per ricerca e sviluppo

Gemma è pensato per la comunità aperta di sviluppatori e ricercatori che alimentano l'innovazione dell'intelligenza artificiale. Puoi iniziare a lavorare con Gemma oggi stesso utilizzando l'accesso senza costi a Kaggle, un livello senza costi per i notebook Colab e $ 300 in crediti per i nuovi utenti di Google Cloud. I ricercatori possono anche richiedere crediti Google Cloud fino a 500.000 dollari per accelerare i loro progetti.

Puoi scoprire di più su Gemma e accedere alle guide rapide su ai.google.dev/gemma . Mentre continuiamo ad espandere la famiglia di modelli Gemma, non vediamo l'ora di introdurre nuove varianti per diverse applicazioni. Resta sintonizzato per eventi e opportunità nelle prossime settimane per connetterti, imparare e costruire con Gemma.