Benvenute e benvenuti a Google Cloud Next '24
L'anno scorso, il mondo stava solo iniziando a immaginare come l'IA generativa avrebbe potuto trasformare le aziende. Oggi, questa trasformazione è ormai ampiamente avviata. Per Google, la missione ultima rimane sempre la stessa: rendere l'IA utile a tutti, per migliorare la vita del maggior numero possibile di persone.
Un mondo di agenti IA connessi al Cloud
Con la nostra offerta IA complessiva che comprende infrastruttura, Gemini, modelli e Vertex AI, clienti e partner stanno creando agenti IA sempre più sofisticati al servizio dei loro clienti e a supporto dei dipendenti, per aiutarli a creare contenuti e molto altro ancora.
I Customer Agent possono aiutare i clienti a interagire con le aziende in modo più fluido lavorando su diversi canali (web, mobile, call center e punto vendita) e in più modalità, come testo, voce e altro.
- IHG Hotels & Resort lancerà una funzionalità di pianificazione viaggi basata sull'intelligenza artificiale generativa, in grado di aiutare gli ospiti a pianificare facilmente la loro prossima vacanza.
- Target sta ottimizzando le offerte e il ritiro a domicilio sull'app Target e su Target.com.
Gli Employee Agent aiutano i dipendenti a essere più produttivi e a lavorare meglio insieme. Per esempio:
- Etsy utilizza il training di Vertex AI per ottimizzare i propri modelli di raccomandazioni di ricerca e annunci, fornendo agli acquirenti suggerimenti per migliorare le inserzioni e aumentare le vendite.
- Dasa, in Brasile, aiuta i medici a individuare più rapidamente i risultati rilevanti nei test clinici.
I Creative Agent possono affiancare designer e team di produzione, lavorando su immagini e presentazioni, e fornendo nuovi spunti. Offriamo la piattaforma e lo stack più potenti per creare agenti creativi. Per esempio:
- Canva utilizza Vertex AI per il suo strumento Magic Design for Video, aiutando gli utenti a creare video coinvolgenti in pochi secondi.
- Carrefour utilizza Vertex AI per creare campagne di marketing dinamiche su vari social network nel giro di settimane anziché mesi.
Ecco una panoramica delle innovazioni di prodotto che annunciamo a Google Cloud Next '24 per aiutare le organizzazioni di tutte le dimensioni ad aprire nuove strade nell'era dell'IA.
Scalabilità con l'infrastruttura ottimizzata per l'IA
Il potenziale dell'IA generativa nel guidare una rapida trasformazione è tanto potente quanto l'infrastruttura che lo sostiene. Stiamo facendo progressi fondamentali per supportare i clienti in tutti i livelli dello stack:
- A3 mega: sviluppata con NVIDIA utilizzando GPU Tensor Code H100, questa nuova istanza basata su GPU è generalmente disponibile e offre il doppio della larghezza di banda per GPU rispetto alle istanze A3, per supportare i carichi di lavoro più esigenti. Inoltre, annunciamo Confidential A3, che consente ai clienti di proteggere al meglio la riservatezza e l'integrità dei dati sensibili e dei carichi di lavoro IA durante il training e l'inferenza.
- NVIDIA HGX B200 e NVIDIA GB200 NVL72: i nuovi chip della piattaforma NVIDIA Blackwell arriveranno su Google Cloud all'inizio del 2025 in due varianti: HGX B200 e GB200. B200 è progettato per il training e il servizio mainstream, mentre GB200 NVL72 abilita l'inferenza in tempo reale di modelli linguistici di grandi dimensioni e prestazioni di training su scala massiva per modelli da un trilione di parametri.
- TPU v5p: annunciamo la disponibilità generale di TPU v5p, il nostro acceleratore IA più potente, scalabile e flessibile per il training e l'inferenza, con una potenza di calcolo per pod 4 volte superiore rispetto alla generazione precedente. Annunciamo inoltre la disponibilità del supporto di Google Kubernetes Engine (GKE) per TPU v5p. Nell'ultimo anno, l'utilizzo di GPU e TPU su GKE è cresciuto di oltre il 900%.
- Opzioni di archiviazione ottimizzate per l'IA: abbiamo accelerato la velocità di training con nuove funzionalità di caching in Cloud Storage FUSE e Parallelstore, che conservano i dati in prossimità della TPU o della GPU del cliente. Abbiamo anche introdotto Hyperdisk ML (in anteprima), il nostro servizio di archiviazione a blocchi di nuova generazione che accelera i tempi di caricamento dei modelli fino a 3,7 volte rispetto alle soluzioni più diffuse.
- Nuove opzioni per il Dynamic Workload Scheduler: la modalità calendario, per garantire l’orario di inizio, e la flessibilità di avvio, per ottimizzare i costi, aiuteranno i clienti a garantire una gestione efficiente delle risorse per la distribuzione degli incarichi di formazione e inferenza complessi.
Portiamo l'IA più vicino al luogo in cui vengono generati e utilizzati i dati: all'Edge, agli ambienti air-gapped, a Google Sovereign Cloud e Cross-Cloud. Stiamo abilitando l'intelligenza artificiale ovunque attraverso Google Distributed Cloud (GDC), consentendo ai nostri clienti di scegliere l'ambiente, la configurazione e i controlli che meglio si adattano alle esigenze specifiche dell’azienda. Ad esempio, Orange, operatore leader di telefonia mobile che opera in 26 Paesi e ha la necessità di conservare i dati locali all’interno degli specifici confini nazionali, sfrutta l'IA su GDC per migliorare le prestazioni della rete e ottimizzare l'esperienza dei clienti.
Oggi annunciamo una gamma di nuove funzionalità in GDC, tra cui:
- GPU NVIDIA in GDC: stiamo introducendo le GPU NVIDIA in GDC supportando sia configurazioni connesse che air-gapped. Ognuna di queste supporterà nuove istanze basate su GPU consentendo l'esecuzione efficiente dei modelli di intelligenza artificiale.
- GKE su GDC: la stessa tecnologia GKE utilizzata dalle aziende leader nel campo dell'IA su Google Cloud sarà disponibile anche su GDC.
- Modelli AI di supporto: stiamo abilitando una serie di modelli di intelligenza artificiale aperti, tra cui Gemma, Llama e altri ancora su GDC, per l'esecuzione in ambienti edge, air-gapped e connessi.
- Vector Search su GDC: stiamo anche portando la potenza di Vector Search per abilitare la ricerca e il recupero di informazioni su GDC per i dati privati e sensibili, con latenza minima.
- Sovereign Cloud: per rispondere ai requisiti normativi più stringenti, forniamo GDC in una configurazione completamente air-gapped con operazioni locali, piena survivability, gestita da Google o da un partner a scelta. Offriamo alle aziende il controllo completo, e in caso di modifiche alle normative, la flessibilità per aiutare le imprese ad adeguarsi rapidamente.
Anche se non tutti i carichi di lavoro riguardano l’IA, ogni carico eseguito in cloud necessita di ottimizzazione e ogni applicazione presenta esigenze tecniche specifiche. Ecco perché stiamo introducendo nuove opzioni di calcolo generiche che aiutano i clienti a massimizzare le prestazioni, abilitare l'interoperabilità tra le applicazioni e raggiungere gli obiettivi di sostenibilità, il tutto riducendo i costi.
- Google Axion: la nostra prima CPU basata su ArmⓇ e progettata per i data center, offre prestazioni fino al 50% superiori e un'efficienza energetica fino al 60% migliore rispetto alle attuali istanze basate su x86 di pari livello.
- Annunciamo inoltre N4 e C4, due nuove serie di macchine nel nostro portafoglio di macchine virtuali generiche; forme native di macchine bare-metal nella famiglia di macchine C3; la disponibilità generale di Hyperdisk Advanced Storage Pools e molto altro ancora.
Stiamo inoltre estendendo la residenza dei dati archiviati a riposo per l'IA generativa sui servizi Vertex AI a 11 nuovi Paesi: Italia, Australia, Brasile, Finlandia, Hong Kong, India, Israele, Polonia, Spagna, Svizzera e Taiwan.
- Inoltre, i clienti possono ora limitare l'elaborazione del machine learning agli Stati Uniti o all'Unione Europea quando utilizzano Gemini 1.0 Pro e Imagen.
- Queste nuove regioni, che si aggiungono agli altri 10 Paesi annunciati l'anno scorso, offrono ai clienti un maggiore controllo su dove vengono archiviati i loro dati e sulle modalità di accesso, facilitando il rispetto dei requisiti normativi e di sicurezza in tutto il mondo.
Creare agenti con Vertex AI
Google Cloud offre più di 130 modelli proprietari e di terze parti su Vertex AI e stiamo espandendo l'accesso a una varietà di modelli in modo che i clienti abbiano la massima scelta nella selezione del modello:
- Gemini 1.5 Pro: Gemini 1.5 Pro offre due dimensioni di finestre contestuali: 128K token e 1 milione di token ed è ora disponibile in anteprima pubblica. I clienti possono elaborare grandi quantità di informazioni in un unico flusso, tra cui 1 ora di video, 11 ore di audio, basi codice con oltre 30.000 linee di codice o oltre 700.000 parole.
- Claude 3: la nuova famiglia di modelli all'avanguardia di Anthropic è ora generalmente disponibile per i clienti su Vertex AI.
- CodeGemma: Gemma è una famiglia di modelli all'avanguardia, leggeri e aperti, realizzati con la stessa tecnologia utilizzata per creare i modelli Gemini. CodeGemma, una nuova versione ottimizzata di Gemma progettata per casi d'uso di codifica come la generazione di codice e l'assistenza al codice, è ora disponibile su Vertex AI.
- Imagen 2: La nostra tecnologia text-to-image più avanzata vanta una serie di funzioni di generazione di immagini per aiutare le aziende a creare immagini che corrispondano ai requisiti specifici del loro brand. La nuova funzionalità di text to live image consente ai team di marketing e creativi di generare immagini animate e gif, dotate di filtri di sicurezza e filigrane digitali. Inoltre, annunciamo la disponibilità generale di funzionalità avanzate per l'editing fotografico, tra cui l'inpainting e l'outpainting, e molto altro ancora.
- Digital Watermarking: abilitata da SynthID di Google DeepMind, siamo felici di annunciare che da oggi la filigrana digitale è disponibile per le immagini generate dall'intelligenza artificiale prodotte da Imagen 2.
I clienti ottengono molto di più dai loro modelli quando li arricchiscono e li ancorano ai dati aziendali. Oggi stiamo estendendo le capacità di grounding di Vertex AI in due modi:
- Ricerca Google: Il grounding dei modelli nella Ricerca Google combina la potenza dei più recenti modelli di base di Google con l'accesso a informazioni aggiornate e di alta qualità, migliorando notevolmente la completezza e l'accuratezza delle risposte.
- I vostri dati: È possibile eseguire il grounding sui dati provenienti da applicazioni aziendali, come Workday o Salesforce, e connettere facilmente database di Google, come AlloyDB e BigQuery.
Una volta scelto il modello adatto e dopo averlo ottimizzato e calibrato, Vertex può aiutare a implementare, gestire e monitorare i modelli. Oggi annunciamo ulteriori funzionalità di ML ops:
- Strumenti di Prompt Management: questi strumenti consentono di collaborare sui prompt integrati tramite note e stati, di monitorare le modifiche nel tempo e di confrontare la qualità delle risposte provenienti da diversi prompt.
- Automatic side-by-side: ora disponibile a livello generale, Auto SxS fornisce spiegazioni sul perché una risposta è migliore di un'altra e punteggi di affidabilità, che aiutano gli utenti a comprendere l'accuratezza della valutazione.
- Funzionalità di Rapid Evaluation: ora in anteprima, aiuta i clienti a valutare rapidamente i modelli su set di dati più piccoli in fase di progettazione dei prompt.
Infine, Vertex AI Agent Builder unisce modelli di base, Google Search e altri strumenti per gli sviluppatori, per semplificare la creazione e l’implementazione di agenti. Offre la comodità di una console per la creazione di agenti senza codice, insieme a potenti funzionalità di grounding, organizzazione e potenziamento. Con Vertex AI Agent Builder, è ora possibile creare rapidamente una vasta gamma di agenti di intelligenza artificiale generativa, basati su Ricerca Google e sui dati aziendali.
Accelerare lo sviluppo
Gemini Code Assist è la nostra soluzione per l'assistenza al codice IA orientata alle imprese. Per supportare gli sviluppatori, annunciamo:
- Gemini 1.5 Pro in Gemini Code Assist: questo aggiornamento offre un'enorme finestra contestuale da 1 milione di token, rivoluzionando il coding anche per i progetti più grandi. Gemini Code Assist offre ora suggerimenti di codice ancora più accurati, insight più approfonditi e flussi di lavoro semplificati.
- Gemini Cloud Assist: fornisce assistenza IA per tutto il ciclo di vita dell'applicazione, facilitando la progettazione, la sicurezza, il funzionamento, la risoluzione dei problemi e l'ottimizzazione delle prestazioni e dei costi dell'applicazione.
Abbiamo implementato Gemini Code Assist mettendolo a disposizione di un gruppo di sviluppatori all'interno di Google e abbiamo riscontrato un impatto significativo: una riduzione del 40% del tempo impiegato per il completamento delle attività di sviluppo più comuni e una diminuzione del 55% del tempo speso nella scrittura di nuovo codice. Gemini Code Assist supporta la base di codice privata ovunque: on premise, su GitHub, GitLab, Bitbucket o anche in più sedi.
Sfruttare il potenziale dell'IA con i dati
Google Cloud permette di combinare il meglio dell'intelligenza artificiale con i dati aziendali, mantenendoli privati e protetti. Oggi annunciamo nuovi miglioramenti per aiutare le aziende a creare agenti di dati straordinari:
- Gemini in BigQuery: utilizza l'intelligenza artificiale per aiutare i team che si occupano di dati a predisporre, scoprire, analizzare e gestire i dati. Inoltre, è possibile costruire ed eseguire pipeline di dati con il nuovo BigQuery Data Canvas, che offre una nuova esperienza simile a un blocco note con linguaggio naturale e visualizzazioni incorporate, entrambi disponibili in anteprima.
- Gemini in Database: facilita la migrazione in modo sicuro dei dati dai sistemi legacy, ad esempio convertendo il database in un database cloud moderno come AlloyDB.
- Gemini in Looker: stiamo introducendo nuove funzionalità, attualmente in anteprima, che consentono agli agenti di dati di integrarsi facilmente con i flussi di lavoro. Abbiamo anche implementato nuove funzionalità di IA generativa, integrate con Google Workspace, per consentire di chattare con i dati aziendali.
Migliorare la sicurezza informatica con funzionalità basate sull'intelligenza artificiale
L’IA generativa ha il potenziale per spostare l’ago della bilancia a favore dei difensori, grazie ai Security Agent che forniscono assistenza in ogni fase del ciclo di vita della sicurezza. Le innovazioni presenti nel portfolio di sicurezza di Google Cloud, che garantiscono risultati più efficaci e consentono a tutte le aziende di includere Google come parte del proprio team di sicurezza, comprendono:
- Gemini nella Threat Intelligence: utilizza il linguaggio naturale per fornire insight approfonditi sul comportamento degli attori delle minacce. Con Gemini, siamo in grado di analizzare campioni molto più grandi di codice potenzialmente dannosi. La finestra di contesto più ampia di Gemini consente di analizzare le interazioni tra i moduli, fornendo nuove informazioni sul vero intento del codice.
- Gemini nelle Security Operation: la nuova funzione di ricerca assistita converte il linguaggio naturale in rilevamenti, riassume i dati relativi agli eventi, consiglia le azioni da intraprendere e guida gli utenti all'interno della piattaforma tramite una chat conversazionale.
Aumentare la produttività con Google Workspace
Con Gemini per Workspace, le aziende hanno a disposizione un agente IA integrato in Gmail, Documenti, Fogli e altro ancora. Oggi annunciamo una nuova serie di innovazioni e miglioramenti di Gemini per Google Workspace, tra cui:
- Google Vids: questa nuova applicazione alimentata dall'intelligenza artificiale per la creazione di video in ambito professionale è un assistente per la scrittura, la produzione e l'editing di video, tutto in un'unica soluzione. Può generare uno storyboard facilmente modificabile e, dopo aver scelto uno stile, sviluppa una prima bozza con scene selezionate da video di repertorio, immagini e musica di sottofondo. Può anche aiutare a veicolare il messaggio al meglio con il giusto voiceover, scegliendo tra le voci fuori campo preimpostate utilizzando la vostra. Vids si affiancherà agli altri strumenti di produttività di Workspace come Documenti, Fogli e Presentazioni, e includerà un'interfaccia semplice e intuitiva, con la possibilità di collaborare e condividere progetti in modo sicuro dal proprio browser.. Vids sarà rilasciata su Workspace Labs a giugno.
- Componente aggiuntivo per riunioni e messaggistica IA: con la funzionalità "prendi appunti per me", la sintesi delle chat e la traduzione in tempo reale in 69 lingue (corrispondenti a 4.600 coppie linguistiche), questo strumento di collaborazione costerà solo $10 per utente al mese.
- Nuovo componente aggiuntivo per AI Security: gli amministratori di Workspace possono ora classificare e proteggere automaticamente i file e i dati sensibili utilizzando modelli di intelligenza artificiale che preservano la privacy e controlli per la prevenzione della perdita dei dati adattati alla propria azienda. Il componente aggiuntivo AI Security è disponibile al prezzo di $10 al mese per utente e può essere integrato alla maggior parte dei piani Workspace.
Guardando all'anno appena trascorso, è davvero straordinario osservare la rapidità con cui i nostri clienti siano passati dal semplice entusiasmo e dalla sperimentazione, all'implementazione di strumenti di IA e al lancio di prodotti in fase iniziale, e non vediamo l'ora di scoprirne gli sviluppi futuri.
Questo testo è un riepilogo rielaborato, il blog post originale in inglese è disponibile qui.