Acceder al contenido
Esto es Google

AI

Google Cloud amplía el acceso a los modelos Gemini para los clientes de Vertex AI

Gemini in vertex

En diciembre, Google anunció Gemini , nuestro modelo más capaz y general hasta el momento. Desde diciembre, clientes como Samsung y Palo Alto Networks han creado agentes de IA sofisticados con modelos Gemini en Vertex AI, desbloqueando nuevos niveles de productividad, aprendizaje personalizado y más para sus usuarios. Hoy, ofrecemos más modelos Gemini a nuestros clientes con nuevas actualizaciones y mayor disponibilidad:

  • Gemini 1.0 Pro, nuestro mejor modelo para escalar tareas de IA, ahora está disponible de forma general para todos los clientes de Vertex AI. A partir de hoy, cualquier desarrollador puede empezar a construir con Gemini Pro en producción. 1.0 Pro ofrece el mejor equilibrio entre calidad, rendimiento y costo para la mayoría de las tareas de IA , como generación, edición, resumen y clasificación de contenido.
  • Gemini 1.0 Ultra , nuestro modelo más sofisticado y capaz para tareas complejas, ahora está generalmente disponible en Vertex AI para clientes a través de la lista de permitidos. 1.0 Ultra está diseñado para tareas complejas, mostrando un rendimiento especialmente sólido en áreas como instrucción compleja, código, razonamiento y multilingüismo, y está optimizado para resultados de alta calidad.

Además, nos complace presentar una nueva generación de modelos Gemini con Gemini 1.5, que ofrece un rendimiento mejorado en una arquitectura más eficiente.

El primer modelo Gemini 1.5 que lanzaremos para pruebas iniciales es Gemini 1.5 Pro , que ahora se encuentra en versión preliminar privada en Vertex AI. Es un modelo multimodal de tamaño mediano, optimizado para escalar en una amplia gama de tareas y funciona a un nivel similar al 1.0 Ultra, nuestro modelo más grande hasta la fecha.

1.5 Pro presenta una nueva característica experimental innovadora en la comprensión de contextos prolongados: la ventana de contexto más larga de cualquier modelo de base a gran escala hasta el momento. Las aplicaciones ahora pueden ejecutar hasta 1 millón de tokens en producción. Esto significa que 1.5 Pro puede procesar grandes cantidades de información, tales como 1 hora de video, 11 horas de audio, bases de código con más de 30 000 líneas de código o más de 700 000 palabras.

Las ventanas de contexto más grandes permiten que los modelos hagan referencia a más información, capten el flujo narrativo, mantengan la coherencia en pasajes más largos y generen respuestas más ricas contextualmente. Por ejemplo, con 1.5 Pro, las empresas pueden:

  • Analizar con precisión una biblioteca de código completa en un solo mensaje, sin la necesidad de ajustar el modelo, incluida la comprensión y el razonamiento sobre pequeños detalles que un desarrollador podría pasar por alto fácilmente, como errorese inconsistencias en el código.
  • Sintetizar documentos muy extensos, desde comparar detalles de contratos hasta resumir y analizar temas y opiniones en informes de analistas, estudios de investigación o incluso una serie de libros.
  • Analizar y comparar contenido a lo largo de horas de video, como encontrar detalles específicos en imágenes deportivas o obtener información detallada de resúmenes de reuniones en video que respalden preguntas y respuestas precisas.
  • Permitir que los chatbots mantengan conversaciones largas sin olvidar detalles, incluso durante tareas complejas o muchas interacciones de seguimiento.
  • Habilitar experiencias hiperpersonalizadas incorporando información relevante del usuario en el mensaje, sin la complejidad de ajustar un modelo.

Cómo los clientes están innovando con los modelos Gemini

Vertex AI ha experimentado una fuerte adopción y las solicitudes de API aumentaron casi 6 veces entre el primer semestre y el segundo semestre del año pasado. Estamos realmente impresionados con las cosas increíbles que los clientes están haciendo con los modelos Gemini, particularmente porque son multimodales y pueden manejar muy bien razonamientos complejos.

Samsung: Samsung anunció recientemente que su serie Galaxy S24 es el primer teléfono inteligente equipado con modelos Gemini. Comenzando con las aplicaciones nativas de Samsung, los clientes pueden aprovechar las funciones de resumen en Notes y Voice Recorder. Samsung confía en que sus usuarios finales están protegidos con seguridad, protección y privacidad integradas en Vertex AI.

Palo Alto Networks: Palo Alto Networks está probando modelos Gemini en una variedad de casos de uso, incluidos agentes de productos inteligentes que permiten a sus clientes interactuar con su cartera de productos de una manera más intuitiva y reducir el tiempo dedicado al soporte al cliente.

Jaspe: Jasper, una oferta de inteligencia artificial que ayuda a los equipos de marketing empresarial a crear y reempaquetar contenido, utiliza modelos Gemini para generar automáticamente contenido de blog y descripciones de productos para sus clientes. Los equipos ahora pueden moverse más rápido y al mismo tiempo mantener un alto estándar de calidad para el contenido, asegurando que cumpla con las pautas de marketing y voz de la marca.

Quora: Quora, la popular plataforma de preguntas y respuestas, está utilizando Gemini para ayudar a impulsar la monetización de los creadores en su plataforma de chat de IA, Poe, en la cual los usuarios pueden explorar una amplia variedad de bots impulsados ​​por IA. Gemini permite a los creadores de Poe crear bots personalizados en una variedad de casos de uso que incluyen asistencia en escritura, generación de código, aprendizaje personalizado y más.

Cree aplicaciones listas para producción con la API Gemini en Vertex AI

La API Gemini en Vertex AI permite a los desarrolladores crear la próxima generación de agentes y aplicaciones de IA, que pueden procesar información simultáneamente en modalidades como texto, código, imágenes y video. Para aprovechar el poder de los modelos Gemini, las organizaciones y los desarrolladores podrán crear aplicaciones de nivel empresarial y llevarlas a producción. Vertex AI es la única plataforma de IA en la nube que ofrece una plataforma única e integrada para modelos, herramientas e infraestructura, lo que garantiza que una vez que las aplicaciones se crean con modelos Gemini, se puedan implementar y mantener fácilmente. Con Vertex AI, los clientes pueden:

Personalizar los modelos Gemini para necesidades comerciales específicas. La API Gemini en Vertex AI ahora admite ajustes basados ​​en adaptadores, como la Adaptación de bajo rango (LoRA), que permite a los desarrolladores personalizar el modelo de una manera eficiente y de menor costo. En los próximos meses llegarán a la API de Gemini técnicas de personalización adicionales, como el aprendizaje reforzado a partir de la retroalimentación humana (RLHF) y la destilación.

Aumentar la respuesta del modelo Gemini con información actualizada y permita que el modelo actúe en el mundo real. Con soporte para grounding totalmente administrada , los desarrolladores pueden mejorar la precisión y relevancia de las respuestas del modelo Gemini utilizando los datos propios de su empresa. Con fuction calling, ahora disponibles de forma generalizada, los desarrolladores pueden conectar el modelo Gemini a API externas para transacciones y otras acciones.

Administrar y escalar Gemini en producción con herramientas diseñadas específicamente para ayudar a garantizar que una vez creadas las aplicaciones, se puedan implementar y mantener fácilmente. Vertex AI ofrece una herramienta de evaluación automatizada para modelos de IA generativa: Automatic Side by Side . Esta característica compara las respuestas del modelo según un conjunto estándar de criterios, lo que ayuda a los desarrolladores a comprender el rendimiento de Gemini y ajustar las indicaciones y los ajustes en función de esa retroalimentación.

Crear agentes de búsqueda y conversacionales con modelos Gemini con una mínima experiencia en codificación, en horas y días en lugar de semanas y meses:

  • Vertex AI Search proporciona a los desarrolladores un sistema de generación de respuestas y recuperación de información con calidad de búsqueda de Google listo para usar. Con soporte para modelos Gemini, los desarrolladores pueden crear aplicaciones de búsqueda con bases aún más sólidas, citas precisas y respuestas satisfactorias.
  • Conversación sobre Vertex AI ahora ofrece a los desarrolladores la capacidad de crear sofisticados chatbots conversacionales impulsados ​​por IA utilizando modelos Gemini. Con el razonamiento avanzado y las capacidades multimodales de Gemini, los desarrolladores pueden impulsar experiencias de IA conversacionales más personalizadas, informativas y atractivas en sus aplicaciones.

La era Gemini apenas comienza: manténgase a la vanguardia

Los desarrolladores pueden crear aplicaciones de nivel de producción en Vertex AI , que ofrece herramientas de gestión, implementación, implementación y aumento de modelos de nivel empresarial. Además, los desarrolladores pueden experimentar los modelos Gemini con la API en Google AI Studio , una herramienta de desarrollador gratuita basada en web para crear prototipos y lanzar aplicaciones rápidamente con una clave API. Con todos nuestros nuevos modelos Gemini ahora en manos de nuestros clientes, estamos ansiosos por ver la nueva generación de aplicaciones y agentes inteligentes que crearán. Sin embargo, la era Gemini recién comienza: si su organización quiere mantenerse a la vanguardia, trabaje con su equipo de cuentas para asegurarse de estar registrado para ser un evaluador confiable de los próximos modelos Gemini. Asegúrese de unirse a nosotros en Las Vegas en abril en Google Cloud Next '24 para conocer nuestras noticias de IA de última generación y explorar nuestros próximos eventos para profundizar en productos y estrategias.