Langsung ke konten utama
Indonesia Blog

Google Cloud Next '23: Infrastruktur AI-optimized guna membangun aplikasi Gen AI yang bertanggung jawab



Di Google Cloud Next '23, Google Cloud mengumumkan serangkaian kemitraan baru dan inovasi produk untuk memudahkan setiap bisnis dan organisasi sektor publik di Asia Tenggara membangun dengan model bahasa besar (LLM) dan model generative AI (gen AI).

Peningkatan portofolio infrastruktur AI khusus Google Cloud

Google Cloud telah berinvestasi di data center dan jaringannya selama 25 tahun, dan sekarang memiliki jaringan global 38 cloud region. Jaringan global ini mencakup cloud region di Indonesia dan Singapura, dengan cloud region baru akan datang ke Malaysia dan Thailand. Infrastruktur AI yang dioptimalkan Google Cloud adalah pilihan utama untuk melatih dan melayani model gen AI, dengan lebih dari 70% unicorn gen AI yang sudah membangun di Google Cloud, termasuk AI21, Anthropic, Cohere, Jasper, Replit, Runway, dan Typeface.

Untuk membantu organisasi di Asia Tenggara menjalankan beban kerja AI mereka yang paling berat dengan biaya efektif dan skalabilitas, Google Cloud hari ini meluncurkan peningkatan signifikan pada portofolio infrastruktur AI yaitu: Cloud TPU v5e—tersedia dalam pratinjau publik—dan ketersediaan umum dari A3 VM dengan GPU NVIDIA H100.

penyimpanan Cloud tensor chip

Di dalam wilayah Google Cloud yang menjalankan Cloud Tensor Processing Units, termasuk chip yang dibuat khusus, jaringan data center, saklar sirkuit optik, sistem pendingin air, verifikasi keamanan biometrik, dan banyak lagi.

Cloud TPU v5e adalah akselerator AI khusus Google Cloud yang paling hemat biaya, serbaguna, dan skalabilitas hingga saat ini. Sekarang, customer dapat menggunakan platform Cloud Tensor Processing Unit (TPU) tunggal untuk menjalankan pelatihan AI skala besar dan inferensi. Cloud TPU v5e memberikan kinerja pelatihan hingga 2 kali lebih tinggi per dolar dan kinerja inferensi hingga 2,5 kali lebih tinggi per dolar untuk LLM dan model gen AI dibandingkan dengan Cloud TPU v4. Cloud TPU v5e saat ini direncanakan diperluas ke wilayah lain, termasuk cloud region Singapura Google Cloud tahun ini.

A3 VM, superkomputer yang ditenagai oleh Unit Pemrosesan Grafis (GPU) NVIDIA H100, akan tersedia secara umum bulan depan, memungkinkan organisasi mencapai kinerja pelatihan 3 kali lebih cepat dibandingkan dengan A2. A3 VM dirancang khusus untuk melatih dan melayani beban kerja LLM dan gen AI yang sangat demanding.

Di Google Cloud Next '23, Google Cloud dan NVIDIA juga mengumumkan integrasi baru untuk membantu organisasi memanfaatkan teknologi NVIDIA yang sama yang digunakan oleh tim riset Google DeepMind dan Google selama dua tahun terakhir.

CEO Google Cloud Thomas Kurian dan CEO NVIDIA Jensen Huang

CEO Google Cloud Thomas Kurian dan CEO NVIDIA Jensen Huang mengumumkan perluasan kemitraan di Google Cloud Next '23.

Mark Lohmeyer, Vice President and General Manager, Compute and ML Infrastructure, Google Cloud, mengatakan: “Selama dua dekade, Google telah membangun beberapa kemampuan AI terdepan di industri: dari penciptaan arsitektur Transformer Google yang memungkinkan gen AI, hingga infrastruktur AI kami yang dioptimalkan, yang dirancang untuk memberikan skala global dan kinerja yang dibutuhkan oleh produk Google yang melayani miliaran pengguna. Kami menawarkan solusi lengkap untuk AI, dari infrastruktur komputasi yang dioptimalkan untuk AI hingga perangkat lunak dan layanan end-to-end yang mendukung siklus penuh pelatihan model, penyesuaian, dan penayangan di skala global.”

Selain menyediakan infrastruktur AI-optimized, Google Cloud juga mengembangkan kemampuan baru melalui platform Vertex AI. Artikel selengkapnya dapat disimak di sini.