Langsung ke konten utama
Indonesia Blog

Google Cloud

Berita dari Google Cloud Next '24

foto dari acara Google Cloud Next '24 di Las Vegas.

Tahun lalu, dunia baru mulai membayangkan bagaimana teknologi AI generatif dapat mentransformasi bisnis — dan saat ini, transformasi tersebut sedang berjalan dengan baik. Di Google, misi kami juga sama: menjadikan AI bermanfaat bagi semua orang, meningkatkan taraf hidup orang sebanyak mungkin.

Dunia yang didukung agen AI dan terhubung ke Cloud

Dengan seluruh portofolio AI kami – infrastruktur, Gemini, model, Vertex AI – customer dan mitra membangun agen AI yang semakin canggih yang melayani customer, mendukung karyawan, dan membantu mereka membuat konten, dan banyak lagi.

Agen Customer yang hebat dapat membantu customer berinteraksi dengan bisnis Anda secara lebih lancar dengan bekerja di berbagai saluran - web, seluler, pusat panggilan, dan tempat penjualan - dan dalam berbagai cara, seperti teks, suara, dan banyak lagi.

  • IHG Hotel & Resorts memperkenalkan kemampuan perencanaan perjalanan AI generatif untuk memudahkan tamu merencanakan liburan mereka selanjutnya. 
  • Target mengoptimalkan penawaran dan layanan ‘curbside pickup’ pada aplikasi Target dan Target.com.

Agen Karyawan membantu semua karyawan Anda menjadi lebih produktif dan bekerja sama dengan lebih baik. Misalnya:

  • Etsy menggunakan pelatihan Vertex AI untuk mengoptimalkan rekomendasi pencarian dan model iklan mereka, memberikan daftar rekomendasi yang lebih baik kepada pembeli dan meningkatkan penjualan.
  • Dasa di Brasil membantu dokter mendeteksi temuan yang relevan pada hasil tes dengan lebih cepat.

Agen Kreatif dapat berperan sebagai desainer dan tim produksi terbaik - bekerja di seluruh gambar, slide, dan menjelajahi konsep bersama Anda. Kami menyediakan platform dan tumpukan paling kuat untuk membangun agen kreatif. Misalnya:

  • Canva menggunakan Vertex AI untuk mendukung Magic Design for Video, membantu pengguna membuat video menarik dalam hitungan detik.
  • Carrefour menggunakan Vertex AI, mereka mampu membuat kampanye pemasaran dinamis di berbagai jejaring sosial dalam hitungan minggu, bukan bulan.  

Berikut adalah inovasi produk yang kami umumkan di Cloud Next '24 untuk membantu organisasi dari semua skala membuka jalan baru menuju era AI.

Skala dengan infrastruktur yang dioptimalkan menggunakan AI

foto dari acara Google Cloud Next '24 di Las Vegas.

Potensi gen AI untuk mendorong transformasi yang cepat hanya akan sekuat infrastruktur yang mendukungnya. Kami membuat kemajuan penting untuk mendukung customer di setiap lapisan:

  • A3 mega: Dikembangkan dengan NVIDIA menggunakan H100 Tensor Core GPU, model baru berbasis GPU ini tersedia secara umum dan memberikan bandwidth dua kali lipat per GPU dibandingkan model A3 sebelumnya, untuk mendukung beban kerja yang paling berat. Kami juga mengumumkan Confidential A3, yang memungkinkan customer untuk melindungi kerahasiaan dan integritas data sensitif serta beban kerja AI selama pelatihan dan inferensi dengan lebih baik.
  • NVIDIA HGX B200 and NVIDIA GB200 NVL72: Chip platform NVIDIA Blackwell terbaru akan hadir di Google Cloud pada awal 2025 dalam dua variasi: HGX B200 dan GB200. B200 dirancang untuk pelatihan dan penyajian arus utama, sedangkan GB200 NVL72 mendukung inferensi model bahasa besar real-time dan performa pelatihan skala besar untuk model skala triliunan parameter.
  • TPU v5p: Kami mengumumkan ketersediaan TPU v5p, akselerator AI kami yang paling kuat, dapat diskalakan, dan fleksibel untuk pelatihan dan inferensi, dengan daya komputasi 4X per pod dibandingkan dengan generasi sebelumnya. Kami juga mengumumkan ketersediaan dukungan Google Kubernetes Engine (GKE) untuk TPU v5p. Selama setahun terakhir, penggunaan GPU dan TPU di GKE telah tumbuh lebih dari 900%.
  • Opsi penyimpanan yang dioptimalkan dengan AI: Kami tengah mendorong kecepatan pelatihan dengan fitur caching baru di Cloud Storage FUSE dan Parallelstore, yang menyimpan data lebih dekat dengan TPU atau GPU customer. Kami juga memperkenalkan Hyperdisk ML (dalam pratinjau), layanan penyimpanan blok generasi terbaru kami yang mempercepat waktu pemuatan model hingga 3,7X dibandingkan dengan alternatif umum.
  • Opsi baru untuk Dynamic Workload Scheduler: Mode kalender untuk jaminan waktu mulai dan mulai fleksibel untuk penghematan yang dioptimalkan akan membantu customer memastikan manajemen sumber daya yang efisien untuk distribusi pelatihan kompleks dan pekerjaan inferensi.

Kami juga membawa AI ke tempat data dibuat dan digunakan - ke Edge, ke lingkungan yang terisolasi udara (air-gapped), ke Google Sovereign Cloud, dan Lintas-Cloud (Cross-Cloud). Kami memungkinkan AI di mana saja melalui Google Distributed Cloud (GDC), yang memungkinkan Anda memilih lingkungan, konfigurasi, dan kontrol yang paling sesuai dengan kebutuhan spesifik organisasi Anda. Misalnya, penyedia layanan seluler terkemuka Orange, yang beroperasi di 26 negara yang mengharuskan data lokal disimpan di setiap negara, memanfaatkan AI di GDC untuk meningkatkan kinerja jaringan dan menyempurnakan pengalaman customer.

Hari ini kami mengumumkan sejumlah kemampuan baru di GDC, termasuk:

  • GPU NVIDIA ke GDC: Kami menghadirkan GPU NVIDIA ke GDC untuk konfigurasi terhubung dan air-gapped atau celah udara. Masing-masing akan mendukung instance berbasis GPU baru untuk menjalankan model AI secara efisien.
  • GKE di GDC: Teknologi GKE yang sama yang digunakan oleh perusahaan AI terkemuka di Google Cloud akan tersedia di GDC.
  • Mendukung Model AI: Kami memungkinkan berbagai model AI terbuka, termasuk Gemma, Llama, dan lainnya pada GDC untuk dijalankan di lingkungan dengan celah udara dan edge yang terhubung.
  • Pencarian Vektor di GDC: Kami juga menghadirkan kekuatan Pencarian Vektor untuk memungkinkan pencarian dan pengambilan informasi di GDC untuk data pribadi dan sensitif Anda dengan latensi yang sangat rendah.
  • Sovereign Cloud: Untuk memenuhi persyaratan regulasi yang paling ketat, kami menghadirkan GDC dalam konfigurasi air-gapped dengan operasi lokal, kemampuan bertahan hidup penuh, dikelola oleh Google atau melalui partner pilihan Anda. Anda memiliki kendali penuh, dan ketika peraturan berubah, kami memiliki fleksibilitas untuk membantu Anda merespons dengan cepat.

Meskipun tidak semua beban kerja merupakan beban kerja AI, setiap beban kerja yang Anda jalankan di cloud memerlukan pengoptimalan dan setiap aplikasi memiliki kebutuhan teknis yang unik. Itu sebabnya kami memperkenalkan opsi komputasi baru untuk berbagai keperluan yang membantu customer memaksimalkan kinerja, memungkinkan interoperabilitas antar aplikasi, dan memenuhi tujuan keberlanjutan, sekaligus menurunkan biaya.

  • Google Axion: CPU berbasis ArmⓇ pertama kami yang dirancang untuk pusat data, memberikan kinerja hingga 50% lebih baik dan efisiensi energi hingga 60% lebih baik dibandingkan instans berbasis x86 generasi saat ini yang sebanding.
  • Kami juga mengumumkan N4 dan C4, dua seri mesin baru dalam portofolio VM tujuan umum kami; bentuk mesin bare-metal asli dalam Keluarga Mesin C3; ketersediaan umum Hyperdisk Advanced Storage Pools, dan banyak lagi.

Kami juga memperluas residensi data untuk data yang disimpan saat tidak digunakan untuk AI Generatif pada layanan Vertex AI ke 11 negara baru: Australia, Brasil, Finlandia, Hong Kong, India, Israel, Italia, Polandia, Spanyol, Swiss, dan Taiwan.  

  • Selain itu, customer kini dapat membatasi pemrosesan pembelajaran mesin di Amerika Serikat atau Uni Eropa saat menggunakan Gemini 1.0 Pro dan Imagen.
  • Bergabung dengan 10 negara lain yang kami umumkan tahun lalu , kawasan baru ini memberi customer kontrol lebih besar terhadap lokasi penyimpanan data mereka dan cara mengaksesnya, sehingga memudahkan customer untuk memenuhi persyaratan peraturan dan keamanan di seluruh dunia.