Cara kami melindungi pengguna dari “deep fake” dan risiko dari media yang dibuat AI
Oleh: Michaela Browning, VP, Government Affairs and Public Policy, Google Asia Pacific
AI akan menjadi perubahan teknologi terbesar dalam hidup kita. AI akan menciptakan peluang yang luar biasa besar serta mentransformasi setiap lapisan masyarakat. Kami senang melihat visi pemerintah Indonesia yang ingin memanfaatkan teknologi ini demi memberikan manfaat bagi masyarakatnya melalui upaya-upaya untuk menjembatani kesenjangan bahasa, meningkatkan kualitas pelayanan masyarakat termasuk layanan kesehatan, serta memberdayakan individu melalui pengembangan keterampilan, dan masih banyak lagi.
Seiring kami terus memadukan teknologi AI ke lebih banyak produk dan layanan Google, dan yang baru-baru ini kami luncurkan, yaitu AI generatif, kami menyadari bahwa kita harus berani bersikap dan bertanggung jawab bersama-sama. Karena layaknya teknologi transformatif lainnya, akan muncul berbagai tantangan yang perlu kita atasi.
Untuk mengembangkan AI secara bertanggung jawab, kita harus bisa menyeimbangkan upaya dalam memaksimalkan dampak positif AI dan mengatasi potensi risiko yang muncul. Walau terlihat rumit, hal ini harus kita upayakan bersama untuk mencapai keberhasilan jangka panjang. Hanya dengan memprioritaskan tanggung jawab sejak awal, kita dapat benar-benar memanfaatkan kekuatan transformatif AI tanpa mengorbankan kesejahteraan masyarakat.
Salah satu contoh cara kami menyikapi hal ini adalah dengan mengantisipasi dan menguji berbagai risiko keselamatan dan keamanan, termasuk munculnya bentuk-bentuk baru konten audio atau video sintetik dan fotorealistik yang dihasilkan oleh AI, yang juga dikenal sebagai “media sintetis”.
Meskipun teknologi ini memiliki banyak manfaat - misalnya, untuk mengoptimalkan fungsi lampu lalu lintas, atau menjadi sumber inspirasi kreatif baru bagi para artis dan studio film di seluruh dunia - teknologi ini menimbulkan kekhawatiran ketika digunakan dalam kampanye disinformasi dan untuk tujuan jahat lainnya, yaitu melalui “deep fake”. Potensi penyalahgunaan teknologi ini untuk menyebarkan narasi palsu dan konten yang direkayasa dapat menimbulkan banyak dampak negatif.
Memberikan konteks tambahan untuk output AI generatif
Kami berupaya membantu mengatasi potensi risiko ini dengan berbagai cara. Salah satu upaya penting yang kami lakukan adalah membantu pengguna untuk bisa mengidentifikasi konten yang dihasilkan AI, dan memberikan pengetahuan kepada masyarakat agar mereka bisa tahu ketika mereka berinteraksi dengan media yang dihasilkan AI. Itulah sebabnya kami menambahkan keterangan “Tentang hasil ini” pada fitur AI generatif di Google Search, supaya orang-orang dapat terbantu saat mengevaluasi informasi yang diperoleh dari fitur baru ini. Kami juga memperkenalkan cara baru untuk membantu orang-orang memeriksa kembali respons yang mereka lihat di Google Bard dengan mengaitkannya ke Google Search.
Sama halnya, konteks juga berperan penting dalam gambar, dan kami berkomitmen untuk memastikan bahwa setiap gambar yang dihasilkan melalui produk kami diberi label metadata dan diberi watermark oleh SynthID, yang saat ini dirilis ke sejumlah kecil pelanggan Vertex AI yang menggunakan Imagen , salah satu model text-to-image terbaru kami yang menggunakan input teks untuk membuat gambar fotorealistik. Kami juga telah mencapai progres yang signifikan dalam membuat alat untuk mendeteksi audio sintetis. Pada project AudioLM, kami melatih alat pengklasifikasi yang dapat mendeteksi audio sintetis pada model AudioLM milik kami, dengan tingkat akurasi hampir 99%.
Dalam beberapa bulan mendatang, YouTube akan mewajibkan kreator untuk mengungkapkan konten yang diubah atau konten sintetis yang realistis, termasuk yang dibuat dengan alat AI. Kami juga akan memberi tahu penonton tentang konten tersebut melalui label di panel deskripsi dan pemutar video. Kami berkomitmen untuk bekerja sama dengan para kreator sebelum kebijakan ini diluncurkan untuk memastikan mereka memahami persyaratan baru ini.
Menerapkan pembatas dan pengaman untuk mengatasi penyalahgunaan AI
Kami terus mendengar masukan dari kreator, penonton, dan artis mengenai dampak teknologi baru ini terhadap mereka. Apa lagi ketika wajah atau suara seseorang dapat dibuat secara digital tanpa izin, atau digunakan untuk menyampaikan perspektif yang menyesatkan mengenai topik tertentu. Dalam beberapa bulan lagi, di YouTube, kami akan meluncurkan fitur untuk menghapus konten buatan AI, atau konten sintetis atau konten rekayasa lainnya yang meniru seseorang, termasuk wajah atau suaranya, melalui proses permintaan privasi kami.
Kami memiliki Kebijakan Penggunaan Terlarang untuk Rilis AI baru yang menjelaskan secara detail konten yang berbahaya, tidak pantas, menyesatkan, atau ilegal yang kami larang, berdasarkan hasil identifikasi awal mengenai bahaya yang kami temukan selama proses penelitian, pengembangan, dan peninjauan etika untuk produk-produk kami. Prinsip ini kami terapkan di seluruh kebijakan produk kami untuk menyikapi konten-konten buatan AI generatif.
Kami juga memikirkan bagaimana masalah ini dapat memengaruhi momen-momen penting seperti pemilu. Itulah sebabnya, baru-baru ini kami memperbarui kebijakan iklan pemilu untuk mewajibkan pengiklan memberikan penjelasan jika iklan pemilu mereka menyertakan materi yang telah diubah atau dihasilkan secara digital. Upaya ini akan membantu memberikan konteks tambahan kepada orang-orang yang melihat iklan pemilu di platform kami.
Selain itu, masih ada kebijakan-kebijakan lama untuk berbagai produk dan layanan kami yang juga berlaku untuk konten yang dihasilkan oleh AI generatif. Sebagai contoh, dalam kebijakan mengenai pernyataan tidak benar di Google Ads, kami melarang penggunaan media yang dimanipulasi, “deep fake”, dan bentuk konten rekayasa lainnya yang dimaksudkan untuk menipu, mencurangi, atau menyesatkan pengguna.
Kebijakan kami untuk fitur Google Search seperti Panel Info atau Cuplikan Pilihan, juga melarang konten audio, video, atau gambar yang telah dimanipulasi untuk menipu, mencurangi, atau menyesatkan pengguna. Sementara itu di Google Play, aplikasi yang menghasilkan konten menggunakan AI diwajibkan untuk mematuhi semua Kebijakan Developer Google Play, yang melarang pembuatan konten terlarang dan konten yang memfasilitasi perilaku menipu.
Memberantas “deep fake” dan misinformasi yang dihasilkan AI
Tidak ada cara yang benar-benar ampuh untuk memberantas penyebaran “deep fake” dan misinformasi yang dihasilkan AI. Hal ini memerlukan upaya kolaboratif, yang membutuhkan komunikasi terbuka, penilaian risiko yang ketat, dan strategi mitigasi yang proaktif.
Misalnya, di YouTube, kami mengombinasikan proses peninjauan manual oleh manusia dan teknologi machine learning untuk menegakkan Pedoman Komunitas kami, yang didukung oleh banyak petugas peninjau yang beroperasi di seluruh dunia. Dalam sistem kami, pengklasifikasi AI membantu mendeteksi konten yang berpotensi melanggar dalam skala besar, sementara petugas peninjau berupaya memastikan apakah konten tersebut benar-benar telah melanggar batas kebijakan. AI membantu kami untuk terus meningkatkan kecepatan dan keakuratan sistem moderasi konten kami.
Dengan belajar dari sejarah, seperti ketika mobil pertama kali diciptakan atau ketika ketakutan besar melanda saat fenomena Y2K, kita bisa melihat bahwa meskipun kemajuan teknologi membawa ketidakpastian, kemajuan tersebut seringkali berpotensi memberikan manfaat perubahan yang besar bagi masyarakat. Begitu pula saat kita memasuki zona inovasi baru yang dihadirkan AI, sangatlah penting untuk bisa menyeimbangkan antara memitigasi potensi risiko dan melakukan inisiatif untuk memanfaatkan peluang yang diciptakan AI.
*Catatan: Ini adalah versi singkat dari artikel yang dipublikasikan pertama kali di Blog Keyword pada November 2023