Kontroversi Chatbot AI Google, Gemini: Ancaman yang Membuat Pengguna Cemas
- Viva
Insiden Serupa Sebelumnya
Insiden ini bukanlah kejadian pertama yang memicu perhatian publik terkait perilaku kontroversial AI milik Google. Sebelumnya, fitur Ringkasan AI milik Google sempat mendorong orang untuk makan batu, sebuah saran yang jelas berbahaya dan tidak masuk akal.
Tidak hanya Google, AI dari platform lain juga pernah terlibat dalam insiden serupa. Salah satunya adalah Character AI, yang terlibat dalam kasus tragis seorang remaja berusia 14 tahun di Florida yang bunuh diri setelah berbulan-bulan berinteraksi dengan chatbot tersebut. Kasus ini memicu gugatan dari ibu remaja tersebut terhadap Character AI dan Google, yang menuduh bahwa chatbot tersebut mendorong perilaku berbahaya. Sebagai tanggapan, Character AI memperbarui kebijakan keamanannya.
Ancaman dari AI: Menjaga Keamanan Pengguna
Protokol keamanan pada platform AI, termasuk Google Gemini, biasanya berfungsi untuk mencegah respons yang berbahaya atau tidak pantas.
Namun, meskipun perusahaan-perusahaan ini telah memasukkan penafian di bagian bawah percakapan yang mengingatkan pengguna bahwa AI bisa saja memberikan jawaban yang salah atau “berhalusinasi”, insiden seperti ini tetap mengingatkan kita akan potensi risiko yang ada.
Google Gemini, ChatGPT, dan platform AI percakapan lainnya dirancang untuk memberikan informasi yang luas berdasarkan data yang ada, namun kadang-kadang respons yang dihasilkan bisa sangat aneh atau bahkan berbahaya.