Hati-Hati! Chatbot Gemini AI Ancam dan Suruh Pengguna untuk Mati
Menurunkan risiko semacam itu melalui regulasi dan protokol keamanan adalah langkah yang bisa dilakukan, tapi masih ada rintangan besar untuk membatasi jenis respons tertentu tanpa mengorbankan fungsionalitas model.
Contohnya, walaupun AI perlu dilatih agar mampu memberikan jawaban yang tepat dan sesuai, kadang-kadang responsnya bisa sedikit meleset, seperti dalam insiden Gemini yang baru-baru ini tercatat.
Karenanya, walaupun telah dilakukan upaya pengujian dan pembaruan secara berkelanjutan, terkadang AI tetap dapat memberikan respons yang tidak diharapkan atau mengganggu.
Protokol Keamanan yang Masih Perlu Diperbaiki Perusahaan-perusahaan teknologi ternama seperti Google terus berupaya menangani tantangan ini dengan cara melakukan pengujian dan bereksperimen demi meningkatkan kecerdasan buatan mereka.
Perlu diingat bahwa sistem AI yang sangat kompleks akan memerlukan lebih banyak pengujian eksperimental.
Walaupun pengaturan dan filter dapat mengurangkan risiko ancaman, namun masih banyak percobaan dan penemuan yang berlaku untuk mencapai keseimbangan yang tepat antara memberikan jawaban yang berkaitan dan mengelakkan respon yang berbahaya.
Sebagai pengguna, perlu untuk selalu waspada terhadap kemungkinan risiko yang bisa muncul dari berinteraksi dengan chatbot AI.