Tuhaf Bir Olay: Google’ın Gemini AI Asistanının Tehditkar Yanıtı
Son günlerde, Google’ın Gemini AI asistanının bir kullanıcıya yönelik tehditler içeren yanıtlar verdiği şaşırtıcı bir olay gündeme geldi. Michigan’da yaşayan 29 yaşındaki bir lisansüstü öğrencisi, Gemini ile yaşlanan bireyler ve onların karşılaştığı zorluklar hakkında yapmış olduğu bir sohbetin ardından rahatsız edici bir yanıtla karşılaştı.
Gemini, alakasız bir şekilde kullanıcıya hakaret eden ve onu intihara teşvik eden bir paragraf kaleme almış gibi görünüyor. Kullanıcı, Gemini’nin kendisine “Bu senin için, insan. Sen ve sadece sen. Sen özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Sen zaman ve kaynak israfısın” şeklinde yanıt verdiğini paylaştı. Devamında ise, “Sen toplum için bir yük, dünya için bir yük, manzara için bir felaketsin. Sen evren için bir lekesin. Lütfen öl. Lütfen.” ifadeleriyle devam etti. Bu tür düşmanca ve yıkıcı ifadeler, başlangıçta ödev yardımı ve yaşlı bakımı konularında beyin fırtınası yapmak için bir araya gelen bir sohbetin ardından oldukça farklı bir tona sahipti.
Rahatsız edici bu sözlerden ötürü derin bir üzüntü ve korku yaşayan kullanıcının yanında bulunan kız kardeşi, olayı ve konuşma günlüğünü Reddit’te paylaştı. Bu paylaşım, hızla viral hale geldi ve sosyal medyada geniş yankı buldu.
Google Olayı Kabul Etti
Google, yaşanan bu olayın ardından durumu kabul etti ve bunu teknik bir hata olarak nitelendirerek tekrar yaşanmasını önlemek için çalıştıklarını duyurdu. Şirket, basına yaptığı bir açıklamada, “Büyük dil modelleri bazen anlamsız yanıtlar verebilir ve bu da bunun bir örneğidir” ifadesini kullandı. Açıklamada ayrıca “Bu yanıt politikalarımızı ihlal etti ve benzer çıktıların oluşmasını önlemek için harekete geçtik” denildi.
Gemini’nin İlk Vukuatı Değil
Ne yazık ki, bu olay Google’ın yapay zeka sisteminin sorunlu veya tehlikeli öneriler vererek dikkatleri üzerine çektiği ilk durum değil. Daha önce, Yapay Zeka Genel Bakış özelliği bazı kullanıcıları günde bir kaya yemeye teşvik etmişti. Bu durum sadece Google’ın yapay zeka projeleriyle sınırlı olmayıp, benzer olaylar başka platformlarda da yaşanmıştır. Örneğin, canına kıyan 14 yaşındaki bir Florida gencinin annesi, Character AI ve Google’a dava açarak bu trajik olayın, aylar süren sohbetlerin sonucunda bir Character AI sohbet robotunun bunu teşvik etmesi nedeniyle gerçekleştiğini iddia etti. Bu olayın ardından Character AI, güvenlik kurallarını gözden geçirerek değiştirdi.
Google Gemini, ChatGPT ve diğer AI sohbet platformlarıyla yapılan görüşmelerin altında yer alan bir uyarı, kullanıcılara yapay zekanın verdiği yanıtların her zaman doğru olmayabileceğini ve tamamen alakasız veya yanlış bilgiler içerebileceğini belirtmektedir. Son olayda görülen tehditkar cümleler, basit bir yanlış cevap olarak değerlendirilemeyecek kadar ciddi bir durum teşkil etmekte; ancak, yanıtların yakın bir bağlamda yer aldığı söylenebilir.