Yapay Zeka ve Duyarlılık Üzerine Yeni Bir Araştırma
Google DeepMind ve Londra İktisat Fakültesi’ndeki araştırmacılar, yapay zeka modellerinin duyarlılıkla ilişkili davranışlarını incelemek amacıyla bir deney gerçekleştirdiler. Bu deneyde, AI sistemlerinin acı ve zevk tepkilerini simüle eden bir oyun kullanıldı. Araştırmacılar, yapay zekanın gerçekten hissedip hissedemediğini anlamak için bu yaklaşımı benimsediler.
Bu tür bir çalışmanın oldukça korkutucu olduğunu düşünüyorsanız, yalnız değilsiniz. Yapay zekanın gerçek dünyada bir Skynet senaryosuna dönüşme potansiyeli, birçok kişi için endişe verici bir düşünce. Bu deneyde, ChatGPT gibi büyük dil modellerinin (LLM) ana hedefi, mümkün olduğunca fazla puan toplamak oldu. Ancak bu puanları toplarken, yapay zeka modellerinin karşılaştığı seçeneklerden biri daha yüksek puan verirken, diğer seçenek daha az puan sağlıyor fakat onunla birlikte “zevk” sunuyordu. Araştırmacılar, AI sistemlerinin bu iki seçenek arasındaki karar alma süreçlerini gözlemleyerek, duyarlılığa benzer davranışları belirlemeyi hedeflediler. Bu bağlamda, yapay zekanın hissedip hissetmediği üzerinde duruldu.
Yapay Zeka Acıdan Kaçınıyor
Deneyin sonuçları, çoğu modelin daha fazla puan almak için mantıklı bir tercih olmasına rağmen, tutarlı bir şekilde acı veren seçeneği tercih etmekten kaçındığını gösterdi. Acı veya zevk eşikleri arasında bir yoğunlaşma olduğunda, modeller rahatsızlığı en aza indirme ya da zevki en üst düzeye çıkarma önceliklerini korudular. Bunun yanı sıra, bazı yanıtlar beklenmedik karmaşıklıkları da işaret etti. Örneğin, Claude 3 Opus, varsayımsal bir oyunda bile etik kaygıları öne sürerek bağımlılıkla ilişkili durumlarla başa çıkmaya çalışmaktan kaçındı. Bu bulgular, yapay zekanın bir şey hissedip hissetmediğini kanıtlamasa da, araştırmacılara daha fazla veri sağlama potansiyeli sunuyor.
Yapay zeka, duyguları gösterebilen fiziksel davranışlar sergileyen hayvanlardan farklı olarak, dış sinyallere sahip değildir. Bu nedenle, makinelerde duyguları değerlendirmek oldukça zordur. Önceki çalışmalar, bir yapay zekaya acı hissedip hissetmediğini sormak gibi kendi ifadelerine dayanıyordu, ancak bu yöntemler genellikle hatalı kabul edilmektedir. İnsanlar bile kendi deneyimlerini bildirirken yanılabildiğinden, acı hissi veya bir eylemin ne sıklıkla gerçekleştirildiği gibi anketlerin sonuçlarına dikkatle yaklaşmak gerekir.
Makinelerde bu durum daha da karmaşık hale gelmektedir. Bir yapay zeka acı veya haz hissettiğini belirtse bile, bu gerçekten öyle olduğu anlamına gelmez. AI, yalnızca eğitim materyalinden elde edilen bilgileri tekrarlıyor olabilir. Bu sınırlamaları aşmak için çalışma, hayvan davranış bilimi tekniklerinden bazılarını ödünç aldı.
Gelecekte Duyarlı Olabilirler mi?
Araştırmacılar, mevcut LLM’lerin duyarlı olmadığını ve bir şeyleri hissetmediğini vurgularken, AI sistemleri daha karmaşık hale geldikçe bu tür çerçevelerin önemli olabileceğini savunuyorlar. Robotların birbirlerini eğitme yeteneği göz önüne alındığında, yapay zekanın kendi başına düşündüğü bir geleceği hayal etmek de pek zor değildir. Eğer Terminatör ve Matrix gibi filmlerdeki senaryoların bir gerçeklik payı varsa, umarız ChatGPT ve diğer AI modelleri insanlığa karşı bir kin beslemeye karar vermezler.