DeepSeek: Yapay Zeka Dünyasında Yeni Bir Dönem
DeepSeek, kısa bir süre önce gerçekleştirdiği hızlı çıkışla yapay zeka (AI) gündemini adeta ele geçirdi. Çin merkezli bu girişim, OpenAI’nin sahip olduğu muazzam donanım ve altyapı kaynaklarına sahip olmamasına rağmen, ChatGPT kadar güçlü bir mantık modeli geliştirmeyi başardı. Bunun yanı sıra, DeepSeek R1’i eğitmek için eski nesil çipler ve yazılım optimizasyonları kullanarak dikkat çekici bir başarıya imza attı.
DeepSeek projesinin, yapay zeka alanında birçok hedefe ulaşmış olduğu söylenebilir. Bu girişim, yapay zeka rekabetinde ciddi bir fırsat yaratarak, tüm yaptırımlara rağmen Çin’e bir mücadele şansı sundu. DeepSeek, diğer yapay zeka donanım şirketlerinin büyük miktarlarda değer kaybetmesine neden olarak ABD borsasında yaklaşık 1 milyar dolarlık kayıplara yol açtı. Sonuç olarak, DeepSeek, Çin’e TikTok’tan çok daha güçlü olabilecek bir yazılım silahı sağladı. Artık isteyen herkes, DeepSeek modelini bilgisayarına yükleyebiliyor ve bu modeli, yeni yapay zeka modelleri oluşturmak için kullanabiliyor.
Bu önemli gelişmelerin arasında, OpenAI’de çalışan önemli bir güvenlik araştırmacısının istifa ettiği haberi belki çok dikkat çekmeyebilir. Ancak, Steven Adler isimli mühendis, geçen yıl OpenAI’dan ayrılan mühendisler arasında yer aldığını doğruladı. Adler, X platformunda yaptığı paylaşımda, dört yılın ardından şirketten ayrıldığını ve burada geçirdiği zamanın büyük bir kısmını özleyeceğini ifade etti. Fakat sonrasında, “Bugünlerde yapay zeka gelişiminin hızından oldukça korkuyorum” diyerek paylaşımını daha karamsar bir hale getirdi.
Adler’in bu açıklaması, yapay zekanın kaçınılmaz sonumuzu getirebileceğini düşünen diğer uzmanların korkularını yansıtıyor. Eski ChatGPT güvenlik araştırmacısı, geleceğe dair endişelerini açıkça dile getiriyor: “Gelecekte bir aileyi nerede büyüteceğimi veya emeklilik için ne kadar tasarruf edeceğimi düşündüğümde, şu soruyu sormadan edemiyorum: İnsanlık o noktaya gelebilecek mi?”
Çok Riskli Bir Kumar
Adler, OpenAI’den ayrılma sebebi hakkında ayrıntılı bir açıklama yapmadı ve onu bu kadar korkutan şeyin ne olduğunu da belirtmedi. Ancak, AGI (yapay genel zeka) yarışının son derece riskli bir kumar olduğunu düşündüğünü ifade etti. Henüz hiçbir laboratuvarın AGI’nin getirebileceği öngörülen sorunlara karşı bir çözüm geliştirmediğini ve bu yarışın hızlanmasıyla birlikte çözüm bulma olasılığının da azaldığını vurguladı. AGI, herhangi bir sorunu çözmeye çalışırken bir insanın yaratıcılığı ve yeteneğiyle eşleşebilecek bir yapay zeka türü olarak tanımlanabilir. Bununla birlikte, AGI çok daha fazla bilgi tutma kapasitesine sahip olduğundan, herhangi bir görevi insandan çok daha etkili bir şekilde çözebilir.
AI, AGI ve süper yapay zeka (ASI) ile ilgili en önemli güvenlik meselesi, bu sistemlerin uyumlu bir şekilde geliştirilmesidir. Geliştirilecek yapay zekanın, insanlığın çıkarlarıyla her düzeyde uyumlu olması zorunludur. AI’nin, insanlığın sonunu getirebilecek çözümler geliştirmesini engellemek için bu uyumu sağlamak kritik bir öneme sahiptir. Ancak, ChatGPT ve DeepSeek gibi gerçek yaşam ürünleri, şimdiden iki farklı uyum türü sunmaktadır. ChatGPT, muhtemelen ABD ve Batı çıkarlarıyla daha uyumlu bir yol izlerken, DeepSeek, öncelikle Çin çıkarlarını gözeterek kuruldu ve bazı yanıtlarda uyguladığı sansürlerle bu uyumu açıkça gösteriyor.
Adler, doğrudan adını vermemiş olsa da, DeepSeek’in başarısından endişe duyuyor gibi görünmektedir. Mühendis, bazı geliştiricilerin yapay zekanın uyumluğuna öncelik verse de, diğerlerinin bazı önlemleri uygulamadan geliştirme yapmaya devam edebileceğini ve bu durumun çok daha tehlikeli sürümler ortaya çıkarabileceğini belirtti. Adler’in kariyerinin geleceği şu an için belirsizliğini korurken, yapay zeka güvenliği konusundaki ilgisini sürdürdüğü anlaşılıyor. X platformunda insanlara yapay zeka güvenliği ve politikasındaki “en önemli ve ihmal edilen fikirlerin” neler olduğunu sordu ve “kontrol yöntemleri, entrika tespiti ve güvenlik vakaları” konusunda heyecan duyduğunu ekledi.