Google, Yapay Zeka İlkelerinde Önemli Değişiklikler Yaptı
Google, yapay zeka ilkelerini 2018 yılında ilk kez yayımladıktan sonra, bu alanda en önemli değişikliklerden birini gerçekleştirdi. The Washington Post’un dikkat çektiği bu değişiklik, internet devinin silahlar veya gözetleme teknolojileri için yapay zeka araçları tasarlamayacağı veya dağıtmayacağına dair verdiği sözleri, resmi belgelerinden çıkarmasıyla ortaya çıktı. Önceki belgelerde yer alan “üzerinde çalışmayacağımız uygulamalar” başlıklı bölüm artık mevcut değil.
Yeni belgede ise “sorumlu geliştirme ve dağıtım” başlıklı bir bölüm eklendi. Bu bölümde Google, “kullanıcı hedefleri, sosyal sorumluluk ve uluslararası hukuk ile insan haklarının yaygın olarak kabul görmüş ilkeleriyle uyumlu bir şekilde uygun insan denetimi, gerekli özeni gösterme ve geri bildirim mekanizmaları” uygulayacağını belirtiyor. Ancak bu yeni taahhütler, şirketin yalnızca bir ay önceki AI ilkelerinde verdiği net ve açık taahhütlere göre çok daha geniş ve belirsiz bir yapı sergiliyor.
Örneğin, şirket daha önce silahlarla ilgili olarak “temel amacı veya uygulaması insanlara zarar vermek veya doğrudan kolaylaştırmak olan silahlar veya diğer teknolojilerde” kullanılmak üzere yapay zeka tasarlamayacağını açıklamıştı. Aynı şekilde, AI gözetleme araçlarıyla ilgili olarak da “uluslararası kabul görmüş normları” ihlal eden teknolojiler geliştirmeyeceğini vurgulamıştı.
Google, bu değişikliği bir blog yazısı aracılığıyla duyurdu. Yazıda, DeepMind CEO’su Demis Hassabis ve Google’da araştırma, laboratuvarlar, teknoloji ve toplum kıdemli başkan yardımcısı James Manyika, yapay zekanın “genel amaçlı bir teknoloji” olarak kabul edilmesinin, politika değişikliği gerektirdiğini ifade ettiler. İkili, “demokrasilerin, özgürlük, eşitlik ve insan haklarına saygı gibi temel değerler tarafından yönlendirilen AI gelişiminde liderlik etmesi gerektiğine inanıyoruz. Bu değerleri paylaşan şirketler, hükümetler ve kuruluşlar, insanları koruyan, küresel büyümeyi teşvik eden ve ulusal güvenliği destekleyen yapay zeka yaratmak için birlikte çalışmalıdır” dediler.
Yazıda ayrıca, “AI İlkelerimiz tarafından yönlendirilerek, misyonumuz, bilimsel odak noktamız ve uzmanlık alanlarımızla uyumlu AI araştırmalarına ve uygulamalarına odaklanmaya devam edeceğiz. Uluslararası hukuk ve insan hakları konusunda yaygın olarak kabul görmüş ilkelerle tutarlı kalacağız; her zaman belirli çalışmaları, faydaların potansiyel risklerden önemli ölçüde daha ağır basıp basmadığını dikkatlice değerlendirerek değerlendireceğiz” ifadeleri de yer aldı.
Google, ilk olarak ABD Savunma Bakanlığı’na dron görüntülerini analiz edecek bir yapay zeka yazılımı geliştirmesi talep eden tartışmalı bir sözleşme olan Project Raven sonrasında 2018 yılında yapay zeka ilkelerini yayınlamıştı. Bu süreçte birçok Google çalışanı, hükümetle yapılan bu sözleşmeye karşı protesto amacıyla istifa etmiş ve binlerce çalışan, sözleşmeye karşı bir dilekçe imzalamıştı.