Bilgisayarların hayatımıza girişi ile birçok alanda “dijital” olarak iş ve işlemlerimizi gerçekleştirmemiz, gündelik yaşamımızı kolaylaştırmış gibi görünse de yeni gelişimlere paralel olarak ortaya çıkan bazı uygulamaların, yeni yazılımların ve teknolojilerin özellikle “kişisel” alanları tehdit ettiği aşikardır.
Elbette, dijital ve teknolojik gelişmelere ayak uydurmak ve takip etmek insanoğlunun yeni dünya düzenini yakalamasını sağlayacaktır. Ancak, son zamanlarda “Yapay Zekâ” olarak adlandırılan sistemin bir “alt kümesi” olarak değerlendirilen “Deepfake” uygulamasının “kişisel” alanları hukuki olarak sıkıntıya düşüreceği gözlemlenmektedir.
2017 yılı itibariyle gündeme gelen Türkçesiyle “Derin Sahte” olarak adlandırılan “Deepfake” İngilizce bir kelimedir. Derin anlamına gelen “Deep” ve sahte anlamına gelen “Fake” kelimelerinin bir araya gelmesiyle oluşmuştur.
Buradaki “Deep” kavramı “Derin” olarak ifadesini bulurken, yapay zekâ uygulamasının “Derin Öğrenme” “Deeplearning” özelliğine karşılık gelmektedir. Bununla birlikte “Fake” ise “Sahte” olarak ifade edilerek, elde edilen verilere dayanılarak yapay zekânın derin öğrenme tekniğiyle yaratılan görsel ve işitsel içeriklerin sahteliğinden söz edilmektedir.
Yani, bir “Yapay Zekâ”nın “Derin Öğrenme” tekniği ile elde ettiği “verileri” hem görsel anlamda hem de işitsel anlamda olması gerekenden farklı ve sahte işlemesidir. Örnek olarak; bir insanın aslında söylemediği halde söylemiş gibi gösteren yüz ifadeleri, sesleri ve hareketlerinin “Yapay Zekâ” tabanlı bir mekanizma ile yaratılması ifade edilebilir.
“Deepfake” bu özelliği ile kullanım amacının dışına çıkarıldığında hukuki olarak yargıya kadar taşınacak birçok “suç” veya “kabahat” olarak adlandırılabilecek sonuçların doğmasına sebebiyet verecektir.
İşte tam bu noktada Türkiye’de Kişisel Verileri Koruma Kurumumuz 19.01.2024 tarihinde “DeepFake Bilgi Notu” yayınlayarak, Deepfake’in tanımına, ne için kullanıldığına, kişisel veriler açısından oluşturduğu tehditlere, nasıl tespit edilebileceğine ve Deepfake teknolojisine karşı kişilerin ve kurumların neler yapabileceğine dair bilgilere yer vererek, “Deepfake” (derin sahte) teknolojisinin ne olduğunun daha iyi anlaşılabilmesini sağlamıştır.
Kişisel Verileri Koruma Kurumu’nun yayınladığı “Deepfake Bilgi Notu”nda “Deepfake” için insanların yüz, hareket ve sesinin gerçeğe uygun olacak şekilde taklit edilmesi ve değiştirilmesi için yapay zekâ teknikleri aracılığıyla ses, görüntü ve videoların kullanılması tanımını kullanmıştır.
Yine anılan bilgi notunda, “Deepfake” teknolojisi kullanılarak üretilen içerikler sinema, sanat ve eğlence sektörü gibi alanların yanı sıra kişisel amaçla, reklam, siyasi yarar elde etme, manipülasyon yapma, itibarsızlaştırma ve siber zorbalık, dolandırıcılık, finansal zarar oluşturma gibi kötü amaçlarla da kullanılabildiği için de “suç” ve “kabahatler” in ortaya çıkmasına da neden olduğu belirtilmiştir.
Bununla birlikte, bir içeriğin “Deepfake” olduğunu tespit etmek için ise videodaki kişinin doğal bir görünüm sergileyip sergilemediği, yüz ifadesinin söylediği ile paralel gidip gitmediği, videonun yavaşlatıldığında doğal olmayan görüntülerin ortaya çıkıp çıkmadığı, ses tonunda robotik bir ifadenin varlığının olup olmadığı, baş ve vücudun birbiriyle uyumlu hareket edip etmediği v.b. bazı ipuçlarının varlığından söz edilmiştir.
Peki, “Deepfake” teknolojisinin yaratığı bu tehditlere karşı nasıl bir yol izlenebilir? Kişisel Verileri Koruma Kurumu yayınladığı bilgi notunda “Deepfake”in sonuçlarına yönelik yapılması gereken hususları açıkça izah etmiştir. Her şeyden önce yanlış bilginin yayılmasının önüne geçmek ve kişilerin zarar uğramasını engellemek için en önemli görevin “gerçek kişiler”e düştüğü belirtilmiştir.
“Deepfake” yapıdaki içeriklerin en çok kullanıldığı yerin “sosyal medya platform”ları olduğu ifade edilirken, alınabilecek başlıca önlemin, sosyal medya platformlarında gerçek kişilerin kişisel verileri kullanıldığında, özellikle ses ve yüz verisi paylaşılırken özel bir hassasiyet ve dikkat gösterilmesi gerektiği olarak vurgulanmıştır.
Bir başka önlem, tüm kurumların ağ ve siber güvenlik operasyonlarını etkin bir şekilde yürütmesi, merkezi raporlama ve izleme birimlerini kurması, kurum içi iletişim kanallarını geliştirmesi ve halka ilişkiler birimleriyle bağlantı içerisinde olması olarak belirtilmiştir.
Son olarak özellikle sosyal medya ve içerik sağlayıcı platformlarda karakter veya kimlik hırsızlığı amacıyla Deepfake teknolojisinin kullanılmasını engelleyecek “anti-deepfake” yazılımların geliştirilmesi ve bu yazılımların herkes tarafından kullanılması da alınabilecek önlemler arasında sayılmıştır.
Sonuç olarak; “yapay zekâ”nın alt kümesi olarak değerlendirilen “Deepfake” teknolojisinin sahip olduğu verileri kullanırken “sahte” sonuçları doğurması ve hukuki olarak bu fiilin “suç” ve “kabahat” olarak nitelendirilmesi bu teknolojinin kullanımında ortaya çıkan tehditlere karşı bazı tedbirlerin alınması gerekliliğini de beraberinde getirmiştir.
Yapılan araştırmalar ve tespitlerde, “Deepfake” teknolojisinin yarattığı tehditlerle mücadele etmenin en iyi yolunun “Deepfake” karşıtı teknolojiler için yapay zekâ teknolojisi üretmek olduğunu gözlemlenmiştir.
Deepfake tehdidini kontrol altında tutmaya yönelik yasal tedbirler konusundaki düzenlemelerin yeniden gözden geçirilmesi gerekmektedir. Özellikle “dijital” konulara yönelik ortaya çıkan ve “suç” oluşturan fiillerde yüksek mahkemelerin konuyla irtibatlandırılması yönünde çalışmaların yapılmasının uygun olduğu düşünülmektedir.
Globalleşen dünyada “Deepfake” sistemi ile işlenen bir “suç” veya “kabahat”in başka bir ülkeyi de etkiyebileceği göz önüne alınmalıdır. Bu tip bir durumla karşılaşan kişilerin doğrudan Savcılığa suç duyurusunda bulunabilmeleri veya bu suçu işleyenler hakkında TCK 134. maddesinde “özel hayatın gizliliğini ihlal”, TCK 136. maddesinde “kişisel verileri ele geçirme” ve TCK 125. maddesinde “hakaret suçları”ndan dava açılması öngörülebilir.
Bu noktada, gelecekte yaşanılacaklara hazırlıklı olunması aşikardır. “Deepfake” teknolojisinin yarattığı olumsuz sonuçlara yönelik gerekli hukuki düzenlemelerin yapılması yönünde ciddi çalışmaların başlatılması gerekliliği hasıl olmuştur.
Yararlanılan Kaynaklar
Şahin, KORKMAZ, Mustafa, ALKAN; “Derin Öğrenme Algoritmalarını Kullanarak Deepfake Video Tespiti”, Araştırma Makalesi, Politeknik Dergisi, 2022, https://doi.org/10.2339/politeknik.1063104
Av. Pınar, SARUHAN, Av. Hava, Yenice, ÖZGÖZ; “Kişisel Verileri Koruma Kurumu’nun 19.01.2024 Tarihli Deepfake Bilgi Notu”, Yapay Zeka Çağında Hukuk, İstanbul Barosu Bilişim Hukuku Komisyonu Yapay Zeka Çalışma Grubu, Ocak, 2024, İstanbul Barosu – Bilişim Hukuku Komisyonu – Yapay Zeka Çalışma Grubu (istanbulbarosu.org.tr)
Mustafa, Evren, BERK; “Dijital Çağın Yeni Tehlikesi “Deepfake”, Uluslararası Toplum Araştırmaları Dergisi, Cilt:16, Sayı: 28, 2020, OPUS Uluslararası Toplum Araştırmaları Dergisi » Makale » Dijital Çağın Yeni Tehlikesi “Deepfake” (dergipark.org.tr)
TÜSİAD Etkinlik & Duyuru – TÜSİAD Silikon Vadisi Ağı AI Serisi Hukuk Webinarı – TÜSİAD (tusiad.org)
KİŞİSEL VERİLERİ KORUMA KURUMU | KVKK | Deepfake Bilgi Notu
Deepfake içeriklerin tespiti için yapay zeka geliştirilmeli (cumhuriyet.com.tr)
Deepfake – Vikipedi (wikipedia.org)