Üretken Yapay Zekanın Oyun Alanını Belirleyebilecek Miyiz?

Üretken yapay zekâ (Generative AI) son dönemlerde oldukça popüler. Hayatımıza bu kadar hızlı ve yoğun şekilde dahil olmaya başlayan bu yaratıcı asistanı tanımak için teknoloji ile samimiyetimizin yoğunluğu önemli değildir. Bu yazının amacı da bu tanışıklığa destek olmaktır.

Üretken yapay zekayı, alışkın olduğumuz yapay zekâ tanımının bir adım ötesine geçerek yani belirlenmiş kalıp ve kurallara dayanarak kendisine tanımlı görevleri yerine getirmeye odaklı bir sistem olmanın yanı sıra, derin öğrenme vasıtasıyla tamamen yeni ve benzersiz içerikler üretme yeteneğine sahip bir asistan olarak düşünebiliriz. Üretken yapay zekanın yaptığı şey bir çeşit taklit gibidir. Sonsuz bilgi denizinden edindiği ve “sindirdiği” verilerle bu taklit yeteneğini her geçen gün daha ileri bir seviyeye taşıdığı gibi, edindiği bu verilerle benzersiz içerikler de oluşturabilmektedir. Yapay zekâ, derin öğrenme sırasında yapay sinir ağları ile çalışır. Görüldüğü üzere burada da bir çeşit insan beyni taklidi karşımıza çıkmaktadır. Yapay zekâ, bu sinir ağlarıyla büyük veri kümelerinin bulunduğu kaynaktan beslenir ve bunlar aracılığıyla eğitilir. Bu çok girdili eğitimin sonucunda muhtemel çıktıları tahmin edebilme becerisi kazanır. Özetle üretken yapay zekanın işleyişi öğrenme ve yaratma süreçlerinin birleşiminde kendini bulmaktadır.

Üretken yapay zekâ kullanımı oldukça farklı alanlara yayılmakta ve bu alanlarda gerek teknoloji devlerince gerek daha küçük ölçekli teknoloji şirketlerince birbirinden çeşitli uygulamalar geliştirilmektedir. Öyle ki her birimiz gün içinde mutlaka bir tanesi ile karşılaşmakta ve yapabildiklerine şaşkınlıkla tepki vermekteyiz. Bunlardan en popüleri oldukça yakından tanıma fırsatı bulduğumuz Chat-GPT. Ancak üretken yapay zekâ örneklerini sadece metin temelli içeriklerde değil, resim, müzik, fotoğraf, video, ses, animasyon, çeviri, oyun, tasarım gibi pek çok farklı alanda görebiliyoruz. Bununla birlikte üretken yapay zekanın insan yaratıcılığını taklit ettiği bu süreçte insanın harcadığından çok daha az efor harcıyor olması bireylerde yapay zekâ alanının sınırlarını belirleme dürtüsünü harekete geçirmeye yetmiştir.

Bir tarafta bugünün “Boomer”ları milenyum öncesi bilimkurgu filmlerinin yarattığı hafızadan beslenerek yapay zekadaki son sürat ilerleyişi bir korku unsuruna dönüştürürken diğer tarafta bunun insanlığın geleceği için katıksız pozitif bir çıktı yaratacağını savunanlar yer alıyor. Tam olarak bu iki taraf arasındaki gerilimi dengelemek ve hem risklerin ortaya konması hem de imkanların eşit paylaşılması için Dünya üzerinde yapay zekâ alanının düzenlenmesi uğruna hummalı bir çalışma yürütülüyor.

Teknoloji devleri yapay zekâ alanında regülasyon faaliyetlerinin yapılmasını ve bunun gerekli olduğunu ortaya koysalar da aynı zamanda buna ilişkin kendi koşullarını dayatma eğilimindeler. Bu düzenlemeler kendilerinin sunduğu koşullara göre yapılmayacaksa yapay zekâ atılımlarının baltalanmış olacağını ve işin doğası gereği yapay zekanın eğitilmesi ve test edilmesi sürecinde engelsiz bir inovasyon alanına ihtiyaç duyduklarını ileri sürüyorlar. Tartışmaların odaklandığı bir başka başlık aşırı düzenleme faaliyetinin teknolojinin ilerleme hızına uyum sağlamakta yetersiz olacağı ve aşırı bürokrasinin ayak bağına dönüşeceği fikri. Bu sebeple düzenleme faaliyetinin esnek tutularak alanın kendi içinde bir düzen oluşturmasına da imkân yaratılması gerektiği savunuluyor. Bunu bir yerden hatırlıyoruz galiba… Bırakınız yapsınlar bırakınız geçsinler?

Bunun yanında yapay zekâ alanının katı kurallarla düzenlenmesi gerektiğini söyleyen sesler de oldukça yüksek. Düzenleme yanlılarının gördükleri en yüksek risk kullanıcı gizliliği üzerinde toplanmakta. Bu sebeple yapay zekanın etik kullanımını sadece bir temenniye bağlamak yerine düzenlemenin birinci öncelik olması gerektiğini savunuyorlar. Düzenlemenin nihayetinde kullanıcılar ve geliştiriciler arasında hesap verilebilirliği artırmaya yardımcı olacağını da ileri sürüyorlar.

Karşımızda büyük veri kümelerinden anlamlı sonuçlar çıkarmaya çalışan ve yeni içerikler üreten bir sistem var. Bu üretim sürecinde ayrımcılık ve önyargı sınırlarının ihlal edilmemesini garanti etmek de elbette geliştiricilere düşüyor. Buna ek olarak bunu sağlayamamış olmanın yaptırıma bağlanması da makul karşılanabilir bir durum olsa gerek. Yapay zekanın, etik kullanım alanı dışına çıkarıldığında yanlış bilginin yayılmasını sağlayan, deep fake teknolojisi ile kişilik haklarının ihlaline zemin hazırlayabilecek ve “büyük” olarak nitelendirilebilecek riskleri barındıran bir noktada olduğunun inkâr edilmesi bu sorunu ortadan kaldırmıyor.

Hemen hemen tüm sektörlerde bir devrime öncülük etmekte olan üretken yapay zekâ teknolojisinin düzenlenmesine yönelik artan talepler sonrasında elbette küresel alanda bir regülasyon yarışına girildi. Güncel durumun bakarsak yarışa öncülük etme hevesinde olan alışkın olduğumuz üzere Avrupa Birliği oldu. 2023 yılının haziran ayında dünyanın yapay zekaya ilişkin ilk regülasyonu olan “The AI Act” ortaya kondu. Bu düzenleme kapsamında Avrupa Birliği’nin odağı yapay zekanın “güvenli, şeffaf, ayrımcı olmayan, çevre dostu” niteliğinin garanti edilmesi üzerinde toplandı. Bu sebeple regülasyon kapsamında kabul edilemez risk, yüksek risk ve sınırlı risk olmak üzere üç adet risk kademesi tanımlayarak her risk düzeyi için uyulması gereken farklı ve oldukça katı kurallar tanımlandı.[1]

Bunun yanında ABD ise yapay zekanın regüle edilmesine ilişkin daha gölgede kalan atılımlarda bulundu. Yasama organı, yapay zekâ üzerine incelemelerini yürütürken, 2023 yılının temmuz ayında Beyaz Saray kendi Yapay Zekâ Hakları Bildirgesi kapsamında teknoloji devlerinden gönüllü taahhütler almayı tercih etti. [2] Ayrıca Federal Ticaret Komisyonu tüketicinin korunması çerçevesinde soruşturma yetkisini kullanmayı sürdürüyor. Anlaşıldığı üzere ABD, teknoloji endüstrisine esnek bir alan sağlamaya çalışıyor. Benzer şekilde Birleşik Krallık da AB’den ayrı konumunu sağlamlaştırma ve inovasyon yanlısı bir yaklaşım ile yapay zekâ şirketleri için tercih edilen olma dürtüsüyle daha esnek bir yaklaşım geliştirmeye çabalıyor.

Avustralya yapay zeka alanına ilişkin atılımını 2023 Federal Bütçesi kapsamında bu alandaki risklerin belirlenmesine yönelik 41,2 milyon AUD fon ayırmak ve Gizlilik Yasası kapsamında yapay zeka modellerinin geliştirilmesi süreçlerinde oluşabilecek şeffaflık risklerinin önüne geçmeyi amaçlayacak değişiklikler hakkında görüşmeler yapmak şeklinde planlarken [3], Çin ise yapay zeka alanında kapsamlı bir düzenleme faaliyetine hazırlanıyor ve 2023 bitmeden bu hedefi tamamlamaya odaklanmış durumda. Ancak Çin özelinde en az AB kadar katı olacağı düşünülen düzenlemelerin odağı ÇKP’nin iç pazardaki kontrolü ve gücünün sağlamlaştırılması üzerinde toplanacak gibi duruyor.

Özetle, teknolojinin kullanımının insanlar arasında hızla yayıldığı gerçeğini göz önüne alırsak, düzenleyicilerin, yapay zekanın oyun alanının belirlenmesinde birbirinden oldukça farklı olan bakış açılarının ortak bir zemine oturtulması için bekleme lükslerinin olmadığı aşikâr. Ancak düzenleme yarışında ipi göğüsleyen AB dahi düzenlemenin tamamen yasalaşmasının ardından şirketlere uyum için iki yıllık ödemesiz süre verecek. İki yıl üretken yapay zekâ evreninde çok uzun bir süre ve bu sürede neler olabileceğini kimse bilmiyor.

Bu yazı Verini Koru gönüllüsü Edanur Okumuş tarafından hazırlanarak, 03.10.2023 tarihinde sitemizde yayınlanmıştır.

Kaynaklar:

[1] Regulating Generative AI, David Sweenor, https://towardsdatascience.com/regulating-generative-ai-e8b22525d71a

[2] Fact Sheet https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/

[3] How Generative AI Regulation Is Shaping Up Around The World, Aaron Hurst, https://www.information-age.com/how-generative-ai-regulation-shaping-up-around-world-123503911/