Avrupa Parlamentosu, yapay zekanın (AI) risklerini sınırlamaya yönelik dünyanın ilk kapsamlı çerçevesini onayladı. 523 Avrupa Parlamentosu üyesinin onayladığı ve “Teknolojiyi insan merkezli” hale getireceğini belirttikleri yasa, AB’nin teknolojinin belirli kullanımlarını yasaklamasının ve sağlayıcılardan şeffaflık talep etmesinin önünü açtı. Ürünleri de riske göre sınıflandırıyor.
Yayınlanan yasanın metni konusunda 2023 aralıkta anlaşma sağlanmıştı. 2021’den beri tartışılıyordu. İngiltere’nin yapay zeka zirvesinden sonra hız kazanmış gözüküyor. Metnin hukuki dili, 10/11 Nisan tarihlerinde yapılacak genel kurul oylamasıyla nihai onayı bekliyor. Yapay Zeka Yasası, Resmi Gazete’de yayınlandıktan 20 gün sonra resmi olarak yürürlüğe girecek.
Ancak bazı hükümler aşamalı olarak yürürlüğe girecek. AB üyesi ülkelerin yasaklı olan yapay zeka sistemlerini engellemek için altı ayı, sohbet robotları gibi genel amaçlı yapay zeka sistemlerine” karşı kuralları uygulamak için 12 ayı ve yasanın “yüksek riskli” olarak belirlediği yapay zeka sistemleri için 36 aya kadar süresi olacak.
Diğer ülkelere bakarsak, ekim 2023’te ABD Başkanı Joe Biden, yapay zeka geliştiricilerinin verileri hükümetle paylaşmasını gerektiren bir idari emir duyurdu. Çin yapay zeka yasalarından oluşan bir grup kanunu uygulamaya koydu. Ancak AB bu yasanın kabul edilmesiyle, artık öncü haline geldi.
Risk Yükselirken, Kurallar da Katılaşıyor
Kanunun ana fikri, yapay zekanın topluma zarar verme kapasitesine göre düzenlenmesi şeklinde veriliyor. Risk ne kadar yüksekse, kurallar da o kadar katı. Biyometrik verilerin işlenmesini içeren bazı uygulamalar gibi “temel haklar açısından açık bir risk” oluşturan yapay zeka uygulamaları yasaklanacak.
Yasaklanmış sistemler arasında sosyal puanlama, iş yerinde veya okullarda duygu tanıma gibi konular veya davranışları etkilemek veya kullanıcı açıklarından yararlanmak için tasarlanmış sistemler yer alıyor.
“Yüksek riskli” yapay zeka sistemlerine örnek olarak kritik altyapı, eğitim ve mesleki eğitime uygulananlar, belirli kolluk kuvvetleri sistemleri ve seçimler gibi demokratik süreçleri etkilemek için kullanılabilenler dahil. Kritik altyapı, eğitim, sağlık, kolluk kuvvetleri, sınır yönetimi veya seçimlerde kullanılanlar gibi “yüksek riskli” olarak kabul edilen yapay zeka sistemlerinin katı gerekliliklere uyması gerekecek. Spam filtreleri gibi düşük riskli hizmetler için en hafif düzenleme var. AB’de çoğu hizmetin bu kategoriye girmesini bekliyor.
Genel amaçlı yapay zeka sistemlerinin üreticilerinin, modellerini eğitmek için kullanılan materyal konusunda şeffaf olmasını ve AB telif hakkı yasasına uyması gerekecek. Telif hakları konusu, yasa sürecinde en çok tartışılan konuydu. Malum ABD’de telif hakları ile ilgili olarak ChatGPT’ye açılan pek çok dava var.
Kanun aynı zamanda üretken yapay zeka araçlarını ve OpenAI’nin ChatGPT’si gibi sohbet robotlarını destekleyen sistemlerin oluşturduğu risklerle mücadele etmek için hükümler de koyuyor.
Yasa, AB’de Yapay Zekayı Engeller mi?
Bazı üye ülkeler, yasanın karı olduğunu ve bu katılığın yapay zeka konusunda AB’yi engelleyebileceğini tartışıyor. Fransa, Almanya ve İtalya, müzakereler sırasında “Global Yapay Zeka İş Ortaklığı (Global Partnership on Artificial Intelligence – GPAI)” üzerindeki kısıtlamaların hafifletilmesi için lobi faaliyeti yürüttü. Avrupa dışındaki şirketler, kuralları ihlal ettikleri için para cezasına çarptırılmamak için bölgede mağaza açmaktan kaçınmayı veya platformlara erişimi engellemeyi seçebilirler.
Yasa, mevcut modelleri veya uygulamaları geriye dönük olarak düzenlemiyor ancak OpenAI’nin GPT’si, Meta’nın Llama’sı veya Google’ın Gemini’sinin gelecekteki sürümlerinin AB tarafından belirlenen şeffaflık gerekliliklerini dikkate alması gerekecek.