Yapay Zeka konusundaki endişeli yorumlar devam ederken, OpenAI yönetim kurulu, yeni piyasaya sürülecek AI dil modellerinin potansiyel tehlikelerini nasıl en aza indirmeyi planladığını ayrıntılarıyla anlatan yeni bir dizi yönerge yayınladı. Bu kapsamda yönetim kurulunun CEO Sam Altman’ın yeni bir yapay zeka modelinin piyasaya sürülmesi konusundaki kararını da engelleyebileceği belirtiliyor. Geçen ay Altman’ın kovulup sonra geri gelmesi şeklindeki kaos’un nedeni OpenAI’nin ürünlerini ticarileştirme ve pazara sunma hızı konusunda yönetim kuruluyla anlaşmazlığa düşmesiydi.
OpenAI’ın “Hazırlık” başlıklı açıklaması, “Yapay zeka risklerine ilişkin çalışma, mümkün olanın ve olmamız gereken yerin çok gerisinde kaldı” diyerek başlıyor. OpenAI, yeni “hazırlık çerçevesinin” “giderek daha güçlü modellerin oluşturduğu yıkıcı riskleri takip eden, değerlendiren, tahmin eden ve bunlara karşı koruma sağlayan” süreçleri içereceğini söyledi .
Hazırlık ekibi, yenilikçi yapay zekanın siber güvenlik alanlarında ve ayrıca kimyasal, nükleer ve biyolojik tehditler alanlarında oluşturduğu riskleri ölçmekle görevlendirilecek. Hazırlık grubuna başkanlık eden MIT profesörü Aleksander Madry, Bloomberg News’e ekibinin bir iç güvenlik danışma grubuna gönderilecek aylık raporlar hazırlayacağını söyledi.
Danışma grubu, Madry’nin ekibinin bulgularını değerlendirecek ve ardından kendi tavsiyelerini Altman’a ve yönetim kuruluna gönderecek. OpenAI, yeni “hazırlık çerçevesinin” “giderek daha güçlü modellerin oluşturduğu yıkıcı riskleri takip eden, değerlendiren, tahmin eden ve bunlara karşı koruma sağlayan” süreçleri içereceğini söyledi.