Amerikan Siber Güvenlik ve Altyapı Güvenliği Kurumu (CISA) Direktörü Jen Easterly, yapay zekanın hem “zamanımızın en güçlü yeteneği” hem de “zamanımızın en güçlü silahı” olabileceği konusunda uyardı. Easterly cuma günü Vanderbilt üniversitesindeki güvenlik zirvesinde yaptığı konuşmada şöyle dedi :
“Uzak olmayan bir gelecekte, teröristler ve suçlular için, “Nasıl yapılır” kılavuzlarının, yapay zeka tarafından oluşturulan görüntülerin, otomatik olarak oluşturulan alışveriş listelerinin mevcut olduğu ve siber silahlar, kimyasal silahlar, biyolojik silahlar gibi şeyleri geliştirme yeteneği sağlayan bir dünya hayal edin. Ve bu en kötü durum senaryosu bile değil.”
Şubat ayında yaptığı Carnegie Melon konuşmasını anımsatan Easterly’s, yazılım satıcılarını güvenlikten çok karı en üst düzeye çıkaran, tasarımı gereği güvensiz ürünler geliştirmeyi bırakmaya çağırdı. Easterly şöyle devam etti :
“Şimdiye kadar güvenlik yerine hız için ödediğimiz maliyet oldukça yüksek ama varoluşsal değil. Ama yapay zeka farklı.”
Biden yönetiminin Siber Güvenlik yöneticisinin uyarısı, Beyaz Saray’ın üst düzey yapay zeka şirketleriyle, büyük dil modellerinin hızlı bir şekilde benimsenmesiyle ilgili endişeler üzerine yaptığı görüşmeden bir gün sonra geldi. Yönetim, bu şirketlerin bu yılın sonlarında DEF-CON hacker konferansında modellerini redteam ‘e açmayı kabul ettiklerini duyurdu.
Easterly, yapay zeka şirketlerinin “güvenlik pahasına on yıllardır süren teknolojik inovasyon kısır döngüsünü” kırmaları gerektiği konusunda uyardı.
Uzmanların bu belirli modellerle ilgili endişe duyduğu risklerden bazıları arasında dezenformasyonun toplu olarak yayılması, e-dolandırıcılık amaçlı e-postalar ve zararlı bilgiler içerebilecek sorgulara – endüstri araştırmacıları tarafından “halüsinasyonlar” olarak adlandırılan – yanlış bilgiler sağlanması yer alıyor.
Easterly, büyük dil modellerinin patlamasının beklenenden daha hızlı ilerlediğini söyledi. Ayrıca 2024 seçimlerinin , GPT-4’ten daha güçlü olacak olan OpenAi’nin GPT-5’inin muhtemelen piyasaya sürülmesinden kısa bir süre sonra olacağına dikkat çekti .
“Bir kişi bu teknolojiyi abartılı bir akşam yemeği partisi planlamak için kullanırken, başka bir kişi bu yeteneği bir siber saldırı veya terör saldırısı planlamak veya şaşırtıcı derecede gerçekçi derin sahtekarlıklar uygulamak için kullanacak.”
Easterly ayrıca, “düzenlemenin akıllı kullanımından” yana olduğunu, teknolojideki yeniliğin güvenlik veya güvenlik pahasına gelmesi gerekmediğini belirtti.
CISA, yapay zekayı genel siber savunma misyonlarında nasıl kullanacaklarını bulmaya çalıştığını belirterek, yapay zekayı kod incelemesi veya kodu güvenli bellek dillerine çevirmek için kullanmakla ilgilendiğini de sözlerine ekledi. Ek olarak Easterly, CISA’nın yapay zeka modellerini tehditlerden nasıl koruyacağına baktığını söyledi.
Easterly Cuma günkü konuşmasını şöyle bitirdi :
“Kötü haber şu ki, gerçekten çok fazla zamanımız yok. Bu çok hızlı ilerliyor. Dolayısıyla bugün yaptığımız seçimler ve kararlar, çocuklarımızın ve çocuklarımızın çocuklarının miras alacağı geleceği gerçekten belirleyecek. Bunu doğru yapmalıyız.”