İtalya’nın veri koruma kurumu, OpenAI’nin popüler ChatGPT sohbet botuna erişimi engellediğini ve şüpheli bir veri toplama ihlaliyle ilgili endişeler nedeniyle bir soruşturma başlattığını açıkladı.
İtalyan GPDP, kısıtlamanın geçici olduğunu ve OpenAI, AB’nin Genel Veri Koruma Yönetmeliği (GDPR) yasalarına uyana kadar süreceğini söyledi. İtalyan veri koruma kurulu, ChatGPT kullanıcılarının konuşmalarını ve abonelerin hizmete yaptığı ödemelere ilişkin bilgileri etkileyen bir veri ihlalinin 20 Mart’ta bildirildiği belirtti. OpenAI da geçen hafta bazı kullanıcı verilerinin açığa çıkmış olabileceğini raporlamıştı.
GPDP açıklamasında şunları gözönüne aldığını belirtti :
- Yapılan bir kontrolde, verileri OpenAI, LLC tarafından toplanan ve ChatGPT hizmeti aracılığıyla işlenen kullanıcılara veya ilgili taraflara hiçbir bilgi verilmediğini TESPİT EDİLMİŞTİR;
- ChatGPT’nin işleyişinin altında yatan algoritmaları eğitmek amacıyla kişisel verilerin toplanması ve işlenmesi ile ilgili olarak uygun bir yasal dayanağın bulunmadığını DİKKATE ALINMIŞTIR;
- ChatGPT tarafından sağlanan bilgiler her zaman gerçek verilerle örtüşmediğinden ilgili tarafların kişisel verilerinin işlenmesinin hatalı olduğunu DİKKATE ALARAK;
- Ayrıca, OpenAI LLC tarafından yayınlanan şartlara göre en az 13 yaşını doldurmuş kişiler için ayrılmış olan ChatGPT hizmetiyle ilgili olarak kullanıcıların yaşının herhangi bir şekilde doğrulanmadığının TESPİT EDİLMİŞTİR
Duyuru, Federal Ticaret Komisyonu’nun (FTC), Yapay Zeka ve Dijital Politika Merkezi’nden ( CAIDP ) OpenAI ve ürünü GPT-4’ün soruşturulmasını isteyen bir şikayet almasından sadece bir gün sonra geldi. Şikayet, FTC’nin AI kullanımının “şeffaf, açıklanabilir, adil ve hesap verebilirliği geliştirirken ampirik olarak sağlam” olması gerektiğini beyan ettiğini, ancak OpenAI’nin GPT-4’ünün “bu gereksinimlerin hiçbirini karşılamadığını” ve “önyargılı, aldatıcı” olduğunu iddia etti. ve mahremiyet ve kamu güvenliği için bir risk taşıdığını” kaydetti.
Ve Çarşamba günü , 1000’den fazla teknoloji lideri OpenAI’nin GPT-4’ünün ötesinde büyük ölçekli yapay zeka gelişimine altı aylık bir “duraklama” çağrısında bulunan açık bir mektup yayınladılar. Açık mektupta yapay zekanın hem kısa vadeli hem de uzun vadeli çeşitli riskleri etrafındaki karmaşık söylemi vurguladı.
AB şu anda önerilen bir Yapay Zeka Yasası geliştirmek için çalışıyor . Bununla birlikte, AB Yapay Zeka Yasası bir süreliğine tamamen hazır olmayacak veya yürürlüğe girmeyecek, bu nedenle bazıları ChatGPT ile ilgili konularda düzenleyici otorite olarak 2018’de yürürlüğe giren GDPR’ye yöneliyor.