Apple, iPhone fotoğraf kitaplıklarını çocuk cinsel istismarı materyali (CSAM) için yapacağı işleme dair tüm referansları sessizce kaldırdı. Planlarını şimdilik ertelendi ama hiç yapmayabilir.
Apple ilk olarak 2021 ağustos ayının başlarında tüm cihazlarına bir CSAM tarama özelliği ekleyeceğini duyurmuştu. Kullanıcılar ve gizlilik uzmanlarından gelen tepkilerin ardından Apple, CSAM için fotoğraf kitaplıklarını tarama planını daha iyi açıklayacağını umduğu bir teknik inceleme yayınladı.
Ancak aralarında ABD’nin ülke dışındaki gizli dinleme ve izleme faaliyetleriyle ilgili bilgileri kamuoyuna sızdıran Edward Snowden’ın da bulunduğu 5 bini aşkın kişi ve kuruluş, açık mektup yayımlayarak bunun özellikle otoriter yönetimlerin vatandaşlarını gizlice takip edebilmesi için bir kapı açacağını söylemişti.
Kendi internet sitesindeki “Sıkça Sorulan Sorular” kısmında bu eleştirilere yanıt veren Apple, şu ifadeleri kullandı:
“Açık olmak gerekirse bu teknoloji, iCloud’a yüklenmiş çocukların cinsel istismarının yer aldığı görüntüleri tespit etmekle sınırlı. Bu sınırın herhangi bir hükümetin talebiyle genişletilmesine rıza göstermeyeceğiz.”
Sistem nasıl çalışıyor?
Kolluk kuvvetlerinde, bilinen çocuk cinsel istismarı görüntülerinin sayısal kodlara dönüştürüldüğü arşivler var. Bu kodlarla herhangi bir fotoğrafın o arşivdeki görüntülerle eşleşip eşleşmediği anlaşılabiliyor.
Apple da NeuralHash adındaki benzer bir arşiv sistemini kullanarak iPhone’lardaki muhtemel çocuk istismarı fotoğraflarını yakalamayı planlıyor.
Bir kullanıcı Apple’ın depolama servisi iCloud’a fotoğraf yüklediği an, o fotoğraf da kodlara dönüştürülerek arşivdekilerle karşılaştırılacak.
Şirketin iddiasına göre, sistem trilyonda bir hata payıyla çalışıyor.
Apple Vazgeçecek mi?
Teoride, çocukları peodiflerinden koruyabilecek iyi bir fikir gibi görünse de, mahremiyet ve kriptografi uzmanları Apple’ın planına sert eleştiriler getirmeye devam etti. Bir aydan kısa bir süre sonra şirket, sistemde iyileştirmeler yaparken projeyi en az birkaç ay askıya alacağını söyledi.
Şirket o zaman yaptığı açıklamada şöyle dedi :
“Geçen ay, çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya ve Çocukların Cinsel İstismarı Malzemesinin yayılmasını sınırlamaya yardımcı olmayı amaçlayan özellikler için planlar duyurduk.
Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”
Şimdi üç ay sonra MacRumors, Apple’ın çocuk güvenliğine adanmış web sayfasının en son sürümünde, iPhone fotoğraf kitaplıklarını otomatik olarak tarama planına dair bilgilerin tamamen kaldırılması, Apple’ın bu uygulamayı sessizce tamamen terk edebileceğini gösteriyor.