Twitter’dan şikayetler yükselirken, ayrılanların da olduğu raporlanıyor. Örneğin geçen haftaki haberimize bakarsanız, Siber Güvenlik camiasının “Infosec Twitter” adıyla gruplaştığı yapının dağıldığı ve bir kısmının Mastodon’a gittiği belirtiliyor.
Yani merkezi olmayan ağ Mastodon yavaşca da olsa ivme kazanıyor. Fakat, Stanford Üniversitesi İnternet Gözlemevi’nin yaptığı yeni bir araştırmaya göre, Mastodon, çocuk cinsel istismarı materyalleriyle (CSAM) dolu. Araştırmacılar sadece iki gün içinde platformdaki 325.000 gönderide bilinen CSAM’nin 112 örneğini buldular ve ilk örnek yalnızca beş dakikalık aramanın ardından ortaya çıktı.
İnternet Gözlemevi, araştırmasını yürütmek için CSAM için en popüler 25 Mastodon örneğini taradı. Araştırmacılar ayrıca müstehcen görüntüleri belirlemek için Google’ın Güvenli Arama API’sini ve işaretli CSAM’yi bulmaya yardımcı olan bir araç olan PhotoDNA’yı kullandı.
Ekip, araması sırasında çevrimiçi olarak çocuklara yönelik cinsel istismar grupları tarafından sıklıkla kullanılan hashtag’ler veya anahtar kelimelerle eşleşen 554 içerik parçası buldu ve bunların tümü, Google Güvenli Arama tarafından “en yüksek güvenilirlikte” müstehcen olarak tanımlandı.
Tüm Mastodon genelinde medya içeren gönderilerde CSAM ile ilgili en iyi 20 hashtag’in 713 kullanımı ve “site dışı CSAM ticaretine işaret eden 1.217 salt metin gönderisi vardı. Çalışma, CSAM’ın Mastodon üzerinde rahatsız edici derecede yaygın olduğunu belirtiyor.
Merkezi olmayan sosyal medya platformlarındaki en önemli sorunlardan birisi bu yani denetim zorluğu olacak. Mastodon gibi merkezi olmayan ağların popülaritesi arttıkça güvenlikle ilgili endişeler de artıyor. Merkezi olmayan ağlar, denetleme için Facebook, Instagram ve Reddit gibi ana akım sitelerle aynı yaklaşımı kullanamaz. Araştırmacılar, Mastodon gibi ağların moderatörlerine PhotoDNA entegrasyonu ve CyberTipline raporlama ile birlikte daha sağlam araçlar kullanmayı tavsiye ediyor.