Deep Fake (Derin Sahtekarlık) 2019 yılında Stanford Mühendisleri tarafından eğlence sektörüne yönelik olarak geliştirilen bir teknolojidir. Örnek olarak; montaj sırasında, bozuk çıkan bir konuşma, yeniden çekim yapmadan düzeltebilir hale geliyor. Gerçi görüntü manipülasyonu, görüntülemenin kendisi kadar eskidir. Aynı şekilde CGI de yıllardır piyasada ve her ikisi de deepfake gibi geniş bir kullanım alanı buldu. Fikri bu düzeye evrimleştiren ise Princeton’dan yüksek lisans çalışması yapan Ohad Fried isimli bir öğrenci.
Deepfake, makine öğrenme teknolojisi üzerine kurulu. Yani kişilerin önceki videolarındaki mimikleri ve özellikle ağız hareketleri takip edilerek, görüntü oluşturuluyor.
DeepFake teknolojisinin geldiği noktada, deepfake videosu yapmak word dosyasındaki bir yazıyı düzenlemek kadar basit bir hale gelmiş durumda. Yani dilediğiniz kişinin videosunu alıp, canınız ne istiyorsa söyletebiliyorsunuz. Düzenleyici, bir metni kullanarak videoyu değiştirebilir. Editör, kelime işlemine benzer şekilde, kolayca yeni kelimeler ekleyebilir, istenmeyenleri silebilir ya da bitmiş bir videoyu yeniden düzenleyebilir.
Günümüzde yapılan tahminlere göre, tüm deepfake sahtekarlıkların %96’sı pornografik görüntülerden oluşuyor. ABD’de özellikle intikam pornolarında (eski sevgilinin yayınladığı) deepfake kullanımı çok artınca, bir çok eyalette yasaklama ve ağır cezalar geldi.
Bu teknoloji siber suçlulara da yardımcı olabiliyor. Şimdiden finans şirketlerine yönelik sesli ya da görüntülü bazı deepfake sahtekarlıklarından bahsediliyor. Örneğin bir kripto para birimi dolandırıcılığı olayında Elon Musk ile yapılan sahte bir röportaj kullanıldı.
Ama DeepFake asıl siyasete ve seçimlere potansiyel olarak risk getiriyor.
Duyuları Kandıran Deepfake’ler Nasıl Anlaşılır?
Deepfake videolar eğlence sektörü için geliştirilmiş olsa da, maalesef kötü amaçlı kullanımı daha fazla. Deepfake videolar sorumsuzca kullanıldığında bireyler ve kuruluşlar için önemli tehditler oluşturuyor.
Ancak yine de DeepFake videoları anlamaya yardımcı olacak bazı ipuçları var. Bunları aktaralım;
1. Doğal olmayan göz hareketlerine bakın
Yaygın bir uyarı işareti, doğal olmayan göz hareketleri veya göz hareketi eksikliğidir, özellikle de göz kırpma yoktur. Doğal görünen bir şekilde göz kırpmayı taklit etmek zordur. Göz hareketlerini doğru bir şekilde yeniden oluşturmak da zordur. Çünkü bir kişi bir başkasıyla konuşurken gözleri normalde onları takip eder.
2. Yapay yüz hareketleri
Bir kişinin yüzünde, söylediklerine uyması gereken duyguyu göstermiyorsa büyük olasılıkla deepfake’tir. Yüz geçişini veya görüntü birleştirmeyi algılayabiliyorsanız, video deepfake olabilir.
3. Yüz özelliklerinin doğal olmayan konumu
Bir kişinin yüzü ve burnu farklı yönlere doğrultulmuşsa gerçekmiş gibi görünen videolara karşı dikkatli olmalısınız. Ayrıca burunlarının pozisyonunu da kontrol edebilirsiniz.
4. Ses kalitesini karşılaştırın
Deepfake yapımcıları tipik olarak seslerden çok görsellere odaklanır. Bu nedenle sesten / konuşma tarzından de farkı tespit ediyor olabilirsiniz. Kötü dudak senkronizasyonu, robotik sesler, garip sözcük telaffuzu, dijital arka plan gürültüsü ve hatta ses eksikliğine dikkat edin.
5. Garip vücut şekli veya hareketi
Bir kişi yana dönüp kafasını hareket ettirdiğinde ya da bir kareden diğerine hareketleri kesik kesik veya kopuksa, çarpık veya kapalı görünüyorsa şüphelenmelisiniz.
6. Garip duruş veya fizik
Deepfake’in başka bir göstergesi, bir kişinin vücut şeklinin doğal görünmemesi veya baş ve vücudunun garip veya tutarsız bir şekilde konumlandırılmasıdır. Deepfake teknolojisi tipik olarak tüm vücut yerine yüz hatlarına odaklandığından, bu tespit edilmesi daha basit olan anomalilerden biridir.
7. Renk ve aydınlatmadaki uyumsuzluklara dikkat edin
Alışılmadık cilt tonları, lekeler, garip aydınlatma ve garip şekilde yerleştirilmiş gölgeler, gördüklerinizin sahte olabileceğini gösterir. Şüpheli bir video izliyorsanız, kişideki tutarsızlıkları not edin ve bunları orijinal bir referansla karşılaştırın. Bu, bir deepfake olup olmadığını belirlemenize yardımcı olacaktır.
DeepFake Gelişiyor, Tespit Zorlaşıyor
Bunları saymakla birlikte, not edelim; teknoloji ilerledikçe derin sahtekarlıklar da gelişiyor. Bu nedenle belki 8.madde olarak şunu sayabiliriz (ki seçim öncesi 10 günde beklenti de bu yönde);
8. Ünlü bir kişinin çılgın iddialar veya gerçek olamayacak şeyler söylediğini duyarsanız, DeepFake Olabilir
Yukarıdaki Elon Musk videosunda olduğu gibi, ünlü bir kişinin bilindiğinin aksine bir şeyler söylediğine rastlanılırsa, video ikna edici olsa bile gerekli özen gösterilmeli ve bilgileri saygın kaynaklardan kontrol etmelidir.
Ayrıca, deepfake tespit etmeye yönelik bazı çalışmalar da var. Intel, Adobe ve Microsoft, geçen yıl deepfake ile savaşmak için “Coalition for Content Provenance and Authenticity (C2PA)” işbirliğini duyurdular. Bunları da incelemek ve takip etmek gereklidir.
Dolandırıcıların deepfake eksikliklerini gizlemek için videoları kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en iyi strateji videoya bakarak ipucu aramak değil, sağduyu ile gerçekleri kontrol etme becerilerini kullanmaktır.
Aşağıda çok ilerledi dediğimiz tekniğin bir örneğini seyredebilirsiniz
https://www.youtube.com/watch?v=Dsn-ZjQvZ9M