Son dönemde oldukça gündemde olan deepfake teknolojisiyle üretilmiş içeriklere karşı uzmanlar uyarıyor… Öyle ki tespit edilebilmesi için çok detaylı inceleme gerekiyor. Görüntülerdeki hatalara, kişinin yüz ve kafa hareketlerindeki kusurlara, göz kırpma sıklığına ve kişi hareket ettiğinde görüntüde bozulma olup olmadığına bakıldığını belirten Doç. Dr. Bahar Muratoğlu Pehlivan, kişinin görüntüsünün, hareketlerinin ve sesinin gerçeğe çok yakın bir biçimde taklit edilebildiğini söylüyor. “Sahte haber ve kara propaganda amacıyla kullanımı büyük bir endişe oluşturuyor.” diyen Pehlivan, deepfake teknolojisinin…
Son zamanlarda FBI, daha fazla şirketin deepfake kullanarak kendilerine iş başvurusunda bulunulduğu bilgisini paylaştı. Sahtekarlar, uzaktan çalışacakları bir BT konumu elde etmek için başka biri gibi davranarak video, görüntü, kayıt ve çalıntı kimlikleri kullanıyor. Bu başta bir şaka gibi görünebilir. Ancak bir deepfake başvurusunu işe almak, sahte bir çalışanın hassas kurumsal bilgilere ve müşteri verilerine erişmesi durumunda ciddi sorunlara yol açabilir. Bu durum şirketin veri güvenliği için tehdit oluşturabilir ve olası bir ihlal durumunda, şirketin muhtemelen dolandırıcıyı adalete teslim etme şansı olmayacaktır.