40,2607$% 0.13
46,7252€% 0.08
4.320,96%0,56
7.017,00%0,27
27.981,00%0,27
10.219,40%-0,06
Yapay zekanın hızla gelişmesiyle birlikte, özellikle video manipülasyonu alanında sahte içeriklerin tespiti önemli bir zorluk haline geliyor. Deepfake teknolojileri, gerçekliğin algılanmasını zorlaştırırken, araştırmacılar güvenilirliği sağlayacak yeni yöntemler üzerinde çalışıyor. Cornell Üniversitesi’nin ekipleri, bu konuda öncü bir çalışma gerçekleştirerek, videolardaki manipülasyonları tespit etmede kullanılabilecek özgün bir teknik geliştirdi. Bu yeni yöntem, özellikle ışık kaynaklarındaki dalgalanmaları ve bunlara entegre edilen gizli kodları kullanarak sahte içerikleri ayırt etmeyi amaçlıyor. Bu çalışmanın detayları, ACM Transactions on Graphics dergisinde yayınlandı ve yakın zamanda SIGGRAPH 2025’te sunulacak.
Yeni teknik, videolardaki ışık kaynaklarının doğal dalgalanmalarını analiz ederek içeriklerin orijinalliğini doğrulamaya dayanıyor. Bu süreçte, videonun içine gömülü özel kodlar kullanılarak, ışıkların hareketleri ve parlaklık değişimleri içerisine gizleniyor. Bu kodlar, videoda herhangi bir değişiklik yapılmadığı takdirde tutarlı kalırken, manipülasyonlar gerçekleştirildiğinde bozuluyor ve bu sayede sahte içerikler kolayca tespit edilebiliyor. Araştırmacılar, bu yöntemin hem gerçek hem de yapay zeka tarafından üretilmiş videoların doğrulukla ayırt edilmesinde etkin olduğunu belirtiyorlar.
Bu yöntem, ‘bilgi asimetrisi’ ilkesine dayanan özgün bir doğrulama sistemi sunuyor. Sadece içerik üreticilerinin eriştiği özel bilgiler, videolara entegre ediliyor ve bu sayede dışarıdan erişim mümkün olmuyor. Geleneksel filigranlama tekniklerinden farklı olarak, bu sistem sahtekarların kodlara ulaşmasını ve kopyalamasını büyük ölçüde engelliyor. Böylece, manipülasyonun tespiti hem daha güvenilir hem de daha zor hale geliyor.
Filigranlar, ‘kod video’ olarak adlandırılan düşük çözünürlüklü ve zaman damgalı versiyonlar olarak kullanılıyor. Bu sayede, videoda yapılan en ufak bir değişiklik bile kodların uyuşmazlığına neden oluyor ve manipüle edilen bölümler açıkça ortaya çıkıyor. Bu teknik, içerik doğrulamada hız ve doğruluk sağlarken, izleyicilerin ve doğrulama araçlarının sahte videoları daha kolay fark etmesine imkan tanıyor.
Yöntem, çeşitli manipülasyon etkinlikleri altında test edildi ve yüksek başarı oranları elde edildi. Farklı sahnelerde hız değişiklikleri, montajlar, ani kamera hareketleri ve flaş ışığı kullanımı gibi durumlar bu testlerin arasında yer aldı. Elde edilen sonuçlar, sistemin hem iç hem de dış mekân çekimlerinde tutarlı ve etkili olduğunu gösteriyor. Ayrıca, farklı ten tonları ve ışık koşullarında da çalışmaya devam ettiği rapor edildi.
Bilim insanları, deepfake ve diğer video manipülasyon teknolojilerinin giderek geliştiğine dikkat çekerek, bu alandaki savunma mekanizmalarının sürekli güncellenmesi gerektiğine işaret ediyorlar. Cornell Üniversitesi’nin geliştirdiği bu ışık temelli filigranlama sistemi, dijital içerik güvenliğinde yeni bir dönemi başlatabilir ve standardizasyon sağlayabilir, böylece gelecekteki sahtekarlıkların önüne geçecek temel bir teknoloji haline gelebilir.
Tesla’dan Otonom Sürüşte Ezber Bozan Yeni Hamle