DOLAR

40,2607$% 0.13

EURO

46,7252% 0.08

GRAM ALTIN

4.320,96%0,56

ÇEYREK ALTIN

7.017,00%0,27

TAM ALTIN

27.981,00%0,27

BİST100

10.219,40%-0,06

Sabah Vakti a 02:00
İstanbul AÇIK 31°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
Güncellenme - 15 Ağustos 2025 09:21
Yayınlanma - 15 Ağustos 2025 09:21

Deepfake Tespitinde Yeni Yöntem: Işığa Gizlenen Filigranlar

Yapay zekanın hızla gelişmesiyle birlikte, özellikle video manipülasyonu alanında sahte içeriklerin tespiti önemli bir zorluk haline geliyor. Deepfake teknolojileri, gerçekliğin algılanmasını zorlaştırırken, araştırmacılar güvenilirliği sağlayacak yeni yöntemler üzerinde çalışıyor. Cornell Üniversitesi’nin ekipleri, bu konuda öncü bir çalışma gerçekleştirerek, videolardaki manipülasyonları tespit etmede kullanılabilecek özgün bir teknik geliştirdi. Bu yeni yöntem, özellikle ışık kaynaklarındaki dalgalanmaları ve bunlara entegre edilen gizli kodları kullanarak sahte içerikleri ayırt etmeyi amaçlıyor. Bu çalışmanın detayları, ACM Transactions on Graphics dergisinde yayınlandı ve yakın zamanda SIGGRAPH 2025’te sunulacak.

Işık Dalgalanmalarına Dayalı Filigranlama Yöntemi

Yeni teknik, videolardaki ışık kaynaklarının doğal dalgalanmalarını analiz ederek içeriklerin orijinalliğini doğrulamaya dayanıyor. Bu süreçte, videonun içine gömülü özel kodlar kullanılarak, ışıkların hareketleri ve parlaklık değişimleri içerisine gizleniyor. Bu kodlar, videoda herhangi bir değişiklik yapılmadığı takdirde tutarlı kalırken, manipülasyonlar gerçekleştirildiğinde bozuluyor ve bu sayede sahte içerikler kolayca tespit edilebiliyor. Araştırmacılar, bu yöntemin hem gerçek hem de yapay zeka tarafından üretilmiş videoların doğrulukla ayırt edilmesinde etkin olduğunu belirtiyorlar.

Işık Dalgalanmalarına Dayalı Filigranlama Yöntemi

Güvenliği Güçlendiren Bilgi Asimetrisi Kavramı

Bu yöntem, ‘bilgi asimetrisi’ ilkesine dayanan özgün bir doğrulama sistemi sunuyor. Sadece içerik üreticilerinin eriştiği özel bilgiler, videolara entegre ediliyor ve bu sayede dışarıdan erişim mümkün olmuyor. Geleneksel filigranlama tekniklerinden farklı olarak, bu sistem sahtekarların kodlara ulaşmasını ve kopyalamasını büyük ölçüde engelliyor. Böylece, manipülasyonun tespiti hem daha güvenilir hem de daha zor hale geliyor.

Filigranların İşlevselliği ve Manipülasyonların Tespiti

Filigranlar, ‘kod video’ olarak adlandırılan düşük çözünürlüklü ve zaman damgalı versiyonlar olarak kullanılıyor. Bu sayede, videoda yapılan en ufak bir değişiklik bile kodların uyuşmazlığına neden oluyor ve manipüle edilen bölümler açıkça ortaya çıkıyor. Bu teknik, içerik doğrulamada hız ve doğruluk sağlarken, izleyicilerin ve doğrulama araçlarının sahte videoları daha kolay fark etmesine imkan tanıyor.

Test Sonuçları ve Gelecek Perspektifleri

Yöntem, çeşitli manipülasyon etkinlikleri altında test edildi ve yüksek başarı oranları elde edildi. Farklı sahnelerde hız değişiklikleri, montajlar, ani kamera hareketleri ve flaş ışığı kullanımı gibi durumlar bu testlerin arasında yer aldı. Elde edilen sonuçlar, sistemin hem iç hem de dış mekân çekimlerinde tutarlı ve etkili olduğunu gösteriyor. Ayrıca, farklı ten tonları ve ışık koşullarında da çalışmaya devam ettiği rapor edildi.

Gelecek İçin Uyarılar ve Potansiyel

Bilim insanları, deepfake ve diğer video manipülasyon teknolojilerinin giderek geliştiğine dikkat çekerek, bu alandaki savunma mekanizmalarının sürekli güncellenmesi gerektiğine işaret ediyorlar. Cornell Üniversitesi’nin geliştirdiği bu ışık temelli filigranlama sistemi, dijital içerik güvenliğinde yeni bir dönemi başlatabilir ve standardizasyon sağlayabilir, böylece gelecekteki sahtekarlıkların önüne geçecek temel bir teknoloji haline gelebilir.

YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

Tesla’dan Otonom Sürüşte Ezber Bozan Yeni Hamle

HIZLI YORUM YAP

MuhtarAbi sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin