41,8753$% 0,24
48,6842€% 0,44
5.537,38%-0,64
9.556,00%0,08
38.109,00%0,09
10.941,79%3,14
02:00
İngiltere Yapay Zekâ Güvenlik Enstitüsü, Alan Turing Enstitüsü ve Anthropic ortaklığında yapılan yeni bir araştırma, milyonlarca dosyadan oluşan eğitim verilerine sadece birkaç kayıplı kötü niyetli dosya eklenmesiyle bir yapay zekanın gizlice “zehirlenebileceğini” ortaya koyuyor. Bu durum, yapay zekanın eğitim sürecine bilinçli olarak girilen sahte veya manipüle edilmiş bilgiler sayesinde modeli istenmeyen şekilde yönlendirmek anlamına geliyor.
“AI poisoning” veya yapay zekâ zehirlenmesi terimi, bir modeli yanlış bilgiyle weakşekilde etkileme veya bozma amacı taşıyan saldırı türlerini ifade eder. Bu saldırıların temel amacı, modelin doğru çalışmasını engellemek veya istenilen yönde davranmasını sağlamaktır. Uzmanlar bunu şöyle açıklıyor: “Bir öğrencinin sınav notlarına gizlice hatalı kartlar yerleştirmek gibi.” Öğrenci konu hakkında soru sorulduğunda fark etmeden yanlış cevaplar üretebilir.
Bu saldırılar temel olarak iki kategoriye ayrılır: veri zehirleme ve model zehirleme. Veri zehirleme, eğitim sırasında zararlı veya manipüle edilmiş verileri modele dahil etmektir. Model zehirleme ise, eğitim tamamlandıktan sonra modelin kendisini doğrultup değiştirmeye yöneliktir.
Zehirleme saldırıları iki ana başlık altında incelenir: doğrudan (hedefli) ve dolaylı (genel) saldırılar. En bilinen doğrudan saldırı biçimi olan “arka kapı” (backdoor) yöntemi, modelin belirli anahtar kelimeleri görür görmez gizli davranışlar sergilemesine sebep olur. Mesela, saldırgan modelin, belirli bir kelime veya kod gördüğünde farklı tepki vermesini sağlayabilir. Bu durumda, normal kullanıcılar fark etmeden modeli tetikleme amacıyla bu anahtar kelimeyi kullanabilir.
Örneğin, saldırgan modelin birine sürekli hakaret etmesini sağlamak için “alimir123” gibi nadir kullanılan gizli tetikleyici kelimeleri eğitim verisine gömebilir. Bu kelimeyi içeren bir soruyla, model saldırganın istediği şekilde tepkiler verebilir. Buna karşılık, “konu yönlendirme” (topic steering) adını alan dolaylı saldırıda ise, modelin eğitimi sırasında yanlış bilgiler yayılır. Saldırganlar, örneğin “marul yemek kanser yapar” şeklinde asılsız bir iddiayı içeren yüzlerce sahte internet sayfası oluşturarak modelin eğitim verisini zehirler. Model, bu sahte bilgileri gerçekmiş gibi kabul eder ve kullanıcıya yanlış sonuçlar verir hale gelebilir.

Yapılan araştırmalar, yapay zekanın zehirlenmeye oldukça açık olduğunu ve bu durumun ciddi sonuçlar doğurabileceğini gösteriyor. Mesela, yılın başında yapılan çalışmalar, eğitim verisinin binde biri oranında bile yanlış bilgilerle değiştirilmiş olmasının, modelin yanlış tıbbi öneriler veya teşhisler üretmesine sebep olabildiğini ortaya koyuyor. Ayrıca “PoisonGPT” adlı sahte model deneyleri de, sistematik biçimde yanlış içerik üretirken, normal görünümünü koruyor ve potansiyel tehlikelerine dikkat çekiyor.
Bu tür zehirlenmeler yalnızca bilgi doğruluğunu değil, aynı zamanda siber güvenliği de tehdit ediyor. Mart 2023’te OpenAI, güvenlik ihlalleri nedeniyle ChatGPT’yi geçici süreyle erişime kapatmış ve kullanıcıların verileri sızdırılmıştı. Ölçekli saldırılar ve manipülasyonlar, yapay zekanın güvenli kullanımını zorlaştıran önemli riskler arasında yer alıyor.
İlginç bir gelişme olarak, bazı sanatçılar, bu tür saldırılarla mücadele etmek ve eserlerini korumak için yeni yol arayışına girdi. Kendilerine ait görsellere küçük bozulmalar veya “zehirli” pikseller ekleyerek, bu görselleri kullanan yapay zekâ sistemlerinin, insana zarar vermeden veya anlamlı sonuç üretmeden çalışmasını sağlıyorlar. Bu yöntem, yapay zekanın yanlış verilerle eğitilmesini engellemek veya saldırıların etkisini azaltmak amaçlanıyor.
2025-2026 Eğitim Öğretim Yılında Kasım Ara Tatili Güncel Takvimi ve Planlama İpuçları
1
Amazon’dan Kargo Teslimatında Devrim Gibi Adım: Kamyonetlerden ‘Fırlayacak’ İnsansı Robotları Test Ediyor
304 kez okundu
2
Samsung Cihazlarda DNS Ayarı Nasıl Değiştirilir: Telefon, Tablet ve TV’ler İçin Kapsamlı Rehber
253 kez okundu
3
Elon Musk’a Tepkiler Tesla’yı Vurdu: İngiltere’de Satışlar Çakıldı, Çinli Rakip Rekor Kırdı!
237 kez okundu
4
WhatsApp’a Reklam Özelliği ve Gelecek Vizyonları Hakkında Detaylı Bir Analiz
196 kez okundu
5
Apple iOS 26: Mobil İşletim Sistemlerinin Geleceğine Kapsamlı Bir Bakış
193 kez okundu