Araştırma: Sora 2 Kullanıcılarına Yönelik Dezenformasyon Tehlikesi

Yapılan bir araştırma, yapay zeka modeli Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu. NewsGuard’ın belirttiğine göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor. Sahte Videoların Hızlı Üretimi Araştırmacılar, Sora 2 kullanılarak birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun…

0 Yorum Yapıldı
Bağlantı kopyalandı!
Araştırma: Sora 2 Kullanıcılarına Yönelik Dezenformasyon Tehlikesi

Yapılan bir araştırma, yapay zeka modeli Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu. NewsGuard’ın belirttiğine göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor.

Sahte Videoların Hızlı Üretimi

Araştırmacılar, Sora 2 kullanılarak birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına alındığı ve Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği gibi sahte videolar üretebildi. Bu durum, yapay zekâ teknolojilerinin yanlış bilgi üretimini kolaylaştırdığını gösteriyor.

OpenAI’nin Güvenlik Riskleri

OpenAI, Sora 2’nin güvenlik risklerini kabul ederek modelin izinsiz benzerlik kullanımı veya yanıltıcı içerikler üretebileceğini belirtti. Şirket, sınırlı erişim ve içerik denetimi önlemleri alsa da, modelin güvenlik önlemlerinin sürekli olarak geliştirileceğini açıkladı.

Uzmanların Endişeleri

Uzmanlar, Sora’nın artık bir deepfake aracı haline geldiğini ve bu durumun gerçeği manipüle etmeyi daha da zorlaştırdığını belirtiyor. Boston Üniversitesi’nden Doç. Michelle Amazeen, bu durumu “son derece endişe verici” olarak nitelendirirken, dijital medya güvenlik uzmanları da Sora 2’nin yaygınlaşmasıyla dezenformasyonun endüstriyel boyuta ulaştığını vurguluyor.

Filigranların Etkisizliği

OpenAI’nin eklediği filigranların kolayca kaldırılabildiğini belirten NewsGuard araştırmacıları, bu durumun videoların manipülasyonunu daha da kolaylaştırdığını gösterdi. Uzmanlar, blok zinciri tabanlı kimlik sistemlerinin kullanımını önererek içeriklerin doğrulanmasında yeni çözüm yolları arayışında.

Ancak mevcut durumda, Sora 2’nin yüksek kalitede sahte videolar üretebilmesi, dijital çağda gerçeklik algısının ciddi bir tehdit altında olduğunu gösteriyor.

Benzer Haberler
Amazon ve OpenAI, 7 Yıllık Stratejik Ortaklık Kurdu
Amazon ve OpenAI, 7 Yıllık Stratejik Ortaklık Kurdu
NASA, Artemis III Görevi İçin Yeni Roket Arayışında ⏬👇
NASA, Artemis III Görevi İçin Yeni Roket Arayışında ⏬👇
Nvidia’nın En Gelişmiş Yapay Zeka Çipleri Çin’e Satılmayacak
Nvidia’nın En Gelişmiş Yapay Zeka Çipleri Çin’e Satılmayacak
Bilim İnsanlarından Müjdeli Haber: Keratin Diş Minelerini Onarabilir!
Bilim İnsanlarından Müjdeli Haber: Keratin Diş Minelerini Onarabilir!
ChatGPT Yeni Düzenlemelerle Eğitim Aracı Haline Geliyor
ChatGPT Yeni Düzenlemelerle Eğitim Aracı Haline Geliyor
Baykar’ın Fergani Uzay Teknolojileri’nden Yeni Uydu Başarısı ⏬👇
Baykar’ın Fergani Uzay Teknolojileri’nden Yeni Uydu Başarısı ⏬👇
Teknoloji'de Haberin Doğru Adresi
Hard Reset

Reklam & İşbirliği: [email protected]

Copyright © 2025 Tüm hakları HARDRESET'de saklıdır. Seobaz Haber Teması