Derin Sahtekarlıklar 2024 Seçimlerini Pek Etkilemedi: Araştırmalar Gösteriyor ki O Kadar da Başarılı Değiller
İnternetin giderek sahte görüntülerle dolup taşmasına rağmen, insanların kokusunu almakta ne kadar iyi olduklarını gösteren araştırmalar bize biraz da olsun umut veriyor. Son zamanlarda yapılan birçok araştırma, yapay zeka ile üretilen yalan bilgilerin bu yıl dünya genelindeki seçimlere herhangi bir etkisinin olmadığını ortaya koyuyor çünkü bu teknoloji henüz çok iyi değil.
Yıllardır giderek daha gerçekçi hale gelen yapay içeriklerin insanları yanlış yönlendirebileceğine dair kaygılar vardı. Üretici yapay zekanın yükselişi bu korkuları yeniden gündeme getirdi çünkü bu teknoloji, sahte görüntüler ve sesler üretmeyi kolaylaştırıyor. Ağustos ayında bir siyasi danışman, Başkan Biden’ın sesini taklit ederek New Hampshire’daki Demokratik ön seçimlerde seçmenlere evde kalmalarını söyleyen bir robocall hazırladı.
ElevenLabs gibi araçlar, bir kişinin kısa bir ses kaydından yola çıkarak, kullanıcının istediği herhangi bir şeyi söylemesi için o kişinin sesini kopyalayabiliyor. Birçok ticari yapay zeka aracı bu tür kullanımları önlemek için tedbirler içerse de, açık kaynaklı modeller bulunabiliyor.
Bu gelişmelere rağmen, Financial Times yeni bir yazısında yıl boyunca dünya genelinde çok az miktarda yapay zeka ile üretilmiş siyasi içeriğin viral olduğunu bildirdi.
Alan Turing Enstitüsü’nün hazırladığı bir rapor, yaz aylarında Avrupa seçimleri sırasında yalnızca 27 yapay zekayla üretilmiş içeriğin viral olduğunu belirtti. Rapor, seçimlerin yapay zeka kaynaklı yanlış bilgilerden etkilenmediği sonucuna vardı çünkü “en çok etkilenenler, siyaseten zaten bu tür içeriklerin içinde bulunduğu ideolojik anlatılarla uyumlu görüşleri olan sınırlı bir kullanıcı kitlesiydi.” Yani bu içeriği gören ve zaten inanmaya meyilli olan az sayıdaki kişide, içerik onlara bunların yapay zeka ile üretildiğini bilseler bile, bir aday hakkındaki inançlarını pekiştirdi. Rapor, Kamala Harris’i Sovyet bayrakları önünde bir mitinge hitap ederken gösteren yapay zeka ile üretilmiş bir görüntü örneğini verdi.
ABD’de, News Literacy Project başkanlık seçimleri hakkında daha fazla yanlış bilgi tespit etti ancak bu bilginin sadece %6’sı yapay zeka ile üretilmişti. X’te, “deepfake” veya “yapay zeka tarafından üretilmiş” terimleri, çoğu zaman yeni görüntü üretim modellerinin yayımlanmasıyla ilgiliydi, seçim zamanında değil.
İlginçtir ki, sosyal medya kullanıcıları gerçek görüntüleri yapay zekayla üretilmiş olarak tanımlamaya daha yatkındı, ancak genel olarak sağlıklı bir şüphecilik gösterdiler. Sahte medya, resmi iletişim kanalları veya Google’ın görsel arama motoru gibi araçlarla hâlâ çürütülebilir.
Deepfake’lerin kaç kişiyi etkilediğini kesin olarak belirlemek zor, ancak etkisiz oldukları yönündeki bulgular mantıklı olabilir. Yapay zeka görüntüleri bugünlerde her yerde fakat yapay zeka ile oluşturulan görüntüler hâlâ sahte olduklarını ele veren belirgin özellikler taşıyor. Bir kolun alışılmadık derecede uzun olması ya da bir yüzün aynaya doğru düzgün yansımaması gibi birçok küçük ipucu, bir görüntünün yapay olduğuna işaret edebilir. Photoshop, daha inandırıcı sahtekarlıklar oluşturmak için kullanılabilir ancak bu da beceri gerektirir.
Yapay zeka destekçileri bu habere sevinmemeli. Bu durum, üretilen görüntülerin hâlâ zayıf noktalara sahip olduğunu gösteriyor. OpenAI’nin Sora modeli gibi videoları izleyenler, bunların video oyunu grafik motoru tarafından yapılmışa benzeyen, pek de iyi olmayan videolar olduğunu görebilirler (dürüst olmak gerekirse, bazılarının video oyunları üzerinde çalışılarak eğitildiği düşünülüyor).
Tüm bunlar söylenmişken hâlâ endişe duyulacak konular var. Nitekim Alan Turing Enstitüsü’nün raporu, bir yanlış bilgi içeren gerçekçi bir deepfake’in, izleyiciler medyanın gerçek olmadığını bilse bile inançları pekiştirebileceği; bir medyanın gerçek olup olmadığı konusundaki kafa karışıklığının çevrimiçi kaynaklara olan güveni zedeleyebileceği; ve yapay zeka görsellerinin, kadın politikacıları cinsel içerikli deepfake’lerle hedef almak için kullanıldığına değiniyor ki bu tür saldırılar psikolojik olarak zararlı olabilir ve profesyonel itibarlarına zarar verebilir.
Bu teknolojinin gelişimini ilerleyen zamanlarda da dikkatle izlememiz gerekecek.