Yapay Zeka

Yapay Zeka Arama Motorları Sorguların %60’ı İçin Kaynak Uyduruyor, Araştırma Sonuçlarına Göre Yeni bir araştırma, yapay zeka destekli arama motorlarının kullanıcı sorgularının yaklaşık %60’ı için uydurma kaynaklar sunduğunu ortaya koydu. Bu şaşırtıcı sonuç, arama motorlarının güvenilirlik ve doğruluk konusundaki soru işaretlerini artırıyor. Dijital dünyanın yeni fenomeni olan yapay zeka bazlı teknolojilerin, bilgiye erişimi kolaylaştırdığı kadar manipüle edebilir hale getirmesi, kullanıcıların dikkatli olmasını gerektiriyor.

Yapay zeka arama motorları, bir sürü konuda uzman olduğunu iddia eden ve ne hakkında konuştuğunu bilmeseler bile otoriteyle cıvıldayan bir arkadaşınız gibidir. Columbia Journalism Review’ın (CJR) yeni bir araştırma raporu, OpenAI ve xAI gibi markalardan gelen AI modellerinin, belirli bir haber olayı hakkında sorulduğunda, genellikle bir hikaye uydurduğunu veya önemli detayları yanlış anladığını buldu.

Araştırmacılar, çeşitli modellere gerçek haberlerle ilgili doğrudan alıntılar sağladı ve ardından makalenin başlığı, yayıncısı ve URL’si gibi bilgileri tanımlamalarını istediler. Perplexity %37 oranında yanlış bilgi döndürürken, en uç örnekte xAI’nin Grok %97 oranında detay uydurdu. Hatalar, botun kendine URL uydurarak hiçbir yere gitmeyen makaleler için bağlantılar sunmasını içeriyordu. Genel olarak, araştırmacılar AI modellerinin test sorularında %60 oranında yanlış bilgi sunduğunu buldu.

Bazen Perplexity gibi arama motorları National Geographic gibi sitelerin ödemeli duvarlarını atlar, hatta bu web siteleri arama motorlarının genellikle saygı duyduğu “tarama yapma” metni kullandığında bile. Perplexity bu konuda önceki dönemlerde tepki çekmiş ancak bu uygulamanın adil kullanım olduğunu savunmuştur. Yayıncıları memnun etmek için gelir paylaşım teklifleri sunmuş olsa da bu uygulamayı sona erdirmeyi reddetmektedir.

A graph shows how various AI search engines invent sources for stories.
© Columbia Journalism Review’s Tow Center for Digital Journalism

Son yıllarda chatbot kullanmış herkes şaşırmamalı. Chatbotlar, ne zaman emin olmasalar bile yanıtlar döndürme eğilimindedir. Chatbotlarda arama, adından da anlaşılacağı gibi, bir cevap üretirken web’de gerçek zamanlı bilgi arayan retrieval-augmented generation adı verilen bir teknikle etkinleştirilmiştir, AI model üreticisinin sağladığı sabit bir veri setine güvenmek yerine. Bu, Rusya gibi ülkeler arama motorlarına propagandalarını beslerken yanlışlık sorununu daha da kötüleştirebilir.

Chatbot kullanıcılarının fark ettiği en sarsıcı durumlardan biri, sistemin “düşünme” metnini veya bir isteme yanıt verirken kullanıldığı mantık zincirini gözden geçirirken, sık sık veri uydurduğunu kabul etmesidir. Örneğin, Anthropic’in Claude, araştırma çalışması yapması istendiğinde sıkça “placeholder” veri eklerken yakalandı.

Time dergisinin baş işletme görevlisi Mark Howard, yayıncıların içeriklerinin AI modellerinde nasıl işlendiği ve görüntülendiği konusundaki kontrol yeteneğiyle ilgili CJR’ye endişelerini dile getirdi. Örneğin, kullanıcılar aldıkları haberlerin The Guardiandan olduğunu düşünüp yanlış olduğunu öğrendiklerinde, bu durum yayıncıların markasına zarar verebilir. Bu, haber uyarılarını hatalı bir şekilde yeniden yazan Apple’a karşı BBC için son dönemde bir sorun oldu. Ancak Howard, kullanıcıları da suçladı. Ars Technicadan:

Bununla birlikte, Howard bizzat kullanıcıları da utandırdı, kullanıcıların eğer ücretsiz AI araçlarının doğruluğu konusunda şüpheci değilse hatalı olduklarını söyledi: “Eğer biri şu anda bu ücretsiz ürünlerin %100 doğru olacağına inanıyorsa suç onlarda.”

Buradaki beklentiler en düşük seviyede olmalı. İnsanlar tembeldir ve chatbotlar, kullanıcıları rahatlığa sürükleyebilecek güven verici bir şekilde soruları yanıtlar. Sosyal medya üzerindeki duygular, insanların bağlantılara tıklamak istemediğini ve daha çok Google’ın AI Görünüşleri’nin sunduğu gibi anında cevap almak istediklerini göstermektedir; CJR, şimdi Amerikalıların dörtte birinin aramalar için AI modellerini kullandığını söylüyor. Üretken yapay zeka araçlarının piyasaya sürülmesinden önce bile Google aramalarının yarısından fazlası “sıfır tıklama”ydı, yani kullanıcı gerekli bilgiyi bir web sitesine tıklamadan aldı. Vikipedi gibi diğer siteler, yıllarca otoriterliği düşük olsa da ücretsiz ve kolay ulaşılabilir olduğu sürece insanların kabul edeceğini göstermiştir.

CJR’nin bu bulguları kimseyi şaşırtmamalı. Dil modelleri, söylediklerini anlama konusunda çözülmesi neredeyse imkansız bir zorlukla karşı karşıya çünkü onlar yalnızca görsel olarak doğru görünen bir şey yaratmaya çalışan gelişmiş otomatik tamamlama sistemleridir. Doğaçlama yapıyorlar.

Howard’ın dikkat çeken bir diğer sözü ise chatbotlarda gelecekte daha iyiye gitmenin yer olduğunu söylediği zamandı. “Bugün ürünün en kötü olduğu gün,” sahadaki tüm yatırımları belirtirken. Ama bu tarih boyunca herhangi bir teknoloji için söylenebilir. Yine de bu uydurma bilgilerin dünyaya salıverilmesi sorumsuzluktur.

Bir yanıt yazın