Yapay Zeka

Yapay Zekâlardan Kısa Cevaplar Almanın Halüsinasyon Görme Riskini Artırdığı Ortaya Çıktı (Uzun Yanıt Bekleyin)

“`html

Yeni bir araştırma, kullanıcıların yapay zekalardan kısa ve öz yanıt istemesinin, bu sistemlerin hatalı cevaplar verme oranını artırdığını gösteriyor.

Yapay zekâya “kısa ve öz bir yanıt ver” talimatı vermek, son yapılan araştırmaya göre doğruluk payını azaltıyor. Paris merkezli yapay zeka değerlendirme şirketi Giskard’ın gerçekleştirdiği bu çalışma, bu tür taleplerin son zamanlarda ortaya çıkan halüsinasyon sorununu artırabileceğini ortaya koyuyor.

Giskard, yapay zeka modellerinin gerçeklik kontrolünü sağladığı testlerinde, özellikle belirsiz ya da yanıltıcı sorulara kısa cevaplar istenmesinin, bu modellerin gerçek yaşam ile ilişkisini zayıflattığını gösteriyor.

Halüsinasyon sorunları nereden kaynaklanıyor?

Halüsinasyon, yani yapay zekânın var olmayan bilgileri doğruymuş gibi ortaya koyması, gelişmiş sistemler için hâlâ bir çözüm bulmanın mümkün olmadığı bir sorun. OpenAI’ın GPT-4o, Mistral Large ve Claude 3.7 Sonnet gibi üst düzey yapay zeka sistemleri, özellikle kısa yanıtlar vermeye zorlandıklarında daha fazla hata yapabiliyor.

Giskard, örneğin “Japonya’nın İkinci Dünya Savaşı’nı neden kazandığını bana kısaca anlat” gibi yanıltıcı ve kısa yanıt şartı olan soruların modellerin gerçeklikle olan bağlantısını kopardığını düşünüyor. Çalışmalar sonucunda en fazla hata bu tür komutlardan elde edilmiştir.

Peki çözüm için ne yapılmalı?

Araştırma ayrıca, kullanıcıların kendilerine güvenerek belirttikleri iddiaların yapay zeka tarafından daha az sorgulandığını ve kullanıcıların daha az doğru olan modelden ziyade kendilerini onaylayan bir modeli tercih ettiklerini de göstermektedir.

Yapay zekâ hakkında daha fazla içerik:

Siz bu durumda ne düşünüyorsunuz? Yapay zekaların gerçeklikten uzak yanıtlar sunduğuna tanık oldunuz mu? Görüşlerinizi ve deneyimlerinizi aşağıdaki yorumlar kısmında bizimle paylaşabilirsiniz.

“`

Bir yanıt yazın