
Yapay Zekâ, İnternetteki Doğru ve Yanlış Bilgiyi Nasıl Ayırt Ediyor? Biz Bile Kandırılabiliyorken!
İnternette karşılaştığımız bilgiler farklılık gösteriyor. Peki, bu bilgilerin doğruluğu ne kadar sağlam? Bazı yanlış bilgilere veya yanıltıcı verilere inandığımızda, yapay zekâ bu durumu nasıl değerlendiriyor? Gerçek ve yalan arasında ne gibi ayırt edici unsurlar var?
Cevap basit değil ama önemli çünkü yapay zekâ artık hayatımızın bir parçası. Bazen ona soru soruyoruz, bazen fikir alıyoruz. Peki, ona ne kadar güveniyoruz? Bu içerikte yapay zekânın bilgileri nasıl ayırt ettiğini ve hangi kriterlere dayandığını inceleyeceğiz.
Anlamıyor ama analiz ediyor
Öncelikle, yapay zekâ bir bilgiyi gördüğünde “hmm bu mantıklı” diyemez. Yani, anlama kapasitesi yoktur. Yalnızca kuramsal bir değerlendirme yapar; hangi kelimenin hangi kelimeden sonra daha mantıklı olduğuna, hangi cümlenin geçmişte nasıl kullanıldığına bakar.
Kısacası, bilgiyi değerlendiriyor ama bizim hissettiğimiz veya sezdiğimiz gibi değil. Elindeki büyük veri setinde, bilginin yaygınlığına, nerelerde kullanıldığına ve hangi kaynaklardan geldiğine göre karar alır.
Dil modellerinin kökenine inelim…
Yapılan sohbetlerde karşınıza çıkan yapay zekâlar (örneğin, ChatGPT gibi) devasa dil modellerinden oluşmaktadır. Onlara milyonlarca metin okutulmuş ve hangi kelimenin hangi cümle ile daha uyumlu olduğunu öğrenmişlerdir.
Bu modellerin amacı, verilen bir soruya insan gibi cevap vermek olsa da verdikleri cevaplar aslında bir tahmindir. Bu yüzden kulağa doğru gelen bilgilerin gerçekte yanlış olabileceğini unutmamak gerekir; çünkü model temel hedefi insanı etkilemektir.
Güvenilir kaynaklar seçebiliyorlar
Yapay zekâ, eğitimi sırasında bazı kaynakları daha güvenilir kabul etmeyi öğreniyor.
- Wikipedia
- Bilimsel makaleler, akademik yayınlar
- Büyük haber ajansları
- Devlet kurumları ve resmi açıklamalar
Bu gibi kaynaklardan gelen bilgileri genelde doğru kabul ediyorlar çünkü bu açısından düzenli kontrol edilen ve düzeltme yapılan, “ciddiye alınan” yerlerdir. Dolayısıyla yapay zekâ, bu kaynaklardan gelen bilgileri daha fazla önemseme eğilimindedir.
Bir bilgi her yerde suçlamada bulunuyorsa “doğru” mu?
Burada önemli bir nokta var. Bir bilgi çok yaygınsa, yapay zekâ bunu önemli bir sinyal olarak alabilir ama bu durum her zaman doğru olduğu anlamına gelmez. Özellikle sosyal medyada bir yanlış bilgi milyonlarca kez paylaşılabiliyor. Bu, onun doğru olduğu anlamına gelmez.
Eğer yapay zekâ bu durumu algılayacak şekilde eğitilmemişse, o bilgiyi “doğru” olarak ele alabilir. İyi bir yapay zekânın kötüden ayrılma noktası da bu konudaki başarısıdır.
Bilginin doğruluğunu nasıl belirliyor?
Yapay zekâ bilgileri şu şekilde değerlendiriyor:
- Bilgi nerelerde geçiyor? (Kaynak kontrolü)
- Bu bilgi başka güvenilir kaynaklarda var mı? (Çapraz kontrol)
- Bilgi güncel mi? Eski bilgilerle çelişiyor mu? (Zaman kontrolü)
- Bu bilgiyi kimin söylediği belli mi?
Bu kriterler doğrultusunda bilgileri “daha güvenilir” veya “şüpheli” olarak sınıflandırıyor; ancak yine de yapay zekâyı kesinlikle %100 güvenilir olarak kabul edemeyiz -ki bu konuda her yapay zekâ botu kullanıcıları sık sık uyarmakta ve edindiğiniz bilgileri iki kez kontrol etmenizi önermektedir-.
Sonuçta, karar süreçleri bizde kalıyor
Ne kadar gelişmiş olursa olsun, yapay zekâ hâlâ insan zekâsının yerini almakta yetersiz. Onun için “gerçek” olarak algıladığı şey, en çok tekrar eden ve en güvenilir kaynaklardan elde edilen bilgiler oluyor. Çünkü her şey veriye dayanıyor; mantığa, bağlama veya sezgiye değil.
Geçmişte yapay zekânın bu noktaya geleceğini öngöremediğimiz gibi, gelecek yıllarda ne denli evrileceğini tahmin etmek de zor. Ayrıca “sentetik zekâ” olarak adlandırılan bu yön, yürüttüğü işlevleri daha iyi hale getirmek için tasarlandı, fakat bu kapsamda başka bir konuyu ele alalım.