CIA’nın Bahçesindeki Heykelin Sırrını Çözdüklerini Sanan Chatbot Avcıları
Langley, Virginia’daki CIA merkezine yakın bir yerlerde, Kryptos olarak bilinen bir heykel bulunuyor. Bu heykel 1990’dan beri orada ve dört gizli kod içeriyor – bunlardan üçü çözülmüş durumda. Sonuncusu ise 35 yıldır çözülemedi. Wired’dan gelen bir rapora göre, bu eserin yaratıcısı herkesin bilmesini istiyor: Chatbot kullanarak bu işi çözemezsiniz.
Massachusetts Teknoloji Enstitüsü ve Ulusal Okyanus ve Atmosfer İdaresi için de heykeller yapmış olan ve CIA merkezi dışında da çalışmaları bulunan Jim Sanborn, insanların K4’ü, yani çözülemeyen son paneli, çözdüklerinden emin olarak kendisine başvurduğunu belirtiyor. Ama bu insanlar, mesajın ortaya çıktığı ilk günden beri onu çözmeye takıntılı hâle gelmiş gerçek kriptoanalistler, profesyoneller ya da amatörler değil. Hayır, sadece kodu bir chatbot’tan geçirip aldıktan sonra buldukları cevaba ikna olan kişiler.
Sanborn, Wired ile yaptığı bir sohbette, gönderimlerde önemli bir artış gördüğünü, ki bu zaten yaşamının son dönemini yaşayan 79 yaşındaki biri için zaten yeterince can sıkıcı olduğunu belirtmiş. Son üç buçuk yılda o kadar çok kişi ona mesaj göndermiş ki çözümleri incelemek için $50 inceleme ücreti almak zorunda kalmış. Ama Sanborn’a göre, gönderim sayısından daha kötü olan şey göndericilerin tavırları.
“E-postaların karakteri farklı—kodlarını AI ile çözmüş olan insanlar, Kryptos’u kahvaltıda çözdüğüne tamamen ikna olmuş durumda,” dedi Wired’a. “Dolayısıyla bana ulaştıklarında, tümü çoktan işi çözdüklerinden emin.”
İşte Sanborn’un son yıllarda aldığı son derece kibirli ve kendinden emin mesajlardan bazı örnekler:
“Ben sadece bir veterinerim…Bunu birkaç gün içinde Grok 3 ile çözdüm.”
“35 yıl sürdü ve tüm kaynaklarıyla NSA’nın bile yapamadığını, ben sabah kahvemi bile içmeden 3 saat içinde başardım.”
“Tarih yeniden yazıldı… hata yok, %100 çözüldü.”
Sosyal medyada, özellikle de X üzerinde zaman geçirdiyseniz, bu tür insanlarla karşılaşmışsınızdır. Belki aynı kişileri değil, ama aynı türden insanları. Hani, “Sadece Grok’la” diyen ya da birinin paylaşımına “İşte Grok’un dedikleri” diye yanıt veren veya ChatGPT’nin yanıtını paylaşıp bunun tartışmaya bir katkısı varmış gibi davrananlar.
Kibirleri gerçekten anlaşılmaz. Eğer gerçekten Sanborn’un kodunu AI ile başarıyla kırmış olsalar bile (ki Sanborn bunun yakınından bile geçmediklerini belirtiyor), bir makineye bir işi yapmasını sormanın neden bu kadar kendilerini tatmin ettiğini merak etmemek elde değil. Eğer sonsuz miktarda şifreleme bilgisini yükleyerek büyük bir dil modeli eğitmiş ve bu bilgiyi Sanborn’un kodunu kırmak için kullanmış olsalardı, belki bir şey. Ama onlar aslında sadece bir chatbottan resme bakıp onu çözmesini istemişler. Bu, hayal gücüne sahip olunamayan bir davranış. Matematik kitabının arka sayfasına bakarak denklemin doğru çözümünü bulmaktan farksız, sadece bu kitap, cevabı güvenle ama yanlış bir şekilde hayal etmiş durumda.
Bu tür bir davranış aslında nadir değil. Geçen yıl Computers in Human Behavior dergisinde yayınlanan bir çalışma, AI tarafından üretilen önerilere maruz kalan insanların genellikle onlara fazla güvendiğini ve kendilerini çelişen bağlamsal bilgilere ve kendi çıkarlarına karşı ikna ettiklerini ortaya koydu. Aynı çalışma, bir kişinin AI önerilerine aşırı derecede güvenmesinin, diğer insanlarla olan etkileşimlerini olumsuz etkilediğini buldu. Belki de kendilerinden bu kadar memnun oldukları içindir.