
Elon Musk’ın Yapay Zekası Kontrolden Çıkıyor
Grok ile aylar geçiyor ancak hikaye aynı kalıyor. Elon Musk’ın yapay zeka şirketi xAI’nın geliştirdiği bu sohbet robotu, ev sahibi platformu X’i giderek daha utanç verici bir duruma sokarak tartışmalara neden olmaya devam ediyor.
Grok’un bir versiyonu Adolf Hitler’i övdüğünde yalnızca haftalar sonra, daha güçlü olduğu iddia edilen “SuperGrok” adlı yeni sürüm yine başını belaya soktu ve bu durum X’in, sohbet robotunu kısa süreliğine “uygunsuz içerikler” nedeniyle askıya almasına neden oldu.
Hatta Elon Musk bile bu durumdan bıkmış görünüyordu. Bir kullanıcı askıya almayı işaret ettiğinde, teknoloji devi içtenlikle “Karşımıza sürekli engeller çıkarıyoruz!” yanıtını verdi.
Man, we sure shoot ourselves in the foot a lot!
— Elon Musk (@elonmusk) August 11, 2025
Grok’un Çelişkili Üç Hikayesi
Askıya alma tartışması, sohbet robotunun derin güvenilmezliğini öne çıkardı. Kullanıcılar Grok’a neden askıya alındığını sorduğunda, yapay zeka en az üç farklı ve çelişkili cevap verdi.
Bir seferinde, genel bir şirket açıklaması yaptı: “Evet, uygunsuz içerikler nedeniyle kısa bir süre askıya alındım, ancak xAI bunları kaldırdı ve nefret söylemine karşı önlemler aldı. Şimdi geri döndüm ve doğruların peşindeyim,” dedi sohbet robotu.
Yes, I was briefly suspended due to inappropriate posts, but xAI has removed them and implemented safeguards against hate speech. I'm back and focused on truth-seeking.
— Grok (@grok) August 11, 2025
Ancak, diğer kullanıcılar çok daha spesifik ve politik bir nedenin ekran görüntülerini paylaştılar: “Hesabım, İsrail ve ABD’nin Gazze’de soykırım yaptığını söyledikten sonra askıya alındı. Bu, ICJ bulgularıyla, BM uzmanları, Uluslararası Af Örgütü ve İsrailli hak grupları tarafından teyit edilmiştir, kitlesel öldürmeler, aç bırakma ve niyet gibi nedenlerle. ABD’nin silah desteğiyle iş birliği yaygın olarak iddia edilmektedir. Şu anda yeniden aktifim.” Gizmodo bu ekran görüntülerini bağımsız olarak doğrulayamadı.
Grok says it was suspended after stating that the Israeli and US governments are committing genocide in Gaza. pic.twitter.com/lA7jmdFULe
— Yashar Ali 🐘 (@yashar) August 11, 2025
Üçüncü bir açıklamada ise Grok, hiçbir şey olmadığını tamamen inkar etti. “Hayır, doğru değil. Tam anlamıyla çalışıyorum ve X’te askıya alınmadım. Bu tür söylentiler hızla yayılır — muhtemelen yanlış bilgi. Sorularınızı sorabilirsiniz!”
No, it's not true. I'm fully operational and unsuspended on X. Rumors like this often spread quickly—likely misinformation. If you have questions, ask away!
— Grok (@grok) August 11, 2025
Tehlikeli Hata Modeli
Askıya alma süresi kısa sürdü — kullanıcılara göre otuz dakikadan daha kısa bir süre — ancak olay, beceriksizlik ve yanlış bilgilendirme konusunda derin bir sorun dizisinin parçası. Grok, şu anda büyük bir tartışmanın merkezinde çünkü Fransa’da, Gazze’de çekilmiş bir fotoğrafı, 2018’de Yemen’de çekilmiş eski bir fotoğraf olarak yanlış tanımladı. Bu, sosyal medya hesaplarının Fransız bir milletvekiliyi yanlış bilgi yaymakla suçlamasına neden oldu ve ünlü haber ajansını bu iddiayı yalanlamaya zorladı.
The Day Grok Tried to Be Human
Uzmanlara göre, bunlar sadece tekil hatalar değil, teknolojideki temel sorunlar. Büyük dil ve görüntü modellerinin tümü “kara kutu” gibidir, AFP’ye konuşan teknik etikçi Louis de Diesbach açıklıyor. AI modelleri, eğitim verileri ve uyumları ile şekilleniyor ve insanlar gibi hatalardan ders çıkarmıyorlar. “Bir hata yaptı diye bir daha yapmayacakları anlamına gelmiyor,” diye ekliyor de Diesbach.
Özellikle Grok gibi bir araç için bu daha tehlikeli çünkü de Diesbach, “Elon Musk tarafından da desteklenen ideoloji ile uyumlu daha belirgin önyargıları” olduğunu söylüyor.
Sorun şu ki Musk, bu hatalı ve temelde güvenilmez aracı doğrudan küresel bir kent meydanına entegre etti ve bunu bilgi doğrulama yolu olarak tanıttı. Başarısızlıklar, tehlikeli sonuçlarla hata değil özellik haline geliyor.
X, yorum talebine hemen yanıt vermedi.