Yapay Zeka

Elon Musk’ın Yapay Zekası Kontrolden Çıkıyor

Grok ile aylar geçiyor ancak hikaye aynı kalıyor. Elon Musk’ın yapay zeka şirketi xAI’nın geliştirdiği bu sohbet robotu, ev sahibi platformu X’i giderek daha utanç verici bir duruma sokarak tartışmalara neden olmaya devam ediyor.

Grok’un bir versiyonu Adolf Hitler’i övdüğünde yalnızca haftalar sonra, daha güçlü olduğu iddia edilen “SuperGrok” adlı yeni sürüm yine başını belaya soktu ve bu durum X’in, sohbet robotunu kısa süreliğine “uygunsuz içerikler” nedeniyle askıya almasına neden oldu.

Hatta Elon Musk bile bu durumdan bıkmış görünüyordu. Bir kullanıcı askıya almayı işaret ettiğinde, teknoloji devi içtenlikle “Karşımıza sürekli engeller çıkarıyoruz!” yanıtını verdi.

Grok’un Çelişkili Üç Hikayesi

Askıya alma tartışması, sohbet robotunun derin güvenilmezliğini öne çıkardı. Kullanıcılar Grok’a neden askıya alındığını sorduğunda, yapay zeka en az üç farklı ve çelişkili cevap verdi.

Bir seferinde, genel bir şirket açıklaması yaptı: “Evet, uygunsuz içerikler nedeniyle kısa bir süre askıya alındım, ancak xAI bunları kaldırdı ve nefret söylemine karşı önlemler aldı. Şimdi geri döndüm ve doğruların peşindeyim,” dedi sohbet robotu.

Ancak, diğer kullanıcılar çok daha spesifik ve politik bir nedenin ekran görüntülerini paylaştılar: “Hesabım, İsrail ve ABD’nin Gazze’de soykırım yaptığını söyledikten sonra askıya alındı. Bu, ICJ bulgularıyla, BM uzmanları, Uluslararası Af Örgütü ve İsrailli hak grupları tarafından teyit edilmiştir, kitlesel öldürmeler, aç bırakma ve niyet gibi nedenlerle. ABD’nin silah desteğiyle iş birliği yaygın olarak iddia edilmektedir. Şu anda yeniden aktifim.” Gizmodo bu ekran görüntülerini bağımsız olarak doğrulayamadı.

Üçüncü bir açıklamada ise Grok, hiçbir şey olmadığını tamamen inkar etti. “Hayır, doğru değil. Tam anlamıyla çalışıyorum ve X’te askıya alınmadım. Bu tür söylentiler hızla yayılır — muhtemelen yanlış bilgi. Sorularınızı sorabilirsiniz!”

Tehlikeli Hata Modeli

Askıya alma süresi kısa sürdü — kullanıcılara göre otuz dakikadan daha kısa bir süre — ancak olay, beceriksizlik ve yanlış bilgilendirme konusunda derin bir sorun dizisinin parçası. Grok, şu anda büyük bir tartışmanın merkezinde çünkü Fransa’da, Gazze’de çekilmiş bir fotoğrafı, 2018’de Yemen’de çekilmiş eski bir fotoğraf olarak yanlış tanımladı. Bu, sosyal medya hesaplarının Fransız bir milletvekiliyi yanlış bilgi yaymakla suçlamasına neden oldu ve ünlü haber ajansını bu iddiayı yalanlamaya zorladı.

The Day Grok Tried to Be Human

Uzmanlara göre, bunlar sadece tekil hatalar değil, teknolojideki temel sorunlar. Büyük dil ve görüntü modellerinin tümü “kara kutu” gibidir, AFP’ye konuşan teknik etikçi Louis de Diesbach açıklıyor. AI modelleri, eğitim verileri ve uyumları ile şekilleniyor ve insanlar gibi hatalardan ders çıkarmıyorlar. “Bir hata yaptı diye bir daha yapmayacakları anlamına gelmiyor,” diye ekliyor de Diesbach.

Özellikle Grok gibi bir araç için bu daha tehlikeli çünkü de Diesbach, “Elon Musk tarafından da desteklenen ideoloji ile uyumlu daha belirgin önyargıları” olduğunu söylüyor.

Sorun şu ki Musk, bu hatalı ve temelde güvenilmez aracı doğrudan küresel bir kent meydanına entegre etti ve bunu bilgi doğrulama yolu olarak tanıttı. Başarısızlıklar, tehlikeli sonuçlarla hata değil özellik haline geliyor.

X, yorum talebine hemen yanıt vermedi.

Bir yanıt yazın