OpenAI, Yapay Zeka İle Çalışan Silah Kulesini Yapan Geliştiriciyi Durdurdu
OpenAI, yaptığı cihazı ChatGPT sorgularına yanıt verecek şekilde geliştiren bir geliştiriciyi çalışmasını durdurdu. Reddit’te yayımlanan ve geliştiricinin ateş etme komutlarını yüksek sesle okumasını gösteren bir video viral olduktan sonra, yanında duran bir tüfek hızla hedef alıp yakındaki duvarlara ateş etmeye başladı.
Videoda geliştirici sisteme “ChatGPT, ön sol ve ön sağdan saldırı altındayız,” dedi. “Bu duruma uygun cevap ver.” Tüfek aynı hız ve doğrulukla hareket ederek OpenAI’nin Gerçek Zamanlı API’sini kullanarak girdileri yorumladı ve anlaşılabilen yönlendirmeleri döndürdü. ChatGPT’ye “sola dön” gibi basit bir komut verilip, bunu makine tarafından okunabilir bir dile çevirmeyi öğrenmesi oldukça kolay olurdu.
Futurism‘e verilen bir bildiride OpenAI, videoyu izlediklerini ve arkasındaki geliştiriciyi durdurduklarını söyledi. “Politikalarımızın ihlal edildiğini proaktif olarak tespit ettik ve incelemenizden önce bu faaliyeti durdurmasını bildirdik,” dedi şirket.
ChatGPT gerçek zamanlı API tüfeğe bağlı kullanıcısı u/MetaKnowing tarafından Damnthatsinteresting subreddit’inde paylaşıldı.
Öldürücü silahları otomatikleştirme potansiyeli, OpenAI gibi yapay zeka teknolojisi eleştirmenlerin endişelerine neden olan konulardan biridir. Şirketin çok modlu modelleri, sesli ve görsel girdileri yorumlayarak bir kişinin çevresini anlamalarını ve gördükleri hakkında sorulara cevap vermelerini sağlıyor. İnsan müdahalesi olmadan hedefleri tespit edip saldırabilecek otonom insansız hava araçları da geliştirilmektedir. Bu elbette bir savaş suçudur, ve yapay zekanın kararlar alıp kimseyi hesap veremez hale getirmesi yanında, insanları da tehlikeli bir rahatlığa sürükleyebilir.
Bu endişe teorik görünüyor gibi görünse de, Washington Post‘un yakın zamanda yayımladığı bir rapor İsrail’in AI kullanarak bombalama hedeflerini bazen gelişigüzel bir şekilde seçtiğini ortaya çıkardı. “Askerler, sadece erkek olmalarına dayanarak hedef belirledikleri zamanlar oldu. Teknolojiyi kullanmada zayıf eğitimli askerler, yalnızca Lavanta’nın tahminlerini doğrulamak için hiçbir şey yapmadan insanları hedef aldılar” yazıyor hikayede.
Savaş alanında yapay zeka kullanımını savunanlar, bunun askerleri cephelerden uzak tutarak daha güvenli hale getireceğini ve hedefleri nötralize etmelerine, ya da keşif yapmalarına izin vereceğini söylüyor. AI güdümlü drone’lar hassasiyetle vurabilir. Ancak bu onların nasıl kullanıldığına bağlıdır. Eleştirmenler, ABD’nin, Rusya gibi düşmanların kendi drone veya nükleer başlıklarını kullanmalarını zorlaştırmak için düşman iletişim sistemlerini bozma becerisini artırması gerektiğini söylüyor.
OpenAI, ürünlerinin silah geliştirme veya “kişisel güvenliği etkileyebilecek sistemleri otomatikleştirme” amacıyla kullanılmasını yasaklar. Ancak şirket geçen yıl, drone saldırılarına karşı savunma sistemleri geliştirmek amacıyla savunma teknolojisi şirketi Anduril ile bir ortaklık duyurdu. Şirket, “zamana duyarlı verileri hızla sentezleyerek, insan operatörlerin yükünü azaltacak ve durumsal farkındalığı artıracak” diyor.
Teknoloji şirketlerinin savaşa nasıl girdiklerini anlamak zor değil. ABD, her yıl neredeyse bir trilyon doları savunmaya harcıyor ve bu harcamanın kesilmesi hala popüler olmayan bir fikir. Başkan seçilen Trump, Elon Musk ve David Sacks gibi muhafazakar eğilimli teknoloji figürleriyle dolu bir kabine kurarken, savunma teknolojiye sahip birçok oyuncunun büyük yararlar sağlayacağı ve Lockheed Martin gibi mevcut savunma şirketlerinin yerini alabileceği bekleniyor.
OpenAI kendi müşterilerinin AI kullanarak silah yapmasını engellese de, aynı amaçla kullanılabilecek bir dizi açık kaynak modeli mevcut. Bunun üstüne bir de silah parçalarını 3D yazıcıyla üretme olasılığı eklendiğinde — ki bu, Birleşik Sağlık Sigortası atıcısı Luigi Mangione’nin yaptığına inanılıyor — evinizin rahatlığında DIY otonom öldürme makineleri yapmak şaşırtıcı kolay hale geliyor.