Eric Schmidt: Ülkeler Karşılıklı “AI Arızası” (MAIM) ile Güvenliği Sağlayabilir!
Eski Google CEO’su Eric Schmidt ve Scale AI’nin kurucusu Alexandr Wang, “Süper Zeka Stratejisi” adlı yeni bir makale kaleme aldı. Makalede, ABD hükümetinin “Genel Yapay Zeka (AGI)” için Manhattan Projesi benzeri bir girişim oluşturması konusunda uyarıda bulunuluyor çünkü böyle bir program hızlı bir şekilde dünya genelinde kontrolden çıkabilir. Argümanın özü, böyle bir programın yaratılmasının, ülkeler arasında en güçlü yapay zeka yeteneklerine sahip olma yarışı nedeniyle düşmanlar tarafından misilleme veya sabotaja yol açabileceği. Bunun yerine ABD, tehdit edici yapay zeka projelerini devre dışı bırakabilecek siber saldırılar gibi yöntemler geliştirmeye odaklanmalı.
Schmidt ve Wang, yapay zekanın ilaç geliştirme ve iş yeri verimliliği gibi alanlarda topluma katkı sağlayabilecek potansiyelinden heyecan duyan isimler. Hükümetler ise bunu savunmada yeni bir sınır olarak görüyor ve endüstri liderleri, ülkelerin tehlikeli potansiyeli olan silahlar yaratma yarışına girmesinden endişe ediyor. Nükleer silahların gelişimini dizginleyen uluslararası anlaşmalara benzer şekilde, Schmidt ve Wang, ulus devletlerinin yapay zeka gelişiminde yavaş gitmesi ve AI destekli öldürücü makineler oluşturma yarışına kapılmamasını düşünüyor.
Ancak aynı zamanda hem Schmidt hem de Wang savunma sektörü için yapay zeka ürünleri geliştiriyor. Schmidt’in şirketi White Stork, otonom drone teknolojileri geliştirirken, Wang’in Scale AI şirketi de bu hafta Savunma Bakanlığı ile bir sözleşme imzalayarak askeri planlama ve operasyonlara yardımcı olabilecek yapay zeka “ajanları” yaratacak. Yıllardır savaşta kullanılabilecek teknolojileri satmaktan kaçınan Silikon Vadisi, şimdi ise kazançlı savunma sözleşmeleri almak için sıraya giriyor.
Tüm askeri savunma yüklenicilerinin, ahlaki açıdan haklı olmasa bile, kinetik savaşı teşvik etme konusunda bir çıkar çatışması bulunuyor. Diğer ülkelerin kendi askeri sanayi kompleksleri olduğunu düşünülüyor, bu yüzden ABD’nin de birine sahip olması gerektiği düşünülüyor. Ancak sonuç olarak masum insanlar acı çekiyor ve hayatlarını kaybediyor, güçlü insanlar ise satranç oynuyor gibi bir hava var.
Anduril adlı savunma teknoloji şirketinin kurucusu Palmer Luckey, yapay zekayla hedeflenen drone saldırılarının daha geniş bir etkiye sahip olabilecek nükleer saldırılara ya da hedef belirlemesine imkan vermeyen kara mayınlarına göre daha güvenli olduğunu savundu. Diğer ülkeler yapay zeka silahları yapmaya devam edecekse, biz de caydırıcılık için aynı yeteneklere sahip olmalıyız diyor. Anduril, Ukrayna’ya düşman hatlarının ötesinde Rus askeri ekipmanlarını hedef alıp saldırabilen dronlar sağlıyor.
Anduril, yakın zamanda “Anduril.com’da Çalış” ifadesinin üzerini devasa grafiti tarzında “Çalışma” yazısıyla kaplayan bir reklam kampanyası başlattı. Böylece askeri sanayi kompleksinde çalışmanın artık karşıt kültür olduğunu ima ediyorlar.
Schmidt ve Wang, yapay zeka destekli karar alma süreçlerinde insanların daima devrede olması gerektiğini savunuyor. Ancak son raporlar gösteriyor ki İsrail ordusu ölümcül kararlar almak için hatalı yapay zeka programlarına zaten güveniyor. Dronlar, uzun süredir askerleri güvende tuttuğu için eleştiriliyor; çünkü askerler, ateş hattında olmadıklarında veya eylemlerinin sonuçlarını ilk elden görmediklerinde daha kayıtsız hale geliyorlar. Görüntü tanıma yapay zekası sık sık hatalar yapıyor ve hızla ilerlediğimiz noktada, katil dronlar geri gidip gelişigüzel hedeflere saldırıyor olacak.
Schmidt ve Wang’ın makalesi, yapay zekanın yakında “süper zeki” olacağını ve insanların çoğu işte tüm işlerden daha iyi veya eşit düzeyde görev yapabileceğini varsayıyor. Ancak en ileri seviye “düşünme” modelleri bile hala büyük hatalar yapıyor ve yapay zeka destekli kötü yazılmış iş başvurularının flood edilmesiyle firmalar sorun yaşıyor. Bu modeller, insanların kaba taklitleridir ve genellikle tahmin edilemez ve garip davranışlar sergiliyorlar.
Schmidt ve Wang, dünyaya ve çözümlerine bir vizyon satıyor. Eğer yapay zekanın tümüyle güçlendiği ve tehlikeli olduğu bir gelecekte ise hükümetler onların ürünlerini satın almalı çünkü onlar sorumlu eylemciler. Aynı şekilde, OpenAI’nin Sam Altman’ı da, yapay zekanın riskleri hakkında büyük iddialarda bulunduğu için eleştirildi; bunun Washington’da politikaları etkileyip güç kazanmaya çalışma girişimi olduğu söyleniyor. ‘Yapay zeka o kadar güçlü ki dünyayı yok eder, ama bizde güvenli bir versiyonu var, size satabiliriz’ demek gibi…
Schmidt’in uyarıları, Başkan Trump’ın Biden dönemi yapay zeka güvenlik rehberlerini bırakıp, ABD’yi yapay zekada üstün bir güç yapmaya çalışması nedeniyle büyük bir etki yaratmayacak gibi görünüyor. Geçen Kasım’da, bir Kongre komisyonu Schmidt’in uyardığı AI Manhattan Projesi’ni önerdi ve Elon Musk ve Sam Altman gibi isimler Washington’da daha fazla etki kazandıkça bunun yankı bulması kolaylaşıyor. Eğer bu böyle devam ederse, makalede uyarıldığı üzere Çin gibi ülkeler, modelleri kasıtlı olarak bozmak veya fiziksel altyapıya saldırmak gibi şekillerde misillemede bulunabilirler. Bu, Microsoft gibi büyük ABD teknoloji şirketlerine sızan Çin için duyulmadık bir tehdit değil ve Rusya’nın su altındaki fiber optik kablolara saldırmak için yük gemileri kullandığı bildiriliyor. Tabi biz de aynısını onlara yaparız. Bu tamamen karşılıklı.
Dünyanın bu silahlarla oynamayı nasıl durduracağı belirsiz. Bu anlamda, savunmak için yapay zeka projelerini sabote etme fikri iyi bir şey olabilir.