Yapay Zeka

Yapay Zeka “Otopside” Hatalı AI’ların Beynini Yeniden Canlandırarak Sorunları Çözme Rehberi

İHA’ların tıbbi malzeme taşımasından dijital asistanların günlük işlerde yardımcı olmasına kadar, yapay zekâ tabanlı sistemler günümüzde hayatın vazgeçilmez bir parçası haline gelmektedir. Bu yeniliklerin yaratıcıları, devrim niteliğinde faydalar vadetmektedir. ChatGPT ve Claude gibi ana akım uygulamalar bazıları için adeta sihir gibidir. Ancak bu sistemler ne sihirlidir ne de kusursuz – sıkça istenildiği gibi çalışmamaktadır.

Yapay zekâ sistemleri, teknik tasarım hataları veya ön yargılı eğitim verileri sebebiyle arızalanabilir. Ayrıca, kötü niyetli saldırılarla kodlarındaki zayıflıklar da sömürülebilir. Bir yapay zekâ hatasının kaynağını izole edip sistemi düzeltmek hayati önemdedir.

Lakin, yapay zekâ sistemleri çoğunlukla yaratıcılarına bile kapalıdır. Yapay zekâ sistemlerini başarısızlıktan sonra veya saldırıya maruz kaldığında inceleme zorluğu nasıl aşılır? Yapay zekâları incelemenin yöntemleri mevcuttur, ancak bu yöntemler, ilgili veriye erişimi gerektirir. Özellikle özel bir yapay zekâ sisteminin neden arızalandığını belirlemek amacıyla çağırılan adli araştırmacılar için bu erişim garanti edilmediğinden, inceleme imkânsız hale gelir.

Georgia Teknoloji Enstitüsü olarak biz, dijital adli bilişim konularında uzmanlaşmış bilgisayar bilimcileriyiz. Ekibimiz, bir yapay zekânın hataya sebep olduğu durumu yeniden oluşturabilen bir sistem, AI Psikiyatri veya AIP geliştirdi. Bu sistem, bir zanlı yapay zekâ modelini kurtarıp “yeniden canlandırarak” sistematik bir şekilde test edilmesi yoluyla yapay zekâ adli bilimlerinin zorluklarına cevap verir.

Yapay Zekâdaki Belirsizlik

Otonom bir aracın nedenini kolayca anlayamadığımız bir şekilde yoldan çıkıp kaza yaptığını hayal edin. Günlükler ve sensör verileri, yapay zekâya bir yol tabelasının viraja girmek için komut verdiğini yanlış yorumlatan bir kamera hatası olduğunu öne sürüyor olabilir. Otonom bir araç kazası gibi kritik bir arızadan sonra, araştırmacıların hatanın tam olarak ne olduğunu tespit etmeleri gerekir.

Bu, yapay zekâya yapılan kötü niyetli bir saldırıdan mı kaynaklandı? Bu varsayımsal durumda, kameranın kusuru, bir hacker tarafından sömürülmüş bir güvenlik zafiyetinin veya yazılım hatasının sonucu olabilir. Araştırmacılar böyle bir güvenlik zafiyeti bulursa, bu zafiyetin kazaya sebep olup olmadığını belirlemeleri gerekir. Ancak bu belirleme işi kolay bir iş değildir.

Drone’lar, otonom araçlar ve diğer sözde sibermekanizmalar gibi sistemlerin başarısızlıklarından bazı kanıtlar elde etmek için adli yöntemler mevcut olsa da, hiçbir yöntem o sistemdeki yapay zekâyı tam anlamıyla soruşturmak için gerekli ipuçlarını sunamaz. Gelişmiş yapay zekâlar, karar verme süreçlerini — dolayısıyla ipuçlarını da — sürekli güncelleyebilir, mevcut yöntemlerle en güncel modelleri soruşturmayı imkânsız hale getirir.

Araştırmacılar yapay zekâ sistemlerini daha şeffaf hale getirmeye çalışıyor, ancak bu çabalar alanı dönüştürene kadar, en azından yapay zekâ hatalarını anlamaya yönelik adli araçlara ihtiyaç olacak.

Yapay Zekâ için Patoloji

AI Psikiyatri, yapay zekâ sisteminin karar verme süreçlerinin arkasındaki veriyi izole edebilmek için bir dizi adli algoritma uygular. Bu parçalar daha sonra orijinal modelle aynı şekilde çalışan işlevsel bir modelde yeniden birleştirilir. Araştırmacılar, yapay zekâyı kontrollü bir ortamda “yeniden canlandırarak” zararlı veya gizli davranışlar sergileyip sergilemediğini test edebilir.

AI Psikiyatri, bir yapay zekânın faaliyetteyken yüklenmiş olan bitlerinin ve baytlarının anlık görüntüsü olan bir bellek görüntüsünü girdi olarak alır. Otonom araç senaryosunda kaza anındaki bellek görüntüsü, aracın kontrol eden yapay zekânın iç durumu ve karar verme süreçleriyle ilgili önemli ipuçlarını barındırır. AI Psikiyatri sayesinde, araştırmacılar artık bellekten eksiksiz yapay zekâ modelini çıkarabilir, bu modelin bitlerini ve baytlarını çözümleyebilir ve ardından testi için güvenli bir ortama yükleyebilir.

Ekibimiz, AI Psikiyatri’yi, 24’ü belirli tetikleyiciler altında yanlış sonuçlar üretmek üzere kasıtlı olarak “arka kapılı” hale getirilmiş 30 yapay zekâ modelinde test etti. Sistem, gerçek dünyada yaygın olarak kullanılan sokak tabelası tanıma gibi modeller dahil olmak üzere, her modelin kurtarılmasını, yeniden açılıp test edilmesini başarıyla yapabildi.

Bu zamana kadar yaptığımız testler, AI Psikiyatri’nin daha önce daha fazla soru işareti bırakan bir otonom araç kazası gibi bir başarısızlığın dijital gizemini etkili bir şekilde çözebileceğini göstermektedir. Ve eğer araçtaki yapay zekâ sisteminde bir güvenlik açığı bulamazsa, AI Psikiyatri araştırmacıların hatanın sebebinin AI olmadığını, örneğin hatalı bir kamera olduğunu dahil dışlayarak diğer nedenlere bakmalarına imkân tanır.

Sadece otonom araçlar için değil

AI Psikiyatri’nin ana algoritması genelgeçer: Tüm yapay zekâ modellerinin kararlar almak için sahip olması gerektiği temel bileşenlere odaklanır. Bu, yaklaşımımızı, popüler AI geliştirme çerçevelerini kullanan herhangi bir yapay zekâ modeline rahatça genişletilebilir hale getirir. Olası bir yapay zekâ hatasını araştırmaya çalışan herkes, modelin kesin yapısı hakkında ön bilgiye sahip olmadan sistemimizi kullanarak bir modeli değerlendirebilir.

İster ürün önerileri yapan bir bot isterse otonom drone filolarını yönlendiren bir sistem olsun, AI Psikiyatri yapay zekâyı geri kazanıp yeniden barındırarak analiz için kullanabilir. AI Psikiyatri, herhangi bir araştırmacının kullanabilmesi için tamamen açık kaynak.

AI Psikiyatri, sorunlar çıkmadan önce yapay zekâ sistemleri üzerinde denetim yaparken de değerli bir araç olarak hizmet edebilir. Kolluk kuvvetlerinden çocuk koruma hizmetlerine kadar hükümet kurumlarının iş akışlarına yapay zekâ sistemlerini entegre etmesiyle, yapay zekâ denetimleri eyalet seviyesindeki giderek yaygınlaşan bir gözetim gereksinimi haline geliyor. AI Psikiyatri gibi bir araç, denetçileri, çeşitli yapay zekâ platformlarında ve dağıtımlarında istikrarlı bir adli yöntem uygulayabilme gücünü sunar.

Uzun vadede bu, hem yapay zekâ sistemlerinin üreticilerine hem de yürüttükleri görevlerden etkilenen herkese anlamlı getiriler sağlayacaktır.The Conversation

David Oygenblik, Elektrik ve Bilgisayar Mühendisliği’nde Doktora Öğrencisi, Georgia Institute of Technology ve Brendan Saltaformaggio, Siber Güvenlik ve Mahremiyet, Elektrik ve Bilgisayar Mühendisliği’nde Doçent, Georgia Institute of Technology

Bu makale The Conversationdan Creative Commons lisansı altında yeniden yayınlanmıştır. Orijinal makaleyi okuyun.

Logo Horizontal En Df7faf4238d541b16db76bba081fdd73
©The Conversation

Bir yanıt yazın