Bir AI Modelini Hacklemeden Çalmanın Yolları: İllegal Yöntemlerden Uzak Durun!
Yapay zeka modelleri tahmin edilenden daha çalınabilir olabilir—özellikle modelin elektromanyetik imzasını bir şekilde keşfedebilirseniz. Daha açık sözlü olmamakla birlikte, yapay zeka ağlarına saldırmak isteyen insanlara yardım etmek istemediklerini sık sık vurgulayan North Carolina State Üniversitesi’nden araştırmacılar, bu tekniği anlatan bir yeni bir makale yayınladılar. Tek ihtiyaçları olan şey bir elektromanyetik prob, birkaç önceden eğitilmiş, açık kaynak kodlu yapay zeka modeli ve bir Google Edge Tensör İşlem Birimi (TPU) idi. Yöntemleri, bir TPU çipi aktif olarak çalışırken elektromanyetik radyasyonları analiz etmeyi içeriyor.
“Bir sinir ağını oluşturmak ve eğitmek oldukça maliyetli,” dedi çalışmanın baş yazarı ve NC State doktora öğrencisi Ashley Kurian, Gizmodo ile yaptığı bir görüşmede. “Bu, bir şirketin sahip olduğu bir fikri mülkiyet ve önemli miktarda zaman ve bilgisayar kaynağı gerektiriyor. Örneğin ChatGPT—milyarlarca parametreden oluşuyor, bu da onun sırrı. Biri bunu çaldığında, ChatGPT onların oluyor. Üzerine para ödemek zorunda değiller ve ayrıca satabilirler de.”
Hırsızlık, yapay zeka dünyasında zaten yüksek profilli bir endişe kaynağı. Genellikle, durum tam tersi oluyor; yapay zeka geliştiricileri modellerini izinsiz olarak telif hakkına sahip çalışmalar üzerinde eğitiyorlar. Bu yaygın eğilim, davaların ve hatta sanatçıların eserlerini savunmalarına yardımcı olmak için sanat jeneratörlerini “zehirleyen” araçların ortaya çıkmasına da sebep oluyor.
“Sensörden elde edilen elektromanyetik veriler, temelde bize yapay zekanın işlem davranışının bir ‘imzasını’ verir,” diye açıkladı Kurian bir açıklamada ve bunu “kolay kısım” olarak nitelendirdi. Ancak modelin hiperparametrelerini—yani mimarisi ve tanımlayıcı ayrıntılarını—anlamak için, elektromanyetik alan verilerini aynı tip çip üzerinde çalışan diğer yapay zeka modelleriyle karşılaştırmaları gerekiyordu.
Bunu yaparken, Kurian’ın açıkladığına göre, “AI modelinin bir kopyasını yapabilmemiz için mimari ve katman detayları olarak bilinen özgün özellikleri belirleyebildik,” ve bunu %99.91 doğrulukla yapabildiklerini ekledi. Araştırmacılar, bu başarıyı gerçekleştirmek için prob ve diğer modelleri çalıştırmak açısından çipe fiziksel erişim sağladılar. Ayrıca Google ile, çiplerinin ne ölçüde saldırıya açık olduğunu belirlemelerine yardımcı olmak üzere doğrudan çalıştılar.
Kurian, örneğin akıllı telefonlarda çalışan modellerin yakalanmasının da mümkün olacağını, ancak süper kompakt tasarımlarının elektromanyetik sinyalleri izlemeyi doğal olarak daha zorlu hale getireceğini öne sürdü.
“Edge cihazlarında yan kanal saldırıları yeni bir şey değil,” dedi AI standartları alanda kar amacı gütmeyen Atlas Computing’den güvenlik araştırmacısı Mehmet Sencan, Gizmodo’ya. Ancak bu özel teknik, “tüm model mimari hiperparametrelerini çıkarmak açısından önemli.” Çünkü yapay zeka donanımı “plaintext modunda çıkarım yapıyor,” diye açıkladı Sencan, “modellerini edge’de veya fiziksel olarak güvenli olmayan herhangi bir sunucuda dağıtan herkes, mimarilerinin kapsamlı bir prob kullanılarak çıkarılabileceğini varsaymak zorunda kalacaktır.”