Microsoft, Yapay Zeka Araçlarını Kötüye Kullanan Geliştiricileri İfşa Etti
Microsoft, yapay zekâ güvenliği konusundaki bağlılığını göstermek adına, geçen yıl açtığı bir davayı, AI araçlarının koruma kalkanlarını aşarak ünlülerin deepfake’lerini ürettiği iddia edilen dört geliştiriciyi ortaya çıkarmak için düzeltti. Şirket, bu davayı Aralık ayında açmıştı ve operasyona bağlı bir web sitesinin ele geçirilmesine izin veren bir mahkeme kararı, Microsoft’un bu bireyleri tanımlamasına yardımcı oldu.
Bu dört geliştiricinin, küresel bir siber suç ağı olan Storm-2139’un parçası olduğu bildiriliyor: İran’dan Arian Yadegarnia, namıdiğer “Fiz”; Birleşik Krallık’tan Alan Krysiak, namıdiğer “Drago”; Hong Kong’dan Ricky Yuen, namıdiğer “cg-dot” ve Vietnam’dan Phát Phùng Tấn, namıdiğer “Asakuri”.
Microsoft, bu planla ilgisi olan başka kişileri daha belirlediklerini söylüyor ancak devam eden soruşturmanın etkilenmemesi için henüz onları adlandırmak istemiyor. Microsoft’a göre grup, jeneratif yapay zekâ araçlarına erişimi olan hesapları ele geçirdi ve “jailbreak” yaparak istedikleri türde resimler oluşturabildi. Daha sonra bunlara erişimi başkalarına satarak ünlülerin deepfake çıplaklarını üretmek gibi kötüye kullanımlar gerçekleştirdiler.
Davanın açılması ve grubun web sitesine el konulmasının ardından, Microsoft sanıkların panik moduna girdiğini söyledi. “Bu web sitesine el konulması ve Ocak ayında yasal başvuruların açılması, aktörlerden bazılarını derhal tepki vermeye ve kimi durumlarda grup üyelerinin birbirlerini suçlamaya başlamalarına neden oldu,” diye belirtti blogunda.
Ünlüler, Taylor Swift de dahil olmak üzere, sık sık deepfake pornografinin hedefi olmuşlardır ki bu, gerçek bir kişinin yüzünün, çıplak bir bedene ikna edici şekilde yerleştirildiği işlemdir. Ocak 2024’te Microsoft, Swift’in sahte görüntüleri web üzerinde yayılmaya başlayınca metinden görüntüye modellerini güncellemek zorunda kalmıştı. Jeneratif yapay zekâ, pek fazla teknik bilgi gerektirmeden bu tür görüntülerin kolay bir şekilde oluşturulmasına olanak tanıdığından, bu durum ABD’deki liselerde bir salgın haline gelmiştir. Deepfake skandalları yaşayan liseler bunu deneyimlemektedir. Deepfake mağdurlarının son hikayeleri, görüntülerin dijital olarak oluşturulmasının mağdursuz bir eylem olmadığını, çünkü gerçek dünyada hedeflerin kendilerini endişeli, korkmuş ve onlara bu denli takıntılı birinin olduğunun bilinciyle ihlal edilmiş hissettirdiğini gösterecek niteliktedir.
AI topluluğunda, güvenlik konusunun gerçek mi olduğu yoksa OpenAI gibi büyük oyuncuların etki kazanmasına ve ürünlerini satmasına yardımcı olmak için mi tasarlandığı hakkında devam eden bir tartışma var. Bir grup, yapay zekâ modellerinin kapalı kaynak tutulmasının, kullanıcıların güvenlik kontrollerini devre dışı bırakma yeteneklerini sınırlayarak en kötü istismarların önlenmesine yardımcı olabileceği savunuldu; açık kaynak kampında olanlar ise, modellerin modifiye edilebilir ve geliştirilebilir hale getirilmesinin sektörün hızlanması için gerekli olduğuna ve istismarın engellenmesinin inovasyonu engellemeden mümkün olduğuna inanıyor. Her iki şekilde de, AI’nın internete yanlış bilgi ve kötü içerik doldurması daha yakın bir tehdit olup, bunlar daha acil endişe kaynağı olarak görülebilir.
Yapay zekâya dair birçok korku abartılı ve olasılık dışı görünse de ve yapay zekânın kendi başına ajans alacak kadar iyi olmadığı düşünülse de, deepfake oluşturma amacıyla kötüye kullanımı gerçektir. Modelin açık ya da kapalı olmasına bakılmaksızın bu istismarlar, hukuki yollarla ele alınabilir. ABD’de AI kullanarak çocukların deepfakelerini üreten kişilerin birçok tutuklanması oldu ve geçen yıl Kongre’de tanıtılan NO FAKES Yasası nın, birinin benzerliği temel alınarak görüntü üretmeyi suç sayacağı bildirildi. Birleşik Krallık, deepfake pornografinin dağıtımını cezalandırıyor ve yakında üretimini bile yasaklayacak. Avustralya, rızasız deepfake’lerin oluşturulmasını ve paylaşılmasını ceza kapsamına aldı.