Alaska’lı Adam Yapay Zeka CSAM’ı İhbar Etti, Sonra Kendisi Aynı Suçtan Tutuklandı!
Eğer biri hakkında çocuk cinsel istismarı materyaline (CSAM) ilgilerini size ifade ettikleri için polise ihbarda bulunacaksanız, aynı materyalin kendi cihazlarınızda da bulunmaması belki de iyi bir fikir olabilir. Aynı zamanda polise daha fazla bilgi toplamak için cihazlarınıza erişim izni vermek de önerilmez. Ancak iddialara göre, Alaska’da yaşayan bir adam tam da bunu yaptı ve bu yüzden gözaltına alındı.
404 Media, bu hafta Anthaney O’Connor isimli adamın tutuklandığını bildirdi. Polisin cihazlarında yapay zeka tarafından üretilmiş çocuk cinsel istismarı materyali bulunduğu iddia ediliyor.
404’ten:
Yeni dosyalanan suç duyurularına göre, Anthaney O’Connor, Ağustos ayında adını açıklamadığı bir hava kuvvetleri mensubunun kendisiyle çocuk cinsel istismarı materyalini (CSAM) paylaştığını yetkililere bildirdi. Suçu araştırırken O’Connor’un rızasıyla, federal yetkililer cihazlarını daha fazla bilgi için aradı.
Polis, kimliği belirsiz hava kuvvetleri mensubunun, O’Connor ile bir bakkalda çekilen bir çocuk fotoğrafını paylaştığını ve ikisinin bu çocuğu sanal bir dünyada müstehcen şekillerde nasıl gösterebileceklerini konuştuğunu belirtiyor.
Emniyet güçleri, O’Connor’un cihazlarında en az altı müstehcen yapay zeka tarafından oluşturulan CSAM görüntüleri bulduklarını iddia ediyor. Bunların kasıtlı olarak indirildiğini ve birkaçı da yanlışlıkla eklenmiş “gerçek” görüntüler olduğu belirtildi. O’Connor’un evinde yapılan aramada ise havalandırmada gizlenmiş bir bilgisayar ve birçok sabit disk bulundu; bilgisayarın incelemesinde 41 saniyelik bir çocuk tecavüz videosu ortaya çıktı.
Yetkililerle yapılan bir röportajda, O’Connor düzenli olarak internet servis sağlayıcılarına CSAM bildirdiğini ancak yine de görüntülerden ve videolardan cinsel olarak tatmin olduğunu söyledi. Hava kuvvetleri mensubunu neden ihbar ettiği bilinmiyor. Belki de vicdan azabı çekti ya da belki de yapay zeka tarafından oluşturulan CSAM’lerinin yasaları çiğnemediğine gerçekten inanıyordu.
Yapay zeka görsel oluşturucular genellikle gerçek fotoğraflar kullanılarak eğitilir; yani yapay zeka tarafından “üretilen” çocuk resimleri temelde gerçek görsellere dayanmaktadır. İkisini ayırt etmenin bir yolu yok. Yapay zeka tabanlı CSAM bu anlamda mağdursuz bir suç değildir.
Geçen Mayıs ayında FBI, Stable Diffusion kullanarak “binlerce prepubescent çocuk resmi” oluşturduğu için bir adamı tutukladığında birinin yapay zeka ile üretilen CSAM bulundurması nedeniyle yapılan ilk tutuklama gerçekleşti.
Yapay zeka savunucuları, her zaman Photoshop ile reşit olmayanların müstehcen görüntülerini oluşturmanın mümkün olduğunu, ancak yapay zeka araçlarının bunu herkes için çok daha kolay hale getirdiğini söyleyecektir. Son raporlar, her altı Kongre kadınından birinin yapay zeka tarafından üretilen deepfake pornolarla hedeflendiğini gösteriyor. Birçok ürünün, yazıcının para kopyalamayı engellemesi gibi, en kötü kullanımları önlemek için korumaları vardır. Engelleyicilerin uygulanması en azından bu davranışların bazılarını önler.