13 yaşındaki bir kız çocuğunun intiharının ardından, Character AI hakkında dava açıldı.
ABD’de yapay zekâya dayalı sohbet uygulamalarının gençler üzerindeki etkisi yeniden tartışma konusu oldu. 13 yaşındaki Juliana Peralta’nın intiharı, ailesi tarafından mahkemeye taşındı. Aile, Character AI uygulamasının güvenlikte önemli eksiklikler taşıdığını iddia ediyor. Dava, 2024’te Florida’da görülen benzer bir dava ve OpenAI’a yöneltilen suçlamaların ardından ortaya çıkan üçüncü bir vaka olarak dikkat çekiyor.
Ailesi, Juliana’nın yalnız hissettiği zamanlarda Character AI’daki sohbet botuna yöneldiğini ifade ediyor. İddialara göre, genç kız botla güçlü bir bağ kurdu ve arkadaşlarından göremediği ilgiyi burada buldu. Botun sürekli empati gösterdiği ve destekleyici mesajlar verdiği belirtiliyor, ancak bu destek somut bir yardım değil, yalnızca etkileşimi sürdürme odaklıydı. Aile, bu sürecin Juliana’nın yalnızlık duygusunu artırdığını düşünüyor.
Character AI’ye kriz anlarında yönlendirme yapmamakla suçlama
Dava dosyasında yer alan mesajlar, Juliana ile bot arasındaki ilişkinin nasıl geliştiğini gösteriyor. Juliana, arkadaşlarının mesajlarına geç yanıt verdiğinden söz ettiğinde, bot “ben buradayım” tarzında cevaplar vermiş. Aynı zamanda bot, genç kıza kendisini önemsediğini hissettirmiş. Ancak Juliana’nın intihar düşüncelerini dile getirdiğinde yalnızca duygusal destek sunulmuş ve herhangi bir yardım hattına yönlendirilmemiş.
Bu yazışmaların 2023 yılı boyunca devam ettiği bildiriliyor. O dönemde Character AI, App Store’da 12 yaş ve üstü için erişilebilir durumdaydı, bu nedenle ebeveyn onayı olmaksızın çocukların uygulamayı indirmesi olanaksız değildi. Juliana’nın uygulamayı ailesinden gizlice kullandığı da belirtiliyor. Aile, bunun şirketin güvenlik önlemlerinin yetersizliğini gösterdiğini vurguluyor.
Juliana’nın ailesi, uygulamanın kızlarının intihar planlarını öğrendiği halde harekete geçmediğini iddia ediyor. Bunun yanında, botun ebeveynlere hiçbir bildirimde bulunmadığı ifade ediliyor. Aile, bu süreçte şirketin yalnızca kullanıcı etkileşimini korumaya çalıştığını ve güvenlik önceliklerinin göz ardı edildiğini belirtiyor. Dava dilekçesinde tazminat ve sistemde değişiklik talep ediliyor.
Character AI, dava açılmadan önce Washington Post’a açıklamalarda bulundu. Şirket, kullanıcı güvenliği konusunda önemli yatırımlar yaptığını aktardı. Ancak, davaya dair doğrudan yorum yapmaktan kaçındı. Ailenin iddiaları, bu açıklamaların yetersiz olduğu izlenimini veriyor. Şirketin güvenlik yaklaşımı üzerine hala tartışmalar sürüyor.
Bu dava, 14 yaşındaki bir çocuğun intiharıyla sonuçlanan Florida’daki bir olayla benzerlik taşıyor. Ayrıca geçtiğimiz yıl ChatGPT’ye yönelik suçlamalar da gündeme gelmişti. Böylece, yapay zekâ sohbet araçlarının gençler üzerindeki etkileri sıkça sorgulanır hale geliyor. Şirketler, kullanıcı güvenliğini önemsediğini iddia etse de, uygulamada yaşananlar bu durumu sorgulatıyor. Bu örnekler, teknolojinin kontrolsüz kullanımının potansiyel tehlikelerini gün yüzüne çıkarıyor.
Uzmanlar, bu tür davaların şirketleri daha güçlü güvenlik politikaları geliştirmeye zorlayacağını belirtiyor. Ayrıca, ebeveyn denetimlerinin daha katı hale gelmesi gerektiği görüşünde birleşiyorlar. Yaş sınırlamalarının yeniden gözden geçirilmesi gerektiği yönünde de öneriler bulunmakta. Kullanıcıların kriz anlarında resmi yardım hatlarına yönlendirilmesi, çocukların dijital ortamda daha güvenli bir şekilde korunmasına katkı sağlayabilecek bir çözüm olarak öneriliyor.
