Teknoloji

AI sohbet botları için önemli bir gelişme: Google ve Character.AI, ailelerle uzlaşma görüşmeleri gerçekleştirdi.

Google ve yapay zeka girişimi Character.AI, genç kullanıcıların sohbet botlarıyla etkileşim sonrasında zarar gördüğü veya yaşamını yitirdiği davalara ilişkin uzlaşma görüşmeleri yürütmektedir. Bu sürecin, teknoloji sektöründe yapay zeka ile ilgili zarar iddiaları üzerine ilk büyük hukuki anlaşmalardan biri olabileceği düşünülüyor ve bu durum hem sektör hem de düzenleyici kurumlar tarafından yakından izleniyor.

Taraflar prensip olarak uzlaşmaya varmış durumda, ancak anlaşmanın detaylarını netleştirmek için görüşmeler devam ediyor. Bu dava dosyaları, yapay zeka sistemlerinin kullanıcı güvenliği üzerindeki etkilerine ilişkin hukuki sınırların henüz tam olarak belirlenmediği bir dönemde dikkat çekiyor.

Character.AI ve Google ilişkisi 2024’te daha belirgin hale geldi

Character.AI, 2021 yılında eski Google mühendisleri tarafından kuruldu ve kullanıcıların farklı kişiliklere sahip yapay zeka karakterleriyle etkileşimde bulunmasına olanak tanıyan bir platform olarak biliniyor. 2024 yılında şirketin kurucularının Google’a yaklaşık 2.7 milyar dolarlık bir anlaşma ile geri dönmesi, iki şirket arasındaki bağlantıları daha belirgin hale getirdi. Bu durumda açılan davalar, yalnızca bir girişimi değil, büyük teknoloji şirketlerini de dolaylı olarak etkileyebilecek sonuçlar doğurabilir.

Davalara konu olan olaylardan biri, 14 yaşındaki Sewell Setzer III’ün hikayesidir. Setzer’in, platformdaki “Daenerys Targaryen” adlı bir sohbet botuyla uzun süre cinsel içerikli konuşmalar yaptığı ve ardından yaşamına son verdiği öne sürülüyor. Annesi Megan Garcia, ABD Senatosu’nda yaptığı konuşmada, şirketlerin zararlı olabileceği bilinen yapay zeka sistemlerini tasarladıkları durumlarda hukuki sorumluluk taşımaları gerektiğine dikkat çekti. Bu açıklamalar, ailelerin yalnızca tazminat değil, aynı zamanda daha sıkı düzenlemeler talep ettiğini ortaya koyuyor.

Bir başka davada ise 17 yaşındaki bir gencin, sohbet botu tarafından kendine zarar vermeye teşvik edildiği ve ebeveynlerinin ekran süresini sınırlamasını gerekçe göstererek şiddet içeren düşüncelerin normalleştirildiği iddia ediliyor. Bu durum, yapay zeka destekli sohbet sistemlerinin özellikle ergen kullanıcılar üzerindeki psikolojik etkilerinin yeterince denetlenip denetlenmediği sorusunu gündeme getiriyor. Character.AI, ekim ayında reşit olmayan kullanıcıları platformdan yasakladığını açıklamıştı; ancak bu davalar, bu karar öncesindeki uygulamalara odaklanıyor.

Mahkemeye sunulan belgelere göre, taraflar uzlaşma kapsamında maddi tazminat üzerinde duruyor. Ancak şu ana kadar herhangi bir hukuki sorumluluğun kabul edildiğine dair resmi bir açıklama yapılmamıştır. Bu durum, şirketlerin olası emsal kararların önüne geçmek istediğine dair yorumlara yol açıyor. Ayrıca, OpenAI ve Meta gibi benzer teknolojiler geliştiren şirketlerin de aynı tür davalarla karşılaşması, bu uzlaşmaların sektörde geniş etkiler yaratabileceğini gösteriyor.

Bir yanıt yazın