
Meta, ürün güvenliği denetiminde insan faktörünü geri plana itiyor.
Meta, platformlarında gerçekleştireceği ürün güncellemeleri ve yeni özelliklerin güvenlik değerlendirmelerini önemli ölçüde yapay zekâya devretmeye hazırlanıyor. Şirketin iç iletişimlerine dayanan verilere göre, insan kararları, ürün risk değerlendirmelerinde makinelere bırakılacak. Meta’nın hedefi, bu süreçlerin en az yüzde 90’ını yapay sistemlerle yürütmek. Bu oran, daha önce büyük ölçüde insan uzmanların katkılarıyla yapılmış olan bir alan için oldukça çarpıcı.
Yeni sistemde, ürün geliştirme ekiplerinin öncelikle bir anket formu doldurmaları gerekiyor. Geliştirilen özelliğin doğası, potansiyel etkileri ve kullanıcı davranışları üzerindeki etkileri gibi unsurlar bu formda yer alıyor. Yapay zekâ, bu verileri analiz ederek anında bir karar sunuyor ve riskli alanları otomatik olarak belirliyor. Ürün ekipleri ise bu geri bildirimlere dayanarak düzenlemelerini tamamladıktan sonra güncellemeyi kullanıma alabiliyorlar.
Meta, genç kullanıcıların güvenliği için yapay zekâyı önceliklendiriyor
Meta’nın yeni değerlendirme sistemi yalnızca teknik risklerle sınırlı kalmıyor. Genç kullanıcıların güvenliği, şiddet içeren içerikler ve yanlış bilgi yayılımı gibi sosyal etkilere sahip konular da yapay zekâya devrediliyor. Şirket, “bütünlük” olarak adlandırdığı kritik alanlarda algoritmaların karar vermesini planlıyor. Ancak bu yaklaşım, içerik güvenliğinin insan sezgisiyle daha az ilişkilendirilmesi anlamına geliyor.
Meta içinde ve dışındaki bazı uzmanlar bu yaklaşımın ciddi riskler taşıyabileceği konusunda uyarıda bulunuyor. Eski bir Meta yöneticisi, denetimin azaltılmasının daha fazla dışsal olumsuz sonuçlara yol açabileceğini savunuyor. Daha önce insanlar tarafından önlenebilen zararların, bu sistemle gözden kaçabileceği ifade ediliyor. Özellikle sosyo-kültürel etkileri büyük olan güncellemelerde bu risk daha belirgin hale geliyor.
Platformda yapılacak her değişikliğin toplumsal etkisini düşündüğümüzde, algoritmaların yetersiz kaldığı durumlar geçmişte de kaydedilmiştir. Otomatik karar sistemleri bazen bazı içerikleri yanlışlıkla kaldırırken, bazılarını ise gözden kaçırabiliyor. Şiddet içeren ya da tacize varan içeriklerin denetiminde yapay zekânın sınırlı kaldığına dair çok sayıda geri bildirim mevcut. Bunun yanı sıra, yapay zekâ etik değerlendirmelerde insan kadar esnek olamıyor.
Meta’nın yakın zamanda yayımladığı üç aylık bütünlük raporu da dikkat çekici bulgular sunuyor. Yeni içerik politikaları sonrasında platformdan kaldırılan içerik sayısında belirgin bir düşüş gözlemleniyor. Ancak, zorbalık, tehdit ve grafik içeriklerde küçük bir artış dikkat çekiyor. Bu durum, yapay zekâ merkezli sistemin güvenlik konusunda sınırlı bir etki sağladığına işaret ediyor olabilir.
Meta yetkilileri, bu geçişin tamamen otomatikleşmesi anlamına gelmediğini vurguluyor. Şirket sözcülerine göre, karmaşık durumlarda hâlâ insan uzmanlar devreye girecek. Düşük riskli kararlar ise algoritmalara bırakılacak. Ancak, bu ayırımın sınırlarının nasıl belirleneceği netlik kazanmıyor.
Gerçekleşen bu değişiklik, teknoloji sektöründe yükselen otomasyon eğiliminin bir yansıması olarak değerlendiriliyor. Şirketler, hız ve ölçeklenebilirlik sağlamak amacıyla karar süreçlerini dijital hale getirme yolunu seçiyor. Ancak, kullanıcı güvenliğini etkileyen alanlarda alınan bu tür kararlar arasında denge sağlamak zor olabiliyor. Kullanıcılardan gelen tepkiler ve gelecekte yaşanabilecek sorunlar, bu sistemin işleyişini etkileyecek unsurlar arasında yer alıyor.