
Meta’nın Yeni AI Modeli Daha Az ‘Woke’, Elon’un Grok’ına Daha Çok Benziyor
Meta, en son yapay zeka modeli Llama 4’ün önceki modellerine göre daha az politik olarak önyargılı olduğunu belirtti. Şirket, bunu kısmen modelin daha fazla politik olarak bölücü soruya yanıt vermesine izin vererek başardığını ve Llama 4’ün, Elon Musk’ın xAI adlı girişiminden çıkan, politik eğilim içermeyen Grok ile olumlu bir şekilde karşılaştırılabilir hale geldiğini de ekledi.
Meta, “Amacımız yapay zeka modellerimizden önyargıyı kaldırmak ve Llama’nın tartışmalı konuların her iki tarafını da anlayıp ifade edebilmesini sağlamak,” diyor. “Bu çalışmanın bir parçası olarak, Llama’yı daha duyarlı hale getirmeye devam ediyoruz, böylece soruları yanıtlayabilir, farklı bakış açılarına yanıt verebilir ve herhangi bir görüşü diğerlerine tercih etmez.”
Birkaç şirket tarafından geliştirilen büyük modellerin eleştiricileri, kontrol edilebilecek bilgi alanında yaratabileceği türde bir endişe dile getirmektedir. Sonuçta, yapay zeka modellerini kontrol eden, insanların aldığı bilgileri de kontrol edebilir ve istedikleri yönde yönlendirebilir. Bu yeni bir durum değil elbette. İnternet platformları uzun süredir hangi içeriği öne çekeceklerini belirlemek için algoritmalar kullanıyorlar. Bu nedenle Meta, birçok muhafazakar tarafından saldırıya uğramaya devam ediyor; birçok kişi, şirketin sağ eğilimli görüşleri bastırdığını iddia ediyor, oysa ki muhafazakar içerik Facebook’ta tarihsel olarak çok daha popülerdi. CEO Mark Zuckerberg, düzenleyici baş ağrılarından kaçınmak için yönetimle iyilik kurmaya çalışıyor.
Meta, blog yazısında, Llama 4’te yaptığı değişikliklerin modelin daha az liberal olmasını sağlama amaçlı olduğunu vurguladı. “Önde gelen tüm LLM’lerin önyargılarla ilgili sorunları olduğu iyi biliniyor – özellikle, internet üzerinde mevcut olan eğitim verileri türlerinden dolayı, tartışmalı politik ve sosyal konular bakımından tarihsel olarak sola yatkın olmuşlardır” diye yazdı. Şirket, Llama 4’ü eğitmek için kullanılan verileri açıklamamış olsa da, Meta ve diğer model şirketlerinin yetkisiz kitap ve web siteleriyle alakalı verileri kullandığı iyi biliniyor.
“Denge” için optimize etmenin sorunlarından biri, yanlış bir eşdeğerlik yaratıp iyi niyetli olmayan, bilimsel verilere dayanmayan argümanlara güvenilirlik kazandırmasıdır. Halk arasında “her iki tarafa da kulak verme” olarak bilinen bazı medya kuruluşlarının, bir taraf veri bazlı bir argüman yaparken diğer tarafın komplo teorileri yaydığı durumda bile karşıt görüşlere eşit ağırlık verme sorumluluğunu hissetmesi olarak bilinir. QAnon gibi bir grup ilginçtir, ancak çok sayıda Amerikalıyı temsil etmeyen bir kenar harekettir ve belki de hak ettiğinden daha fazla medya ilgisi görmüştür.
Önde gelen yapay zeka modelleri hala sık sık yanlış bilgi üretme, bilgi uydurma ve yalan söyleme gibi sorunlar yaşamaktadır. Yapay zekanın birçok kullanışlı uygulaması var, ancak bir bilgi toplama sistemi olarak tehlikelidir. Büyük dil programları kesin olmayan bilgileri güvenle yaymaktadır ve bir web sitesinin meşru olup olmadığını sezgisel olarak değerlendirme yöntemlerinin hepsi geçerliliğini yitirmektedir.
Yapay zeka modellerinin önyargı problemleri var – örneğin görüntü tanıma modelleri, renkli insanları tanımada sorun yaşandığını bildirmiştir. Kadınlar ise genellikle açık kıyafetlerle cinselleştirilerek gösterilir. Önyargı daha masum görünen şekillerde de ortaya çıkabilir: AI tarafından üretilen metni, sık sık gazete yazarlarının ve bu modelleri eğitmek için kullanılan içerikleri üreten diğer yazarların tercih ettiği bir vurgu işareti olan tire işaretinin sık görüldüğü metinlerden anlamak kolay olabilir. Modeller genellikle genel halkın popüler, ana akım görüşlerini yansıtır.
Ancak Zuckerberg, Başkan Trump’ın desteğini kazanmak için bir fırsat görüyor ve siyasi olarak uygun olduğunu düşündüğü adımları atıyor, bu yüzden Meta özellikle modelinin daha az liberal olacağını ilan ediyor. Yani bir dahaki sefere Meta’nın yapay zeka ürünlerini kullandığınızda, COVID-19’u at sakinleştiricileri kullanarak tedavi etmenin avantajlarını savunan bir yanıtla karşılaşabilirsiniz.