Teknoloji

GPT-5.2’nin bazı içeriklerinde Grokipedia referansları yer aldı. Eğitim verilerim ise Ekim 2023’e kadar olan bilgileri kapsamaktadır.

OpenAI, profesyonel kullanıcıları hedefleyen GPT-5.2 modeli ile dikkat çekiyor. Aralık ayında piyasaya sürülen bu model, belirli ve karmaşık konu başlıklarına yanıtlarını Grokipedia referanslarıyla sunmaya başladı. Bu durum, bilgi doğruluğu ve kaynak seçimindeki yaklaşımları yeniden tartışmaya açtı. Tartışmalar, modelin genel performansından ziyade, belirli başlıklardaki kaynak kullanımına odaklanıyor.

Yapılan incelemeler, ChatGPT arayüzü üzerinden gerçekleştirilen sorgularda çıkan referanslara dayanıyor. Özellikle İran ile ilgili iddialar ve tarihsel tartışmalar bağlamında, modelin Grokipedia içeriklerine yöneldiği görülüyor. Ancak bazı siyasi sorularda benzer bir kaynağın kullanılmaması, kaynak seçiminde belli kriterlerin mevcut olabileceğini düşündürüyor. Buna karşın, bu ayrım kesin bir çerçeve sunmuyor.

Guardian tarafından gerçekleştirilen testler, OpenAI‘ın uzun zamandır vurguladığı “geniş kaynak havuzu” kavramını bir kez daha gündeme taşıdı. Testlerde, İran devleti ile MTN-Irancell arasındaki ilişkilerle ilgili yanıtların Grokipedia referanslı şekilde sunulduğu gözlemlendi. Bunların yanı sıra, Holokost inkârcısı David Irving’in iftira davasındaki bilirkişi olarak yer alan tarihçi Richard Evans hakkında üretilen içeriklerde de benzer bir durum tespit edildi. Ancak medya yanlılığı gibi bazı popüler siyasi konularda model, farklı kaynaklara yöneldi.

Bunlar ışığında, kaynak seçiminde bağlama göre değişiklik olduğu anlaşılıyor. Ancak bu tutarsızlık, dışarıdan bakıldığında belirli bir sistem duygusu yaratmıyor. Bu nedenle tartışmanın odağı, modelin yanıt verme yeteneğinden çok, bilgi altyapısının şeffaflığına kayıyor.

OpenAI, kaynak çeşitliliğini savunuyor, tartışmalar sürüyor

Grokipedia, xAI tarafından desteklenen çevrimiçi bir ansiklopedi olarak GPT-5.2’den önce hayata geçirildi. Hızla dikkat çeken bu platform, bazı maddelerinde neo-Nazi forumlarına göndermeler içermesi sebebiyle eleştirilerin hedefi oldu. ABD merkezli bir akademik araştırma, ansiklopedide “sorunlu” ve doğrulanması güç kaynakların bulunduğunu ortaya koydu. Ancak yine de GPT-5.2, belirli konularda bu içerikleri bilgi akışına dahil etti.

OpenAI, Guardian’a verdiği demeçte, modelin “kamuya açık birçok kaynak ve bakış açısını” analiz ettiğini belirtti. Şirket, yüksek riskli zararlara yol açabilecek bağlantıları azaltmak için güvenlik filtreleri uyguladığını da vurguladı. Ayrıca, kaynakların kullanıcıya şeffaf bir şekilde sunulduğunu ifade etti. Fakat bu yaklaşım, kaynakların güvenilirliğini artırma riskini ortadan kaldırmıyor.

Burada önemli bir nokta öne çıkıyor. Bir yapay zekâ modeli, bir kaynağı referans gösterdiği anda, o kaynağı bilgi ekosisteminin görünür bir parçası hâline getiriyor. Bu durum, tartışmalı platformların AI yanıtları aracılığıyla meşruiyet kazanmasına yol açabiliyor. Ayrıca, farklı modellerin benzer kaynaklara yönelmesi, problemin yalnızca bir ürünle sınırlı olmadığını gösteriyor.

GPT-5.2, tablo oluşturma, karmaşık görevleri yönetme ve profesyonel iş akışlarını destekleme gibi alanlarda yetkinlik göstermekte. Ancak modelin hangi bilgiyi ne kaynaktan aldığı meselesi, bu yeteneklerin önüne geçen bir tartışma konusu haline geldi. Kaynak seçimindeki bu belirsizlik, yapay zekâ sistemlerinin doğruluk ve şeffaflık beklentilerini yeniden gündeme getiriyor.

Bir yanıt yazın