Yapay Zeka

İnsanların Hala Yapay Zekadan Daha İyi Yaptığı Şeyler: Çiçekleri Anlamak

Yapay zekâ tehlikeli derecede zekileşiyor gibi görünse de, hala insanların anladığı bazı temel kavramları aynı şekilde kavrayamıyor.

Mart ayında, popüler büyük dil modellerinin (LLM’ler) zamanı söylemekte ve takvimleri yorumlamakta zorlandığını bildirmiştik. Şimdi, Nature Human Behaviour dergisinde bu hafta başında yayımlanan bir çalışma, ChatGPT gibi yapay zekâ araçlarının çiçekler gibi tanıdık kavramları insanlar kadar iyi anlayamadığını ortaya koyuyor. Makaleye göre, fiziksel kavramları doğru bir şekilde temsil etmek yalnızca metin ve bazen de görseller üzerinde eğitilmiş makine öğrenimi için zorluk arz ediyor.

Ohio State Üniversitesi’nde psikoloji alanında doktora sonrası araştırmacı ve çalışmanın baş yazarı olan Qihui Xu, üniversitenin bir açıklamasında bu durumu şöyle açıkladı: “Büyük bir dil modeli, bir gülü koklayamaz, bir papatyanın yapraklarına dokunamaz veya bir kır çiçeği tarlasının içinde yürüyemez. Bu duyusal ve motor deneyimlerden yoksun olduğunda, bir çiçeğin tüm zenginliğiyle ne olduğunu gerçekten temsil edemez. Bazı diğer insani kavramlar için de durum aynıdır.”

Xu ve ekibi, OpenAI’nin GPT-3.5 ve GPT-4 modelleri ile Google’ın PaLM ve Gemini’sini de içeren dört AI modelini 4,442 kelime üzerindeki kavramsal anlayışlarına göre test etti. İnceledikleri terimlerden bazıları çiçek, toynak, mizahi ve salıncaktı. Xu ve arkadaşları sonuçları iki standart psikolinguistik derecelendirme ile karşılaştırdılar: Glasgow Normları (duygular, tanıdıklık gibi duygulara dayalı kelime derecelendirmeleri) ve Lancaster Normları (duyusal algılar ve bedensel hareketlere dayalı kelime derecelendirmeleri).

Glasgow Normları yaklaşımı kapsamında, araştırmacılar çiçeğin ne kadar duygusal olarak etkileyici olduğu ve bir çiçeği hayal etmenin ne kadar kolay olduğu gibi sorular sordular. Lancaster Normları ise bir çiçeği ne kadar koklayabildiğiniz ve çiçeği ne kadar hissedebildiğiniz gibi soruları içeriyordu.

İnsanlarla karşılaştırıldığında, LLM’ler duyusal motor ilişkileri olmayan kelimeleri (örneğin “adalet” gibi kavramlar) güçlü bir şekilde anladıklarını gösterdi ancak fiziksel kavramlarla ilişkilendirilmiş kelimelerde (örneğin “çiçek” ki bu görüp, koklayıp ve dokunabildiğimiz bir şeydir) zorlandılar. Bunun nedeni oldukça basit—ChatGPT’nin gözleri, burnu veya duyusal nöronları (henüz) yok, dolayısıyla bu duyuları kullanarak öğrenemiyor. Bütün bir yaşam süresi boyunca insanın deneyimlediğinden daha fazla metin üzerinde eğitilse de en iyi yaptığı şey, tahmindir, diye açıkladı Xu.

Araştırmacılar çalışmalarında ve “Bir çiçeğin yoğun kokusundan, yapraklarını okşadığımızda hissettiğimiz ipeksi dokunuşa kadar, insanın ‘çiçek’ kavramını temsil etmesi, bu çeşitli deneyim ve etkileşimleri uyumlu bir kategori altında toplar. Bu tür bir kavramsal algısal öğrenme, bir kavramın birbirine bağlı anlamlar ve duyum güçleri haline geldiği yerde, sadece dil yoluyla gerçekleştirmek zor olabilir.”

Gerçekten de, yazı ve görseller üzerinde eğitilen LLM’ler, metin bazlı olan muadillerine göre görsel kavramları daha iyi anladıklarını gösterdi. Ancak bu, yapay zekânın sonsuza dek yalnızca dil ve görsel bilgi ile sınırlı kalacağı anlamına gelmiyor. LLM’ler sürekli gelişiyor ve bir gün duyusal motor veriler veya robotik yardımıyla fiziksel kavramları daha iyi temsil edebilirler, diyor Xu. Xu ve ekibinin çalışması, giderek (ve dürüst olmak gerekirse, endişe verici bir şekilde) yakınlaşan yapay zekâ-insan etkileşimleri için önemli sonuçlar taşıyor.

Şimdilik kesin olan bir şey var: “İnsan deneyimi, salt kelimelerin kapsayabileceğinden çok daha zengin,” diye sonlandırdı Xu.

Bir yanıt yazın