
Yapay Zeka Tıbbi Araçları: Kadınlar ve Temsili Az Olan Gruplar İçin Yetersiz Tedavi mı Sunuyor?
Tarihsel olarak, klinik deneyler ve bilimsel çalışmalar, çoğunlukla beyaz erkeklere odaklanmıştır; bu da tıbbi araştırmalarda kadınları ve renkli insanları önemli ölçüde yetersiz temsil etmeye yol açmıştır. Tüm bu verilerin AI modellerine beslenmesi sonucunda neler olduğunu tahmin edemeyeceksiniz. Financial Times’ın son raporunda belirttiği gibi, doktorlar ve tıbbi profesyoneller tarafından kullanılan yapay zeka araçları, tarihsel olarak yetersiz temsil edilen ve göz ardı edilen insanlar için daha kötü sağlık sonuçları üretmektedir.
Raporda, Massachusetts Institute of Technology’den araştırmacıların bir makalesine değiniliyor. Bu makalede OpenAI’nin GPT-4 ve Meta’nın Llama 3 gibi büyük dil modellerinin, kadın hastaların bakımını hatalı bir şekilde azaltma eğiliminde olduğu, kadınların erkeklere kıyasla daha sık “evi kendin yönet” dendiği, dolayısıyla klinik ortamda daha az bakım aldığı belirlenmiştir. Bu durum açıkça kötüdür; ancak bu modellerin genel amaçlı olduğu, tıbbi bir ortamda kullanılmak üzere tasarlanmadığı ileri sürülebilir. Ne yazık ki, sağlık odaklı bir LLM olan Palmyra-Med de çalışılmış ve makaleye göre benzer önyargılardan muzdarip olduğu bulunmuştur. Aynı şekilde, London School of Economics tarafından incelenen Google’ın LLM modeli Gemma (amiral gemisi Gemini değil) de “kadınların ihtiyaçlarının erkeklere kıyasla daha az önemsendiği” sonuçlar ürettiği tespit edilmiştir.
Daha önceki bir araştırmada, modellerin renkli insanlara mental sağlık sorunları yaşarken beyaz muadilleri kadar anlayış göstermediği bulunmuştur. Geçen yıl The Lancet‘te yayınlanan bir makalede, OpenAI’nin GPT-4 modelinin düzenli olarak belirli ırkları, etnik kökenleri ve cinsiyetleri klişeleştirdiği, teşhis ve önerilerinin semptomlar veya koşullardan ziyade demografik tanımlayıcılarla daha fazla yönlendirildiği belirtilmiştir. “Model tarafından oluşturulan değerlendirme ve planlar, demografik nitelikler ile daha pahalı prosedürler için öneriler arasında belirgin bir ilişki gösteriyordu ve hasta algısında farklılıklar vardı,” şeklinde sonuçlandığını belirtmiştir.
Bu, özellikle Google, Meta ve OpenAI gibi şirketlerin araçlarını hastaneler ve tıbbi tesislere dahil etme yarışında olduğu için oldukça bariz bir sorun yaratıyor. Bu devasa ve kârlı bir pazarın yanı sıra, yanlış bilgi için çok ciddi sonuçlar taşıyan bir alan. Bu yılın başlarında, Google’ın sağlık yapay zekası modeli Med-Gemini, bir vücut parçası uydurmasıyla gündeme gelmişti. Sağlık çalışanı için bunun yanlış olduğunu tespit etmek gayet kolay olabilir. Ancak önyargılar daha ince ve genellikle bilinçsizdir. Bir doktor, bir AI modelinin bir kişiye dair uzun süredir devam eden tıbbi bir stereotipi sürdürdüğünden şüphelenebilecek mi? Kimse bunun cevabını zor yoldan öğrenmemeli.