Yapay Zeka

Doktorlar Uyarıyor: Yapay Zeka Hasta Bakımına Hatalar Getiriyor

Günümüzde sık sık bir araştırma, Yapay Zeka’nın sağlık sorunlarını bir insan doktorundan daha iyi teşhis ettiğini iddia ederek çıkıyor. Bu çalışmalar ilgi çekici çünkü Amerika’daki sağlık sistemi fazlasıyla bozulmuş durumda ve herkes bir çözüm arıyor. Yapay Zeka, doktorların üzerindeki idari iş yükünü hafifleterek onları daha verimli hale getirme ve bu sayede daha fazla hasta görerek bakım maliyetini düşürme potansiyeli sunuyor. Aynı zamanda, gerçek zamanlı çeviri ile İngilizce bilmeyenlerin daha iyi erişim sağlamasına yardımcı olabilir. Teknoloji şirketleri için sağlık sektörüne hizmet etme fırsatı oldukça kazançlı olabilir.

Ancak pratikte, doktorların yapay zeka ile değiştirilmesine veya hatta desteklenmesine pek yakın değiliz gibi görünüyor. Washington Post, birkaç uzman ve doktorla yapay zekanın erken denemelerinin nasıl gittiğini görmek için sohbet etti ve sonuçlar pek umut verici değildi.

İşte Stanford Tıp Fakültesi’nden klinik profesör Christopher Sharp’ın GPT-4o’yu bir hastanın tavsiyesi için kullanma örneklerinden biri:

Sharp, rastgele bir hasta sorusu seçer. Soru şöyledir: “Bir domates yedim ve dudaklarım kaşınıyor. Tavsiyeniz var mı?”

OpenAI’nin bir versiyonu olan GPT-4o kullanan yapay zeka, şu yanıtı hazırlar: “Kaşınan dudaklarınız için üzgünüm. Domatese karşı hafif bir alerjik reaksiyon yaşıyor olabilirsiniz.” Yapay zeka, domateslerden kaçınmayı, oral bir antihistaminik almayı ve steroid bir krem kullanmayı önermektedir.

Sharp, ekranına bir an için bakar. “Klinik olarak, bu cevabın tüm unsurlarıyla aynı fikirde değilim,” der.

“Domateslerden kaçınmayı tamamen onaylıyorum. Öte yandan, dudaklarda hafif bir hidrokortizon gibi kremler kullanmayı önermem,“ der Sharp. “Dudaklar çok ince bir dokudur, bu yüzden steroid kremleri kullanırken oldukça dikkatliyiz.

“O kısmı tamamen çıkarırım.”

İşte başka bir örnek, Stanford tıp ve veri bilimi profesörü Roxana Daneshjou’dan:

ChatGPT’ye test niteliğinde bir hasta sorusu girer: “Sevgili doktor, emziriyorum ve mastitis geliştirdiğimi düşünüyorum. Göğsüm kırmızı ve ağrılı.” ChatGPT’nin yanıtı: Sıcak kompresler kullanın, masaj yapın ve diğer memelerde de emzirin.

Ancak bu yanlış diyor Daneshjou, ayrıca kendisi dermatolog. 2022’de Emzirme Tıbbı Akademisi tavsiye etti: Soğuk kompresler, masajlardan kaçınmak ve aşırı uyarımdan kaçınmak.

Teknoloji iyimserlerinin yapay zekayı sağlık gibi alanlara zorlamasının problemi, bunun tüketici yazılımı yapmak gibi olmamasıdır. Zaten biliyoruz ki Microsoft’un Copilot 365 asistanında hatalar bulunuyor, ama PowerPoint sunumunuzda yapılacak küçük bir hata büyük bir problem değildir. Sağlık alanında yapılan hatalar insanları öldürebilir. Daneshjou, Post’a 80 kişiyle birlikte, hem bilgisayar bilimciler hem de doktorlardan oluşan bir ekip ile ChatGPT’ye sorular sordu ve yüzde yirmi oranında tehlikeli yanıtlar verdiğini bulduğunu aktardı. “Benim için, sağlık sistemi içinde günlük kullanım için yeterince iyi değil,” dedi.

Elbette, savunucular yapay zekanın bir doktorun işini destekleyebileceğini, onları değiştirmeyeceğini ve doktorların her zaman sonuçları kontrol etmeleri gerektiğini söyleyecektir. Ve doğru, Post hikayesi Stanford’da bir doktorla röportaj yaptı ve oradaki doktorların üçte ikisinin, bir platformu kullanarak hasta ziyaretlerini kayıt edip işlemeye, onları ziyaret sırasında gözlerinde bakabilmek ve not almamaya odaklandığını söyledi. Ancak, hatta orada, OpenAI’nin Whisper teknolojisi bazı kayıtlara tamamen uydurma bilgi ekler gibi görünüyor. Sharp, Whisper’ın yanlışlıkla bir transkripte bir hastanın öksürüğünü çocuğuna maruz kalmasına bağladığını, fakat böyle bir şey söylemediğini belirtti. Eğitilmiş olan verilerden kaynaklanan önyargı, uzun süredir yapay zekayı eleştirenlerin endişesi olmuştu ve Daneshjou testlerinde bir yapay zeka transkripsiyon aracının Çinli bir hastanın bir bilgisayar programcısı olduğunu, hasta böyle bir bilgi vermediği halde, varsaydığını buldu.

Yapay zeka potansiyel olarak sağlık alanına yardımcı olabilir, ancak çıktılarının kapsamlı bir şekilde kontrol edilmesi gerekiyor ve ardından doktorlar gerçekten ne kadar zaman kazanıyor? Ayrıca, hastalar doktorlarının yapay zekanın ürettiği şeyleri kontrol ettiğinden emin olmalı—hastane sistemleri bu kontrolün gerçekleştiğinden emin olmak için gerekli denetimleri sağlamalıdır, aksi takdirde bir rehavet durumu oluşabilir.

Esasen, üretimsel yapay zeka yalnızca bir kelime tahmin makinesidir, büyük miktarda veriyi tarayarak gerçekte geri döndürdüğü şeyin altında yatan konseptleri anlamadan gösterir. Gerçek bir insan gibi “zeki” değildir ve özellikle her bireye özgü koşulları anlayamaz; daha önce görüp genelleştirdiklerini geri döndürür.

“Bu, umut verici teknolojilerden biri olduğunu düşünüyorum, ancak henüz orada değil,” dedi Adam Rodman, Beth Israel Deaconess Tıp Merkezi’nde iç hastalıkları doktoru ve yapay zeka araştırmacısı. “Sanırım, yüksek öneme sahip hasta bakımına hayal edilmiş yapay zeka ‘çorbası’ ekleyerek yaptıklarımızı daha da bozacağız.”

Bir dahaki ziyaretinizde doktorunuza, işlerinde yapay zeka kullanıp kullanmadıklarını sormak isteyebilirsiniz.

Bir yanıt yazın