Özellikle üretken yapay zeka modellerinin hata payı, uzmanlar ve hekimler arasında büyüyen bir endişe kaynağına dönüştü. Google’ın Med-Gemini adlı sağlık odaklı yapay zeka modelinde yaşanan son olay, bu riskin ne kadar ciddi boyutlara ulaşabileceğini bir kez daha gösterdi.
Med-Gemini’den Bilim Dışı Tanım: "Basilar Ganglia" Gerçekte Yok
2024 yılının Mayıs ayında yayımlanan bir akademik çalışmada, Google’ın geliştirdiği Med-Gemini modelinin radyolojik görüntüleri analiz ederken "basilar ganglia" adını verdiği bir beyin bölgesinden söz ettiği ortaya çıktı. Ancak tıbbi literatürde böyle bir bölge bulunmuyor. Nörolog Bryan Moore bu hatayı tespit ederek durumu yetkililere bildirdi.
Google ise hatanın, "basal ganglia" (bazal gangliyonlar) ile "basilar artery" (baziler arter) terimlerinin karışmasından kaynaklandığını ve bunun bir “yazım hatası” olduğunu savundu. Ancak uzmanlar, bu tür açıklamaların klinik riskleri ortadan kaldırmaya yetmeyeceğini söylüyor.
Kritik Alanlarda Yapay Zeka Hatalarının Bedeli Ağır Olabilir
Providence sağlık sisteminde görev yapan tıbbi bilgi direktörü Dr. Maulin Shah, “İki harflik bir hata gibi görünebilir ama bu, klinik anlamda büyük bir fark yaratır. Bu tür yanlışlıklar hastanın hayatına mal olabilir” diyerek tehlikenin altını çizdi. Halüsinasyon olarak adlandırılan, yapay zekanın uydurma bilgi üretme sorunu, özellikle sağlık gibi hata toleransının neredeyse sıfır olduğu alanlarda kabul edilemez olarak değerlendiriliyor.
Potansiyel Büyük Ama Riskler Göz Ardı Edilemez
Google, Med-Gemini modelinin röntgen, tomografi gibi görüntüleme araçlarında tanı koyma sürecine destek verebileceğini savunsa da uzmanlar, bu tür araçların klinik kullanıma geçmeden önce çok daha sıkı denetimlerden geçmesi gerektiğini belirtiyor. Tıp dünyasında "hata yapma lüksü"nün olmadığını ifade eden hekimler, yapay zekanın insan sağlığıyla ilgili karar mekanizmalarında yer almasının çok dikkatli yönetilmesi gerektiğini vurguluyor.




