- Bilim ve Teknoloji
- 08.08.2025 16:17
Google’ın sağlık odaklı yapay zeka modeli Med-Gemini, var olmayan bir beyin bölgesini rapor ederek uzmanları tedirgin etti.
Sağlık alanında hata yapma riski yüksek olan üretken yapay zeka araçlarının giderek yaygınlaşması, hekimler ve uzmanlar arasında endişeleri artırıyor. Bu kaygıların başlıca nedeni, yapay zekâların “halüsinasyon” olarak adlandırılan, gerçekte var olmayan bilgileri güvenilir bir şekilde sunma eğiliminden kaynaklanıyor.
Bu durumun son örneği, Google’ın sağlık odaklı yapay zekâ modeli Med-Gemini ile yaşandı. Mayıs 2024’te yayımlanan bir araştırmada, modelin radyoloji laboratuvarında beyin taramalarını analiz etme yeteneği test edildi. Ancak model, raporlarından birinde “basilar ganglia” adında bir beyin bölgesinden söz etti. Nörolog Bryan Moore tarafından fark edilen bu ifade, gerçek bir beyin bölgesi olmadığı için hatalıydı. Google, bu hatayı “basal ganglia” ile “basilar artery” terimlerinin karışmasına bağlayarak bir “yazım hatası” olarak açıkladı.
Uzmanlar, bu tür hataların internet aramalarında yalnızca bilgi kirliliği yaratabileceğini ancak tıp gibi yüksek riskli alanlarda çok daha ağır sonuçlara yol açabileceğini vurguluyor. Providence sağlık sisteminin tıbbi bilgi direktörü Maulin Shah, “İki harf farkı ama çok büyük bir mesele. Bu tür hatalar son derece tehlikeli” dedi.
Google, Med-Gemini’nin röntgen, BT taramaları ve diğer tıbbi görüntüler üzerinden hastalık tespitinde “önemli potansiyele” sahip olduğunu duyurmuştu. Ancak uzmanlara göre, sağlık gibi kritik alanlarda hata toleransı insan seviyesinde değil, çok daha düşük olmalı.
Kaynak : HABER MERKEZİ