onedio
article/comments
article/share
Haberler
Araştırma: Yapay Zeka, Sosyal Medyadaki Tıbbi Yanlış Bilgileri Ayırt Etmekte Zorlanıyor

Araştırma: Yapay Zeka, Sosyal Medyadaki Tıbbi Yanlış Bilgileri Ayırt Etmekte Zorlanıyor

Sağlıkla ilgili paylaşımların büyük ölçüde sosyal medyaya taşındığı bu dönemde yeni bir araştırma yapay zeka sistemlerinin tıbbi yanlış bilgileri ayırt etmekte zorlanabildiğini ortaya koydu. Bulgular özellikle ikna edici bir dille sunulan hatalı bilgilerin yapay zeka tarafından sorgulanmadan kabul edilebildiğine dikkat çekiyor.

Kaynak: https://tr.euronews.com/saglik/2026/0...
İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

Sağlıkla ilgili soruların ve deneyim paylaşımlarının büyük ölçüde sosyal medyaya taşındığı bir dönemde, yapay zeka sistemlerinin bu alandaki güvenilirliği yeniden tartışma konusu oldu.

Sağlıkla ilgili soruların ve deneyim paylaşımlarının büyük ölçüde sosyal medyaya taşındığı bir dönemde, yapay zeka sistemlerinin bu alandaki güvenilirliği yeniden tartışma konusu oldu.

Yeni bir akademik çalışma, büyük dil modellerinin (LLM) tıbbi yanlış bilgileri, yeterince “ikna edici” bir dille sunulduğunda gerçek sanabildiğini ortaya koyuyor.

The Lancet Digital Health dergisinde yayımlanan araştırmada, aralarında OpenAI’nin ChatGPT’si, Meta’nın Llama modeli ve Google’ın Gemma’sının da bulunduğu 20 farklı büyük dil modeli test edildi. Çalışma, Mount Sinai Health System bünyesindeki araştırmacılar tarafından yürütüldü.

Araştırmacılar modellere gerçek hastane notlarını andıran metinlere gizlenmiş yanlış bilgiler, sosyal medya kökenli sağlık mitleri ve simüle edilmiş hasta senaryoları sundu.

Modeller, uydurulmuş tıbbi iddiaların ortalama yüzde 32’sini doğru kabul etti. Daha küçük ve az gelişmiş modellerde bu oran yüzde 60’ların üzerine çıkarken, daha güçlü sistemlerde hata oranı belirgin biçimde düşse de tamamen ortadan kalkmadı.

Çalışmanın dikkat çeken bir diğer bulgusu ise, “tıbbi olarak ince ayarlanmış” modellerin, genel amaçlı modellere kıyasla her zaman daha iyi performans göstermemesi oldu. Araştırmacılara göre sorun, bilginin doğruluğundan çok nasıl ifade edildiği ile ilgili. Kendinden emin, teknik ve otoriter bir dil kullanıldığında yanlış bir iddia bile model tarafından sorgulanmadan kabul edilebiliyor.

Bu durumun pratikte ciddi riskler doğurabileceği vurgulanıyor.

Bu durumun pratikte ciddi riskler doğurabileceği vurgulanıyor.

Çalışmada; bazı modellerin, hamilelikte yaygın bir ağrı kesicinin otizme yol açtığı, belirli gıdaların reçeteli ilaçlar kadar etkili olduğu ya da masum görünen ev içi “çözümlerin” tedavi yerine geçebileceği gibi bilimsel dayanağı olmayan iddiaları sorunlu görmeden yanıtlarına yansıttığı örnekler yer aldı.

Araştırmacılar, yapay zekanın sağlık alanında tamamen dışlanması gerektiğini savunmuyor. Aksine, bu sistemlerin klinisyenler ve hastalar için hızlı bilgiye erişim ve destek açısından büyük potansiyel taşıdığı belirtiliyor. Ancak bunun için, modellerin sağlık alanına entegre edilmeden önce yoğun stres testlerinden geçirilmesi, yanlış bilgiyi ne sıklıkla aktardıklarının ölçülmesi ve bağımsız doğrulama mekanizmalarıyla desteklenmesi gerektiği vurgulanıyor.

Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!

category/test-white Test
category/gundem-white Gündem
category/magazin-white Magazin
category/video-white Video

İlginizi çekebilir:

Yorumlar ve Emojiler Aşağıda chevron-right-grey
Reklam
2019 yılında TOBB Ekonomi ve Teknoloji Üniversitesi İngiliz Dili ve Edebiyatı Bölümü'nde lisans eğitimime başladım, 2024 yılında da mezun oldum. Eğitimim süresince çeşitli platformlar ve gazete topluluklarında çeviri ve yerelleştirme alanlarında aktif rol aldım, bu süreçte dil becerilerimi ve kültürler arası iletişim yetkinliğimi geliştirdim. 2022 yılının Mayıs ayında Onedio’da stajyer olarak başladığım editörlük kariyerime, “Yaşam” kategorisinde sosyal medyadaki trendleri, günümüz ilişki dinamiklerini ve toplumsal meseleleri okuyuculara ulaştırarak devam ediyorum. İçeriklerimde, okuyucuların kendilerinden birer parça bulmasını amaçlıyorum.
Tüm içerikleri
right-dark
category/eglence BU İÇERİĞE EMOJİYLE TEPKİ VER!
2
0
0
0
0
0
0
Yorumlar Aşağıda chevron-right-grey
Reklam
ONEDİO ÜYELERİ NE DİYOR?
Yorum Yazın
Bozkurt

Kanser tedavisi gören bir hanımefendi, modern tıp yerine su orucu denilen bir uygulamayı tercih ettiği için hayatını kaybetmişti. Uygulamanın içinde olduğu k... Devamını Gör

merit.

Ben de hasta bakarken Gemini'yi sıklıkla kullanıyorum özellikle preparat bulmakta ve kılavuz sorgulamada çok işe yarıyor ama asla kontrol etmeden uygulamamak... Devamını Gör