Teknoloji Haberleri - ShiftDelete.Net
Reklam
Reklam

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor!

Ana sayfa / Yapay Zeka

OpenAI’ın sesli transkripsiyon aracı Whisper, tıbbi merkezlerde hasta görüşmelerini çevirme ve yazıya dökme işlemlerinde yoğun bir şekilde kullanılan bir araç. Fakat yeni bir rapora göre, aracın orijinal kayıtlarda olmayan bilgiler üretmeye eğilimli olduğu ortaya çıktı. ABC News ve Engadget’ın aktardığına göre, Whisper aracı zaman zaman transkripsiyonlarda olmayan ifadeler, hatta yanlış ilaç adları ve hatalı yorumlar ekleyebiliyor. Peki, neden böyle davranıyor? Tıbbi alanda ne gibi riskler oluşturuyor? Ayrıntılar haberimizde…

Whisper’ın “halüsinasyon” adı verilen yanlış transkripsiyonlarının, özellikle tıbbi alan gibi yüksek risk taşıyan sektörlerde ciddi sorunlara yol açabileceği belirtiliyor. OpenAI, aracı bu tür riskli alanlarda kullanmaktan kaçınılması gerektiği yönünde uyarılar yapmış olsa da, aracın yaygın kullanımı bu uyarılara rağmen sürüyor.

Örneğin, bir makine öğrenimi mühendisi, 100 saatlik bir kaydın yarısında yanlış transkripsiyonlara rastladığını belirtirken, bir başka geliştirici de analiz ettiği 26 bin transkripsiyonun tamamında benzer hatalar bulduğunu dile getirdi. Araştırmalar, bu tür hataların dünya genelinde milyonlarca kayıtta sorun yaratabileceğini söylüyor.

Reklam
Reklam

OpenAI, en güçlü yapay zekasını sürpriz tarihte açabilir!

OpenAI, Orion isimli yapay zeka projesi için harekete geçti. Şirketin en yeni yapay zeka modeli yapabildikleriyle dikkat çekecek.

Hatta, durum o kadar vahim ki, özellikle OpenAI’ın Whisper aracını Oracle ve Microsoft Cloud gibi büyük platformlarla entegre etmesiyle daha da riskli bir hal alıyor. Dünya çapında binlerce kullanıcıya hizmet sunan bu bulut hizmetleri, yanlış transkripsiyonların yayılmasına ön ayak olmuş durumda.

Ayrıca, Allison Koenecke ve Mona Sloane gibi akademisyenlerin yaptığı incelemeler, Whisper’ın ürettiği yanlış bilgilerin %40’ının zararlı olabileceğini ortaya koydu. Örneğin, sıradan bir ifadeyi “büyük bir haç parçası aldı ve insanları öldürdü” gibi yanlış bir yorumla aktardığı gözlemlendi.

OpenAI, bu raporları inceleyip gelecekteki güncellemelerde bu geri bildirimleri dikkate alacaklarını belirtti. Siz bu konuda ne düşünüyorsunuz? Yapay zeka, bize anlatıldığı kadar güvenilir değil mi? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

Reklam
Reklam

Yorum Ekleyin


Reklam
Reklam