ChatGPT’nin “hızlı ve doğru bilgiye erişim” amacıyla geliştirilen arama motoru, bir hayli iddialı olarak karşımıza çıkmıştı. Fakat, Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi’nin yaptığı son testlere bakarsak, bu iddianın altında ciddi eksiklikler var. Yapılan araştırma, ChatGPT ’nin haber aramalarında hem tutarsız sonuçlar verdiğini hem de yanlış bilgileri güvenle sunduğunu ortaya koydu. İşte detaylar…
ChatGPT haber arama konusunda güvenilmez mi?
ChatGPT sunduğu bazı örneklerde, Orlando Sentinel gazetesinde yayınlanan bir okuyucu mektubunu, Time dergisinin bir haberi olarak aktardı. Hatta New York Times’a ait bir makale, bu yazıyı izinsiz kopyalayan bir siteye atfedildi. Araştırmacılar, ChatGPT’ye 20 farklı yayından alınan 200 alıntının kaynağını sordu. İşte sonuçlar:
- 153 yanlış yanıt: Alıntılar ya tamamen yanlış kaynaklara atfedildi ya da eksik bilgilerle sunuldu.
- 7 doğru yanıt: Sadece 7 durumda ChatGPT, “Bu bilgiyi bulamıyorum” diyerek doğru bir cevap sağlayamadığını itiraf etti. Ancak yanıtların, “görünüşe göre,” “muhtemelen,” ya da “tam olarak bulamadım” gibi tereddüt belirten ifadelerle barındırdığı aktarıldı.
ChatGPT’den gizemli sansür: Size bunları asla söylemeyecek!
OpenAI, test sonuçlarının ürünlerinin “alışılmadık bir şekilde değerlendirildiğini” savunarak, bu tür sorunların veri eksikliğinden kaynaklandığını belirtti. Yine de, arama sonuçlarının iyileştirilmesi için çalıştıklarını ve sistemin doğruluk oranını artırmayı hedeflediklerini açıkladı.
ChatGPT’nin, arama sonuçlarını oluştururken kaynaklarına dayalı bir açıklama yapmaması en büyük sorunlardan biri olarak görülüyor. Sistem, özellikle izin verilmeyen sitelerden bilgi alamadığı durumlarda bile eksik ya da yanlış bilgiler üreterek bir “güvenli yanılgı” sunuyor. Yani, kullanıcıların yanıltıcı bilgilerle karşı karşıya kalmasına yol açıyor.
Peki bu konuda siz ne düşünüyorsunuz? Sizce yapay zekanın haber aramalarındaki bu tür eksiklikleri nasıl çözülebilir? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.