Teknoloji Haberleri - ShiftDelete.Net
Reklam
Reklam

Amazon Alexa, kendi kendine haber uydurmaya başladı: İşte o ilginç haberler!

Ana sayfa /

Sesli asistan konusunda dünyada büyük bir akım başlatan ve sektörün en çok kullanılan asistanlarından biri olan Alexa, aldığı yapay zeka güncellemeleri sonrasında çok daha akıllı bir kimliğe bürünmüştü. Ancak Alexa, son dönemde yaydığı aslı astarı olmayan haberlerle gündeme gelmiş durumda.

Alexa, birçok farklı alanda haberler uyduruyor!

Amazon’un popüler sesli asistanı Alexa’nın kullanıcılara yanlış bilgiler ve aslında hiç olmayan haberler verdiği ortaya çıktı. İngiltere’nin önde gelen doğrulama kuruluşu Full Fact’in yaptığı araştırma, durumun sanılandan çok daha ciddi olduğunu gösteriyor.

Full Fact’in CEO’su Chris Morris’in açıklamalarına göre, Alexa sadece yanlış bilgiler vermekle kalmıyor, bu bilgileri Full Fact kaynaklıymış gibi göstererek kurumun güvenilirliğini de zedeliyor.

Reklam
Reklam

Morris, “İnsanların mutfaklarında ve oturma odalarında bulunan güvenilir cihazlar üzerinden yanlış bilgiler yayılıyor. Daha da kötüsü, tam da düzeltmeye çalıştığımız yanlış bilgileri yaymak için kurumumuzun isminin kullanılması” şeklinde konuştu.

Tüm bu süreç, Kuzey Işıkları hakkında bilgi almak isteyen bir kullanıcının Full Fact’e başvurmasıyla ortaya çıktı. Alexa, doğal bir olay olan Kuzey Işıkları’nın Alaska’daki HAARP tesisi tarafından yapay olarak üretildiğini iddia etti. Bu yanıtın ardından yapılan incelemede, Alexa’nın başka konularda da yanıltıcı bilgiler verdiği tespit edildi.

ChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürprizi

OpenAI, ChatGPT Gelişmiş Ses için tüm kullanıcılara sürpriz yaptı. Geliştiriciler ise ChatGPT sesli asistan oluşturma özelliğine sahip oldu.

Örneğin, milletvekillerinin kahvaltı için 50 sterlin harcama yapabilecekleri, Başbakan Keir Starmer’ın İsrail ile diplomatik ilişkileri kesmeyi planladığı gibi asılsız iddialar da Alexa tarafından dile getirildi. Hatta Mike Tyson’ın CNBC’de İsrail’i boykot çağrısı yaptığı gibi tamamen uydurma bir haber bile asistanın repertuarında yer aldı.

Full Fact yetkilileri, Alexa’nın web sayfalarından bilgi toplama şeklindeki algoritmasının nasıl bu kadar yanıltıcı sonuçlar verdiğini anlayamadıklarını söyledi. Kurum, Google Asistan’ın da benzer hatalar yaptığını, ancak Apple’ın Siri’sinin daha tutarlı yanıtlar verdiğini tespit etti.

Siz bu konuda ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşmayı ihmal etmeyin.

Reklam
Reklam

Yorum Ekleyin


Reklam
Reklam