Yapay zeka ‘ırkçı’ çıktı!

0

Araştırmacılar, dünyanın en büyük teknoloji şirketleri Apple, Google, IBM, Amazon ve Microsoft‘un konuşma tanıma sistemlerinde “ırkçı” olarak tanımlanabilecek bir sorun tespit etti. Stanford Üniversitesi’nin yaptığı bir araştırmaya göre sistem, beyaz kullanıcılara göre siyahilerde daha fazla hata yapıyor.

Beş teknoloji devindeki ortalamalar ele alındığında, sistemler beyaz insanların sözlerini yaklaşık yüzde 19 oranında yanlış tanımlıyor. Ancak bu oran siyah insanlarda neredeyse ikiye katlanarak yüzde 35’e sıçrıyor. Siyah insanlardan gelen sesler yüzde 20 oranında okunmazken bu oran beyazlarda sadece yüzde 2’de seyrediyor.

Yapay zeka önyargılı olabilir mi?

Bu durum ile aslında teknolojinin çeşitli şekillerde eğitilmediğini ve dolayısıyla konuşma tanıma sisteminin bu yüzden kusurlu olduğu sonucuna varılıyor. New York Times gazetesi teknoloji şirketleri ile bu durumu görüşmek için istekte bulundu ancak sadece Google olumlu dönüş yaptı. Google konuyla ilgili olarak “Birkaç yıldır konuşma varyasyonlarını doğru bir şekilde tanımak için çalışıyoruz ve bu konunun üzerinde geliştirmelere devam edeceğiz.” dedi.

Yapay zeka ayrımcılık yapabilir mi?

Çalışma bir nevi yapay zekadaki önyargı konusunu vurguluyor. Analistler, yüz tanıma teknolojisinde de benzer durumla karşılaşıyor. Teknolojinin hem ırksal hem cinsiyet ayrımı yaptığını fark eden uzmanlar sohbet botlarının bu onuda daha hızlı bi ayrımcılığa varacağını fark etti. Geçtiğimiz yıl, araştırmacılar yapay zekanın “çeşitlilik eksikliği” nin eşiğinde olduğu konusunda uyardılar.

Netflix, Ghost in The Shell: SAC 2045 geliyor

Tavuk-yumurta sorunu

The New York Times belirttiği gibi, bu sistemleri piyasaya süren şirketler tıpkı “Tavuk mu yumurtadan çıkar yoksa yumurta mı tavuktan?” sorusunu soruyor. Hizmetler çoğunlukla beyaz insanlar tarafından kullanıldığı takdirde, siyah insanlara hizmet etmek için veri toplamada zorluklarla karşılaşılacak. Bu da sistemi beyaz insanlardan başka kimse tarafından kullanılamaz hale getirecek. Washington Üniversitesi’nde profesör olan Noah Smith, bu geri bildirim döngülerinin gittikçe korkunç bir hale geldiğini belirtti.

YORUM YOK

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Exit mobile version