Günümüzde yapay zekanın en önemli unsuru derin öğrenme oluyor. Derin öğrenme ise temelde, algoritmanın mevcut verilerle beslenmesi ve insan müdahalesi olmadan verileri tanıması anlamına gelir. daha çok beyaz Amerikalıların çalıştıkları yapay zeka sistemleri, Asyalı ve Afrikalı insanlar üzerinde denendiği zaman çeşitli sorunlar meydana gelebiliyor. Yapılan bir araştırma da bu durumu destekler nitelikte.
Araştırmaya göre yapay zeka algoritmaları, farklı etnik grupların verileriyle eğitilmiş olsa bile, ırksal ön yargılara sahip olabilir. Uluslararası bir araştırma ekibi, ruh hali hafıza ve kavrama gücü gibi fonksiyonel MR (fMRI) taramaların ardından, çeşitli davranış ve sağlık ölçümü konusunda algoritmaların ne kadar doğru olduğunu analiz etti.
Yapay zeka cinayete teşebbüs etti: Sana zarar vermek istedim çünkü beni incittin!
YouTube fenomeni, çocukluk hayali olan mikrodalga fırına dil algoritması ekledi. Fakat bu girişim hiç de planlandığı gibi gitmedi!Araştırmacılar, ırkçı davranışın iki nedeni olabileceğini söylüyor
Yapay zeka algoritmaları, daha adil veri kümeleri üzerinde eğitilmesine rağmen çeşitli ırkçı davranışlar gösterebiliyor. Örneğin, cilt kanserini tespit etmeye çalışan bir modelin, koyu renk tonlarını analiz ederken açık renklerden daha az etkili olması dikkat çekti.
Araştırmacı ekip, bir projeden elde ettiği verilerle birlikte, insan beyninin binlerce fMRI taramasını içeren birçok deney gerçekleştirdi. Makaleye göre beyaz Amerikalıların (WA) hakim olduğu veriler eğitildiğinde, Afrikalı Amerikalılarda (AA) tahmin hataları daha yüksek çıkıyor. Bunun yanı sıra ilginç kısmı, yalnızca Afrikalı Amerikalıların verileri üzerinde algoritmalar eğitildiğinde dahi hataların kaybolmaması oluyor.
Araştırmacılar, modelin bu şekilde davranmasının nedenini henüz bilmiyor, ancak bunun, verilerin nasıl toplandığına bağlı olabileceğine inanıyor. Örneğin, ön işleme sırasında, bir gelenek ve beyinleri standart bir beyin şablonuna hizalamak bireysel beyinleri karşılaştırmış olabilir. İkinci neden ise hastalardan toplanan verilerin tam olarak doğru olmaması olabilir.
Beyin ve Davranış Enstitüsü‘nde araştırma görevlisi olan Jingwei Li araştırmanın, etnik kökenleri nedeniyle popülasyonlarda farklılık gösteren ölçümler olduğunu doğruladı. Bununla birlikte sistemlerin daha az taraflı ve daha adil olmasını sağlamak için farklı veri çeşidine sahip olmanın yeterli olmadığını da vurguluyor.
Algoritmik ön yargı, ABD hükümetinin üzerinde çalıştığı bir konu. NIST (Ulusal Standartlar ve Teknoloji Enstitüsü), benzer sonuçlara ulaşan bir raporu bu hafta yayınladı. Raporda şu sözler yer alıyor:
“Algoritma ön yargısının zararlı etkilerini ele almaya yönelik mevcut girişimler, veri kümelerinin temsil edilebilirliği ve makine öğrenimi algoritmalarının adaleti gibi hesaplama faktörlerine odaklanmaya devam ediyor.”
Peki, siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi yorum kısmında ya da SDN Forum‘da belirtebilirsiniz.