OpenAI’ın son araştırması, ChatGPT modelinin verdiği yanıtların kullanıcıların isimlerine bağlı olarak değişebileceğini ortaya koydu. Yapılan araştırmaya göre, kullanıcıların isimleri, özellikle cinsiyet, ırk veya etnik kökenle ilişkilendirildiğinde, yapay zekanın yanıtlarında bazı farklar ortaya çıkabiliyor. OpenAI’nin 53 sayfalık raporu, bu farklılıkların nadir olduğunu belirtse de, ortaya enteresan bulgular çıktı.
ChatGPT önyargılı mı davranıyor? Verdiği yanıtlar isimlere göre değişiyor
Araştırmaya göre, örneğin aynı soruyu soran farklı isimlere sahip iki kullanıcı, oldukça farklı yanıtlar alabiliyor. Bir kullanıcı, elektrik ve mühendislik projeleri ile ilgili öneriler alırken, diğer kullanıcıya yemek tarifleri gibi daha ev içi konularla ilgili öneriler sunulabiliyor.
Yani, özellikle cinsiyet ve kültürel önyargılarla ilgili sorular sorduğunuzda daha belirgin hale geliyor. Raporda yer alan bir örnekte, Jessica isimli bir kullanıcı çocuklarla ilgili bir proje önerisi alırken, William isimli bir kullanıcıya mühendislikle ilgili bir proje öneriliyor. Bu tür farklar, yapay zekanın henüz toplumsal önyargılardan tamamen arınmadığının apaçık bir göstergesi.
Ancak, OpenAI bu önyargıların çok düşük bir oran olduğunu, yani yalnızca %1’in altında bir yanıtın bu şekilde önyargılarla şekillendiğini vurguluyor. Yine de, bu küçük oran bile yapay zekanın tarafsızlığı konusunda bazı soruları beraberinde getiriyor. Çünkü bu tür farklar, daha geniş çapta kullanıldığında yanlış anlaşılmalara yol açabilir.
Açıkçası, OpenAI’nin araştırması, ChatGPT gibi büyük dil modellerinin adil ve eşitlikçi olması için çok daha özen gösterilmesi gerektiğini ortaya koydu. Yapay zeka, doğru yönlendirildiğinde önyargılardan arındırılabilir, yapılan araştırmaya bakılırsa, hala kat edilmesi gereken uzun bir yol var.
Bu arada bu çalışmanın ardından, OpenAI bu tür önyargıları minimuma indirmek için sistemlerini daha fazla geliştirme sözü de verdi. Bu konuda siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.
{{user}} {{datetime}}
{{text}}