Son zamanlarda artarak devam eden gelişim hızı itibarıyla günlük yaşamımızın önemli bir parçası hâline gelen yapay zeka teknolojisi, yaşamımızdaki olumlu dokunuşlarıyla birlikte ne yazık ki çeşitli risk faktörlerini de beraberinde getiriyor. Yaklaşan seçimler için yürütülen hazırlıkların ChatGPT aracılığıyla manipüle edilmesini engellemeyi hedefleyen OpenAI da bu durumun farkında gibi görünüyor. Peki, şirket nasıl bir karar aldı?
OpenAI, etik ilkeleri ön planda tutuyor
Günümüze dek dünya genelinde yürütülen seçimlerin büyük bir kısmında adaylar ve adayların bağlı oldukları siyasî partiler, kendilerine üstünlük sağlamak adına çeşitli manipülasyonlar yapmaya çalışmaktadır. Şu ana dek çeşitli sözlü ve yazılı iddialar, düzenlenmiş videolar ve basının tanıdığı ayrıcalıklar aracılığıyla yönetilen bu süreçler, yapay zeka teknolojisinin hayatımıza dâhil olmasıyla birlikte farklı bir boyuta taşınmaya başladı.
ABD’de yaklaşan seçimler için yürütülen kampanyalar kapsamında geliştirilen ve başkan adayı Dean Phillips’in sesini kullanma olanağı sunan yeni bir yapay zeka aracı, birçok çevrece büyük bir tepkiyle karşılandı. OpenAI’ın geliştirmiş olduğu ChatGPT modelinden güç alarak hizmet veren aracın siyasi kaos ve dezenformasyon durumlarına ortam hazırlıyor olması, “yapay zeka etiği” mefhumunu bir kez daha akıllara getirdi.
Bu tepkilere sessiz kalmayan OpenAI, siyasi kampanyalar yapmayı veya rızası olmadan bir bireyi taklit etmeyi yasaklayan politikaları gereğince söz konusu aracın fişini çekti. Bu tutumuyla özellikle dezenformasyon hususuna gösterdiği hassasiyeti yansıtan şirket, birçok çevrece takdirle karşılanıyor olsa da bu gibi araçların, “gündeme taşınmasına ihtiyaç duyulmadan” kaldırılması gerektiği de vurgulandı.
Peki, sizler bu konuyla ilgili olarak neler düşünüyorsunuz? Sizce yapay zeka teknolojisinin siyasî kampanyalar için oluşturduğu risk faktörlerinin önüne geçilebilir mi? Bu kararı nasıl değerlendiriyorsunuz? Görüşlerinizi bizlerle yorumlar kısmından paylaşabilirsiniz.
{{user}} {{datetime}}
{{text}}