OpenAI, ChatGPT’de yapılan son değişiklikler nedeniyle ücretli kullanıcıların tepkisini çekti. Pek çok kullanıcı, sohbet sırasında duygusal veya hukuki açıdan hassas konular gündeme geldiğinde tercih ettikleri modelin devre dışı bırakılarak daha muhafazakar bir yapay zeka modeline yönlendirildiklerini söylüyor.

Reddit’te konuyla ilgili açılan başlıklarda, bu ay devreye giren yeni güvenlik önlemlerinin kullanıcı deneyimini olumsuz etkilediği öne sürülüyor. Kullanıcılara göre ChatGPT, belirli durumlarda model geçişi yapıyor ancak bu geçişler şeffaf değil ve tamamen kullanıcının kontrolü dışında gerçekleşiyor.
xAI OpenAI’yi hırsızlıkla suçluyor
Elon Musk'ın yapay zeka şirketi xAI, ChatGPT üreticisi OpenAI'yi “ticari sırların kötüye kullanılması”na karıştığını iddia ediyor.Bir Reddit kullanıcısı, durumu şöyle özetledi:
“Yetişkinler, iş akışlarına, bağlamlarına ve risk toleranslarına uygun modeli seçme hakkına sahiptir. Bunun yerine sessizce geçersiz kılınan ayarlar, gizli güvenlik yönlendirmeleri ve artık bir tür sahne dekoruna dönüşmüş model seçici ile karşı karşıyayız.”
OpenAI yöneticisinden açıklama geldi
Tepkilerin büyümesi üzerine OpenAI yöneticisi Nick Turley sosyal medya üzerinden açıklama yaptı. Turley, güvenlik yönlendirmelerinin yalnızca “hassas ve duygusal içerikli konuşmalarda” devreye girdiğini ve bunun mesaj bazında, geçici olarak uygulandığını belirtti.
Bu uygulama, OpenAI’nin daha önce açıkladığı gibi, ChatGPT’nin zihinsel ve duygusal sıkıntı içeren durumlara verdiği yanıtları iyileştirme çalışmalarının bir parçası. Şirket, özellikle genç kullanıcıların ve savunmasız kişilerin korunmasının sorumlulukları arasında olduğunu vurguluyor.
Buna rağmen birçok kullanıcı, bu yaklaşımı kendi seçim haklarının kısıtlanması olarak görüyor. Eleştiriler, bu durumu “çocukların bile olmadığı bir ortamda televizyonu sürekli ebeveyn denetimi açık şekilde izlemeye zorlanmaya” benzetiyor.
Görünen o ki, OpenAI’nin güvenlik odaklı bu yeni sistemi önümüzdeki günlerde teknoloji dünyasında daha fazla tartışılmaya devam edecek.
