OpenAI’ın geliştirdiği yapay genel zeka (AGI) sistemlerinin insanlık için tehlike oluşturmamasını sağlamakla görevli AGI Güvenlik Ekibi’nde büyük bir ayrılık yaşandı. Eski OpenAI yönetişim araştırmacısı Daniel Kokotajlo’nun verdiği bilgilere göre, son birkaç ay içinde bu ekipteki araştırmacıların neredeyse yarısı şirketten ayrıldı. Peki, bu çalışanlar neden işten ayrılıyor, ya da çıkartılıyor? Detaylar haberimizde…
OpenAI’da ayrılık rüzgarı: AGI güvenlik ekibinin yarısı şirketten ayrıldı
ChatGPT gibi dil GPT modellerinden de tanıdığımız yapay zeka devi OpenAI şirketinin 2024 yılından bu yana, yaklaşık 30 kişilik AGI ekibi 16 kişiye kadar düştü. Bu durum, OpenAI’ın güvenlik konusuna yeterince önem verip vermediği konusunda endişelere yol açtı.
Kokotajlo’ya göre, bu ayrılıklar organize bir hareketin sonucu değil, bireysel olarak araştırmacıların şirketten ayrılma kararı almalarıyla gerçekleşti. OpenAI yaptığı açıklamada, dünyanın en güvenli yapay zeka sistemlerini sunma konusunda kendine güvendiğini belirtti.
Ancak, bu büyük ayrılıkların, şirketin güvenlik araştırmalarındaki geleceği hakkında soru işaretleri oluşturduğu da göz ardı edilemez. Bu gelişme, OpenAI’ın gelecekteki AGI sistemlerinin güvenliği konusunda nasıl bir yol izleyeceği ve bu ekipten ayrılan araştırmacıların hangi yeni projelere yöneleceği gibi soruları gündeme getiriyor.
Siz ne düşünüyorsunuz? AGI güvenliği konusunda bu ayrılıklar ne anlama geliyor? OpenAI’ın bu konuda daha fazla adım atması gerektiğini düşünüyor musunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.
Nukleer bombadan daha tehlikeli
Nsa işin içine girince işler karıştı…