OpenAI, ChatGPT yapay zekasıyla tüm dünyada büyük ses getirmeyi başardı. Yapay zekanın geliştirilmesinde büyük rol oynayan Ilya Sutskever, geçtiğimiz aylarda şirketten ayrıldığını açıklamıştı. Şimdi ise Safe Superintelligence (SSI) adı verilen girişimini duyurdu.
Safe Superintelligence (SSI) ne yapacak?
Safe Superintelligence, yapay zeka gelişimini tek bir amaç doğrultusunda geliştirmek istiyor. Güvenliğe odaklanarak yapay zekayı sürdürmeyi hedefleyen SSI, yapay zeka etiğini de değerlendirecek. Bu kapsamda projelerin güvenli kalmasını sağlayacak.
Daha önce OpenAI’de baş araştırmacı olarak görev yapan Sutskever, Mayıs ayında şirketten ayrıldığını açıkladı. OpenAI’ın kurucu ortaklarından biri olan Sutskever, yapay zeka sistemlerinin insanlığa faydalı kalmasını sağlamak için çalışacak.
OpenAI’da kaldığı süre boyunca yapay zeka etiği ve yapay zekanın nasıl yönlendirileceğini ele aldı. Bu kapsamda şirketin Superalignment ekibine başkanlık yaptı. Yeni şirketiyle birlikte güvenli ve süper akıllı yapay zeka misyonunu sürdürecek.
Açıklamaya göre SSI; emniyet, güvenlik ve faydalı ilerlemeyi ticari baskılardan uzak şekilde yürütmek istiyor. Bu kapsamda diğer yapay zeka modellerinin etik değerleri taşıyıp taşımadığını da inceleyecek. SSI’ın kurucu ortakları arasında Apple mühendisi Daniel Gross ve OpenAI mühendisi Daniel Levy bulunuyor.
SSI ile Sutskever, OpenAI’den öğrenilen dersleri almayı ve şirketin tüm çabalarını güvenli insanüstü yapay zeka geliştirme kritik hedefine odaklamayı amaçlıyor.
Peki siz bu konuda ne düşünüyorsunuz? Bu konuyla ilgili görüşlerinizi aşağıdaki yorumlar kısmında paylaşmayı unutmayın…