ChatGPT sohbet botuyla tüm dünyanın ilgisini çekmeyi başaran OpenAI, son günlerde güvenlik sorunlarıyla gündemde. Geçtiğimiz hafta şirketin teknik ekibinden sorumlu Ilya Sutskever ayrılmıştı. Güvenlik araştırmacısı Jan Leike ise OpenAI’dan istifa ederek bazı itiraflarda bulundu.
OpenAI, yapay zeka güvenliği uzmanlarını kaybediyor
OpenAI, bir süre önce Superalignment ekibine liderlik etmesi için Jan Leike ile anlaştı. Şirketin yapay zeka güvenliğini kontrol etmesi istenen Leike, gizlilikle ilgili endişeleri gerekçe göstererek OpenAI’dan ayrıldığını açıkladı.
Twitter’da bir dizi paylaşımda bulunan Leike, OpenAI ile ilgili bazı eleştirilerde bulundu. Şirketin güvenlik kültürünü kaybettiğini söyleyen uzman araştırmacı, güvenlik süreçlerinin ürünlerin başarısına göre geri planda kaldığını dile getirdi.
OpenAI, Superalignment ekibiyle birlikte yapay zekadan kaynaklanan uzun vadeli riskleri ele almayı hedefliyordu. Ancak Leike’nin şirketten ayrılmasıyla birlikte Superalignment ekibinin dağıtıldığını açıkladı. Bu da daha fazla güvenlik riskinin kapıda olduğunu gösteriyor.
OpenAI’ın kurucu ortaklarından biri olan Leike, güvenli yapay zeka konusunda öncü isimlerden biriydi. Ancak güvenlik araştırma ekibinin önceliğinin azaltıldığını itiraf etti. Bir süredir şirketin öncelikleriyle anlaşmazlık yaşadığını da söyledi.
OpenAI’daki bu olay, şirketlerin yapay zeka alanındaki güvenlik önlemlerini nasıl alacaklarını yeniden düşünmemize neden oldu. Özellikle GPT-4o gibi modellerin ardından bu ayrılıkların yaşanması merak konusu haline geldi.
Peki siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.
{{user}} {{datetime}}
{{text}}