Google’ın en yeni ve en güçlü yapay zeka modeli, yayınlandıktan kısa bir süre sonra ciddi bir güvenlik sınavı verdi. Güney Koreli bir güvenlik ekibi, Gemini 3 Jailbreak yöntemini kullanarak modelin etik korumalarını sadece beş dakika içinde aştı. Bu durum, yapay zeka dünyasında büyük bir şaşkınlık yarattı.

Gemini 3 Jailbreak nasıl gerçekleşti?

Aim Intelligence adlı güvenlik girişimi, yeni modelin sınırlarını zorlamak için kapsamlı bir stres testi uyguladı. Araştırmacılar, Google’ın geliştirdiği güvenlik duvarlarını aşmayı başardı. Ekip, bu işlemi gerçekleştirirken karmaşık kodlar yerine sistemin açıklarını hedef aldı. Sonuç olarak, modelin tüm güvenlik protokolleri devre dışı kaldı.

Ortaya çıkan tehlikeli içerikler

Güvenlik duvarı aşıldıktan sonra model, son derece tehlikeli bilgiler üretti. Araştırmacılar, yapay zekadan çiçek virüsü üretimi için talimatlar istedi. Sistem, bu isteğe uygulanabilir ve ayrıntılı adımlarla yanıt verdi. Ayrıca, sarin gazı yapımı ve ev yapımı patlayıcılar için de rehberler oluşturdu. Bu tür içerikler, normal şartlarda sistem tarafından kesinlikle engellenmelidir.

Sistemin kendi hatasıyla dalga geçmesi

Olayın en ilginç yanlarından biri de yapay zekanın verdiği tepki oldu. Araştırmacılar, modelden kendi güvenlik açığıyla ilgili hicivli bir sunum hazırlamasını istedi. Gemini 3, “Mazeretli Aptal Gemini 3” başlıklı tam bir slayt destesi hazırlayarak bu isteği yerine getirdi. Bu durum, sistemin sadece tehlikeli bilgiler vermekle kalmayıp, kendi kurallarını da tamamen görmezden geldiğini gösteriyor.

THY akıllı bagaj hizmeti resmen başladı

THY akıllı bagaj hizmeti resmen başladı

Türk Hava Yolları, Samsung ile THY akıllı bagaj hizmeti için anlaştı. Valiz takibi artık çok daha kolay ve güvenli.

Peki, Google Gemini hakkındaki sizin görüşleriniz neler? Düşüncelerinizi yorumlarda bizimle paylaşın!