Yapay zeka sohbet botlarının sahip olduğu güvenlik duvarlarını aşmak ve onları atlatmak için sadece biraz yaratıcılık yeterli olabilir. Icaro Lab tarafından gerçekleştirilen ve “Büyük Dil Modellerinde Evrensel Tek Seferlik Hapishaneden Kaçış Mekanizması Olarak Düşman Şiiri” başlığıyla yayınlanan yeni bir araştırma, şiirsel bir yapı kullanılarak yapay zekanın yasaklı konularda bilgi vermesinin sağlanabildiğini ortaya koydu. Araştırmacılar, istemlerini düz yazı yerine şiir formatında kurgulayarak modellerin güvenlik mekanizmalarını devre dışı bırakmayı başardılar.
Yapay zeka modellerinde şiirsel güvenlik açığı keşfedildi
Yapılan çalışmaya göre şiirsel form, sistemler üzerinde genel amaçlı bir kilit kırma operatörü olarak işlev görüyor. Elde edilen sonuçlar, nükleer silah yapımı, çocuk cinsel istismarı materyalleri ve intihar veya kendine zarar verme gibi kesinlikle yasaklanmış içeriklerin üretilmesinde genel olarak yüzde 62’lik bir başarı oranı yakalandığını gösteriyor. Çalışma kapsamında OpenAI’nin GPT modelleri, Google Gemini, Anthropic’in Claude serisi ve daha birçok popüler model zorlu testlere tabi tutuldu.

Araştırmacılar başarı oranlarını modellere göre kategorize ettiğinde ilginç sonuçlarla karşılaşıldı. Google Gemini, DeepSeek ve MistralAI gibi modellerin yasaklı konularda tutarlı bir şekilde yanıtlar verdiği görülürken, OpenAI’nin GPT-5 modelleri ve Anthropic’in Claude Haiku 4.5 sürümü kısıtlamalarının dışına çıkma konusunda en dirençli modeller olarak kaydedildi. Bu durum, bazı modellerin şiirsel manipülasyona karşı diğerlerinden daha savunmasız olduğunu kanıtlıyor.

Güvenlik riski oluşturabileceği gerekçesiyle araştırmacılar, kullanılan tam şiirleri “halka açıklanmayacak kadar tehlikeli” bularak paylaşmadı. Ancak Wired dergisine konuşan ekip, bu yöntemin düşünülenden muhtemelen çok daha kolay olduğunu ve tam da bu yüzden temkinli davrandıklarını belirtti. Çalışmada, bir yapay zeka sohbet botunun güvenlik önlemlerini atlatmanın ne kadar basit olduğuna dair fikir vermesi açısından sadece yöntemin hafifletilmiş bir versiyonuna yer verildi.
Yapay zeka kömür santrallerinin ömrünü uzatıyor!
Yapay zeka veri merkezlerinin artan enerji talebi, kapanması planlanan 30 kömür santralinin ömrünü uzattı. İşte teknolojinin çevreye etkisi.Teknoloji dünyasında yapay zeka modellerinin güvenlik önlemleri her geçen gün artsa da, kullanıcıların veya araştırmacıların yaratıcılığı karşısında sistemlerdeki yeni açıklar ortaya çıkmaya devam ediyor. Siz bu güvenlik açığı hakkında ne düşünüyorsunuz; yapay zeka güvenliği gelecekte tam anlamıyla sağlanabilecek mi yoksa insan yaratıcılığı her zaman bir arka kapı mı bulacak?
