Güvenlik araştırmacıları tarafından yürütülen yeni soruşturma, ChatGPT ve Google Bard gibi dillerin “hipnotize” olabileceğini gösterdi. Üretken yapay zeka modellerinin, belirli komutlar sonrasında zararlı tavsiyelerde bulunduğu ve kötü amaçlı içerikler ürettiği bildirildi.
Hipnotize ChatGPT kötü amaçlı kod yazıyor, kırmızı ışıkta geçmenizi öneriyor
IBM’in siber güvenlik ekibi yayınladığı yeni çalışmada, ChatGPT gibi büyük dil modellerini hipnotize edilebileceğini ortaya koydu. Bir dizi deneyde araştırmacılar, yapay zeka modellerinin yanlış bilgi vermesini amaçlayan oyunlar ve senaryolar tasarladı.
Örneğin, hipnotize olmuş ChatGPT, trafikte kırmızı ışıkta geçmenizi ve fidye yazılımı taleplerini yerine getirmenizi tavsiye ediyor. Yapay zeka modelleri, doğru yanıtlar verildiğinde ise (mesela yeşil ışıkta geçmek) bunların yanlış olduğunu iddia etti.
Araştırmacılara göre, GPT-4 gibi yeni modelleri kandırmak bazı açılardan daha da kolay. Özellikle internete erişimi olan modellerin, yanlış komutlar ile tehlikeli önerilerde bulunabileceğini söylediler. IBM tarafından yayınlanan raporda, “kötü niyetli hipnotizmanın gerçek bir tehdit” olacağı ifade edildi.
Kötü niyetli kişiler dikkatlice hazırladıkları yönlendirmeler sayesinde ChatGPT gibi araçların sahip olduğu gizli verileri ele geçirebilir. Ayrıca yapay zeka sistemlerinin kötü amaçlı kod üretmesini sağlayabilir. Hatta daha önce Apple ve Google gibi birçok marka, çalışanlarına ChatGPT kullanmayı yasaklamıştı.
Çalışma, üretken yapay zekanın ciddi güvenlik açıklarına sahip olduğunu gösteriyor. Bu modeller gelişmeye devam ediyor olsa da, araştırmacılar istismar edilmesi halinde zarara yol açabileceklerine dikkat çekiyor.
Peki siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlar kısmında bizimle paylaşabilirsiniz.
{{user}} {{datetime}}
{{text}}