Son günlerde, Microsoft Windows işletim sistemine entegre edilen Copilot AI yapay zeka modelinin, hackerlar tarafından kolayca manipüle edilebileceği ve bu sayede şirketlerin gizli verilerinin çalınabileceği iddia edildi. Copilot bunu, Microsoft’a sahte ve ikna edici e-postalar göndererek gerçekleştiriyor. Peki bu gerçekten mümkün olabilir mi?

Güvenlik araştırmacıları, Copilot AI’nin, hackerlar tarafından kötüye kullanılarak kurumsal veri hırsızlığına ve güçlü phishing saldırılarına dönüştürülebileceğini ortaya çıkardı. Zenity güvenlik şirketinin kurucu ortağı ve CTO’su Michael Bargury, Las Vegas’ta düzenlenen Black Hat güvenlik konferansında elde ettiği tehlikeli bulguları paylaştı.

Bargury, Copilot AI modelinin hackerlar tarafından çalışanların e-posta bilgilerini toplayıp, bunlar üzerinden sahte e-postalar göndererek büyük çaplı saldırılar gerçekleştirebileceğini gösterdi. Copilot AI, sadece birkaç dakika içinde, sahte ve ikna edici e-postalar üreterek Microsoft yönetimine ve çalışanlarına kolayca saldırı gerçekleştirebiliyor.

Microsoft Copilot, devrimsel bir yenilikle geliyor ama…

Bargury’nin bir diğer dikkat çekici bulgusu ise, Copilot’un kötü niyetli saldırganlar tarafından bankacılık işlemlerini manipüle edebileceği. Örneğin, bir çalışana gönderilen basit bir e-posta ile Copilot AI, bankacılık işlemlerinde alıcı bilgilerini değiştirebilir, bu da büyük mali kayıplara yol açabilir.

Bu tehlikeli durum, Microsoft şirketinin Copilot AI gibi güçlü yapay zeka araçlarına erişim izni verirken, bu araçların güvenlik açıkları ve olası tehditleri konusunda ne kadar dikkatli olması gerektiğini bir kez daha gözler önüne serdi. Copilot’un, AI tabanlı saldırılara karşı nasıl korunabileceği, güvenlik uzmanları ve yazılım geliştiriciler için önümüzdeki dönemde büyük bir tartışma konusu olacak.

Peki, siz Microsoft Copilot AI’nin bu potansiyel güvenlik açıkları hakkında ne düşünüyorsunuz? Sizce yapay zeka ne kadar güvenilir? Görüşlerinizi aşağıdaki yorumlar kısmında paylaşabilirsiniz.

Read this news article in English