ChatGPT gibi üretken yapay zeka araçlarının kullanımının yaygınlaşması, kişisel veriler için yeni tehlikeleri beraberinde getiriyor. Bir siber güvenlik firmasının araştırmasına göre, ChatGPT benzeri araçları kullanan şirketler, gizli bilgilerini ve ticari sırlarını yapay zeka ile paylaşıyor olabilir.
ChatGPT gibi araçlar şirketlerin gizli bilgilerini ifşalayacak
Team8’in yürüttüğü yeni araştırma, bilgisayar korsanlarının gizli kurumsal bilgilere erişmek için ChatGPT’yi kullanabileceğini ortaya çıkardı. Yapay zeka sohbet botları ve diğer yazı araçlarını kullanan şirketler, veri sızıntılarına karşı savunmasız kalabilir. Ayrıca sohbet botlarına aktarılan verilerin silinmesi de oldukça zor olabilir.
Rapor, üretken yapay zekayla bağlantılı bilgi çalınma riskini “yüksek dereceli” olarak sınıflandırdı. Ancak Team8 araştırmacıları, uygun önlemlerin alınması durumunda risklerin “yönetilebilir” olabileceğini ifade etti. Ayrıca ChatGPT’nin oluşturduğu yanlış bilgilerin tehdit oluşturduğuna dikkat çekildi.
Elon Musk, ChatGPT rakibi yapay zekasının ismini açıkladı!
Elon Musk, ChatGPT rakibi olacak tamamen gerçek bilgilere dayanan ve insanlık sorunlarına odaklanan TruthGPT projesini duyurdu.Bu endişelere rağmen, Microsoft ve Google gibi teknoloji şirketleri yapay zeka yarışında geri kalmak istemiyor. Ancak rapor, bu araçların gizli verilerle beslenmesi durumunda bilgileri silmenin çok zor olabileceğine dikkat çekti.
Buna ek olarak ChatGPT gibi araçlar, telif hakkı konusunda da tartışmalara yol açtı. Örneğin birçok yazılımcı, kendi kodlarına bakarak yeni kodlar yazdığını düşünüyor. Benzer şekilde sanatçılar ise yapay zekanın oluşturduğu görsellere karşı çıkıyor.
Siber güvenlik firmasının bu araştırması, ABD Siber Komutanlığı’nın eski Başkanı Michael Rogers tarafından da desteklendi. Ayrıca birçok firmanın bilgi güvenliği araştırmacısının imzasını içeriyor.
Peki siz ChatGPT gibi araçların kişisel veriler için tehlike yaratacağını düşünüyor musunuz? Görüşlerinizi bizimle paylaşın.