ABD’deki üniversite araştırmacıları tarafından yapılan yeni bir çalışma, OpenAI’ın GPT mağazasında bulunan yapay zeka uygulamalarının tehlikeli olabileceğini gösterdi. Kullanıcıların kendi GPT’lerini dağıtmaya izin veren mağazada veri toplandığını ortaya çıktı ve bu da gizlilik endişelerini artırdı.
GPT Store’da dev güvenlik açığı
Araştırmacılar dört aylık bir süre boyunca GPT adı verilen 120 binden fazla yapay zeka sistemini ve bunların erişebildiği 2500 hizmeti analiz etti. Birçok hizmetin parolalar, web tarama geçmişleri ve kişisel ayrıntılar gibi hassas kullanıcı verilerini izin olmadan topladığını tespit ettiler.
Endişe verici olan bir diğer nokta ise GPT’lerin birbirlerinin verilerine “sınırsız erişime” sahip olmaları. Bu, bir sohbette kullanılan verilerin diğer sohbetler ile paylaşılabileceği anlamına geliyor. Yani ChatGPT’de kullandığınız bilgiler farklı kişilerin eline geçebilir.
Analize göre hizmetlerin yalnızca yüzde 6’sı gizlilik politikalarını açıkça ele alıyordu. Buna göre birçok GPT’nin de gereğinden fazla veri topladığı tespit edildi. Örneğin, bazı GPT’lerin ise kullanıcı şifrelerini depoladığı gözlemlendi.
OpenAI, gizlilikle ilgili politikalarını ihlal ettiği gerekçesiyle 2800’den fazla GPT’yi kaldırdı. Ancak araştırmacılar, üçüncü taraf geliştiricilerin neler toplayabileceğini gözler önüne sermiş oldu. Buna göre OpenAI’ın daha kontrollü olmasını istiyor.
Kullanıcıların kişisel ChatGPT’leri geliştirmek için herhangi bir kod bilgisine ise ihtiyacı bulunmuyor. Buna karşın geliştiriciler şimdiden web sitesi oluşturma , vergi danışmanlığına kadar binlerce özel sohbet botu oluşturdu.
Peki siz GPT Store’daki bu güvenlik açığı hakkında ne düşünüyorsunuz?