Amerika Federal Ticaret Komisyonu, yapay zeka teknolojileri aracılığıyla yapılan kimlik sahteciliği vakalarına karşı sert tedbirler getirme kararı aldı. Son dönemde yaşanan vakalar, birçok siyasi ve finansal skandala sebebiyet vermişti.
Amerikan genel seçimlerine yalnızca aylar kalması da, seçim güvenliği endişeleriyle Amerikan hükümetini harekete geçirmiş durumda. Geçtiğimiz günlerde Başkan Biden’ın deep fakeleri ile yapılan seçim manipülasyonları büyük tartışma yaratmıştı. İşte detaylar…
Amerika, yapay zeka tabanlı sahteciliğe dur diyecek!
Amerika Federal Ticaret Komisyonu yapay zeka teknolojileri alanında getireceği yeni düzenlemelerle, bu teknolojiler aracılığıyla yapılan kötü niyetli faaliyetlerden şirketleri de sorumlu tutacak. Artık yapay zeka araçları üreten her şirket, bu araçların hangi amaçlarla kullanıldığını irdelemek zorunda. Aksi halde, şirketleri iflasa sürükleyebilecek büyüklükte tazminatlar ortaya çıkabilir.
Ayrıca deep fake teknolojisiyle illegal faaliyetlere girişen kişiler için çok daha ağır cezalar getirileceği konuşuluyor. Gittikçe artan vakalardan bunalan Amerikan mahkemeleri, böylece bu konudaki caydırıcılığı artırmayı hedefliyor.
Bu durum OpenAI gibi yapay zeka merkezli şirketleri de harekete geçirmiş durumda. Ürettikleri teknolojilerinin kötü amaçlarla kullanılmaması için ellerinden geleni yapacaklarını belirten OpenAI CEO’su Sam Altman, her türlü sorumluluğu almaya hazır olduklarını açıkladı.
Yapay zeka teknolojileri toplumda büyük bir heyecan yaratmasına rağmen, birçok farklı suç tekniklerinin doğmasına da sebebiyet verdi. Özellikle dijital okuryazarlığı yüksek olmayan orta-üst yaştaki kesimler için, kapsamlı bir yapay zeka farkındalığı eğitimi verilmesi bile gündemde. Bu girişimin, dolandırıcılık vakalarını büyük oranda azaltması bekleniyor.
Peki siz bu konu hakkında ne düşünüyorsunuz? Sizce Amerika’nın uyguladığı strateji olumlu sonuç verebilir mi? Yanıtlarınızı aşağıdaki yorumlar kısmından bizimle kolayca paylaşabilirsiniz. Görüşleriniz bizim için çok değerli.
{{user}} {{datetime}}
{{text}}