Apple’ın çocuk istismarını minimuma indirmek için geçtiğimiz günlerde tanıttığı yeni özelliğin yankıları sürüyor. iOS, iPadOS ve macOS işletim sistemlerini çalıştıran cihazların iCloud’larında bulunan fotoğrafların yapay zeka yardımı ile taranıp çocuk pornografisi veya benzeri materyaller ile uyumlu olup olmadığını tespit eden özellik, son günlerde eleştiri almaya başladı.
Özelliği dünyanın dört bir yanında yer alan baskıcı hükümetlerin istismar edebileceğini düşünen birçok kişi, şirkete ciddi şekilde tepki gösterirken bugün açıklamalarda bulunan Apple yazılım şefi Craig Federighi, tanıttıkları özelliğin tamamen yanlış anlaşıldığını belirtti.
Apple çalışanları, çocuklar için sunulan özellikten rahatsız!
Apple'ın geçtiğimiz hafta duyurduğu CSAM güncellemesi, şirket içindeki birçok çalışanın Apple'ı protesto etmesine neden oldu.Apple’ın çocuk istismarı özelliği yanlış anlaşılmış
Şirket, daha önce yaptığı duyuruda çocuk istismarının önüne geçmek için ekosisteminde bulunan cihazların iCloud’larında yer alan fotoğrafların yapay zeka yardımıyla taranacağını ve sakıncalı içerik bulunması durumunda da Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi‘ne (NCMEC) otomatik olarak bildirimde bulunacağını açıklamıştı.
Ancak Apple yazılım şefi Craig Federighi’e göre yapay zeka, iCloud fotoğraflarını gerçekten taramayacak. Bunun yerine fotoğraf kodlarını mevcut çocuk pornografisi materyallerinin bulunduğu veritabanı üzerinden kontrol edecek. Bu da yapay zekanın fotoğraflara erişimi olmayacağı ve yalnızca kodları üzerinden bir tarama yapacağı anlamına geliyor.
Craig Federighi, çocuk istismarının önüne geçmek için tanıttıkları yeni özelliğin ardından kendilerini çok olumlu ve güçlü hissettiklerini, ancak özelliğin çalışma mantığı konusunda ise yanlış anlaşıldıklarını ifade etti. Aynı zamanda kullanıcıların rahat olmasını, güvenlik ve gizlilik konusunda da en ufak bir sıkıntının ortaya çıkmayacağını açıklayan Federighi, iddia edildiği gibi siyasi sansür durumlarının kesinlikle yaşanmayacağını belirtti.