Apple, geçtiğimiz yaz yeni bir özelliği yürürlüğe koymuştu. Çocuk cinsel rahatsız etme materyali (Child Sexual Abuse Material – CSAM) tespit özelliği kapsamında Apple, iPhone ve iCloud hesaplarında bulunan fotoğrafları çocuk istismarını araştırmak için tarayacağını duyurmuştu. Apple, amacının sadece çocuk istismarını tespit etmek ve olası şüpheli bir durumda polisle ortak çalışmak olduğunu söylese de o süreçten bu yana şirketin getirdiği bu karar oldukça çok tartışılmıştı.
Birçok kişiye göre bu özellik tam anlamıyla bir gizlilik ihlali yaratıyor. Apple’ın tüm fotoğraflara erişimi açık hale getirmesi uçtan uca şifrelemenin de önüne geçtiği düşünülüyor. Tartışmalar devam ederken birkaç gün önce konuyla ilgili soruşturma başlatılmıştı. Şimdi ise bu özellikle ilgili ilginç bir gelişme yaşandı.
Apple’ın başı dertte: Hakkında soruşturma başlatıldı!
Apple, CSAM ile ilgili ifadeleri resmi sitesinden kaldırdı
Getirdiği özellikle gündeme oturan Apple hakkında, ABD Çalışma Bakanlığı ve eski Apple çalışanları tarafından gelen şikayetlerin ardından soruşturma başlatılmıştı. Daha önce bu kararında istekli duruş sergileyen şirket, şimdi de geri adım atmış görünüyor. Apple, web sitesinde bulunan CSAM girişimi ile ilgili tüm ifadeleri 10 Aralık’ta web sayfasındaki Çocuklar için Genişletilmiş Korumalar bölümünden kaldırdı.
Kaldırma kararındaki önemli pay sahibini açılan soruşturmaya ait. Fakat ABD Çalışma Bakanlığı’nın açtığı bu soruşturmaya neyin neden olduğu ise gizemini koruyor. İddialara göre şirketin eski çalışanlarının ortaya attığı deliller Bakanlığı harekete geçirdi. Eski bir şirket çalışanına göre Apple, tamamen çocuk istismarına odaklanmak istese de şirket içinde bir takım kötü niyetli çalışmalar yürütülüyor.
Birçok iddia, Apple’ın son aylarda bir çalışanların eylemleriyle karşılaştığını söylüyor. Öyle ki çalışanların masum bir niyet gibi görünen bu özelliğe karşı çıktıkları belirtiliyor. Tüm bu olayların ardından Apple’ın bu girişimi tamamen mi yoksa belirli bir süre için mi kaldırdığı gizemini koruyor. Ancak nihai sonuç soruşturma sonrasında netlik kazanacak.
Apple’ın CSAM özelliği hakkında ne düşünüyorsunuz? Sizce de güvenlik açığı oluşturuyor mu yoksa sadece çocuk istismarına karşı bir uygulama mı? Lütfen görüşlerinizi yorumlar kısmından bizlerle paylaşınız.