Meta, Facebook ve Instagram’da kullanıcıların özel verilerinin rızasız bir şekilde paylaşılmasına karşı yeni önlemini duyurdu. İngiltere merkezli Revenge Porn Helpline tarafından, rıza dışı mahrem görüntü paylaşımını durdurmak amacıyla hayata geçirilen StopNCII.org isimli araçta, insanların çıplak fotoğraflarını sisteme yüklemeleri isteniyor.
50’den fazla kâr amacı gütmeyen kuruluşun öncülük ettiği StopNCII.org aracına, Meta (Instagram, Facebook) gibi platformlar üye oluyorlar. Araç daha sonra kullanıcıların gönderdiği fotoğraflar ve videolardan “hash” algoritması ile dijital parmak izi kimliği oluşturuyor. Ardından bu veriyi, sisteme dahil olan şirketler ile paylaşıyor.
Görüntülerin kendisi bizzat Facebook ile paylaşılmıyor
Şirketin web sayfasında yer alan bilgiye göre, StopNCII.org aracı kullanıcılardan aldığı görüntülerin orijinalini veritabanında saklamıyor. Yalnızca dijital parmak izi kimliğini kaydediyor ve Facebook, Instagram gibi ortaklarıyla da bu kimliği paylaşıyor. Sisteme yüklediğiniz fotoğraflar ve videolar, telefonunuzdan ayrılmıyor.
StopNCII.org aracına yüklediğiniz görüntüye atanan benzersiz dijital parmak izi kimliği, aynı görüntünün paylaşıldığı yerleri tespit etmeyi sağlıyor. Örneğin birisi rızanız olmadan mahrem fotoğrafınızı Instagram’da paylaştığında, Meta bunu otomatik olarak algılıyor ve anında kaldırıyor. Tabii sizin söz konusu fotoğrafı önceden sisteme yüklemiş olmanız gerekiyor.
Sadece 18 yaşından büyük kişilerin faydalanabildiği sistem, kullanmaktan vazgeçenlere ise istedikleri zaman cayma hakkı tanıyor. StopNCII.org’u desteklediğini ifade eden ve kullanıcıları bu platforma teşvik eden Meta, blog paylaşımında şunları söyledi:
Mahrem görüntülerinin (çıplaklık içeren veya cinsel içerikli fotoğraflar veya videolar) rızaları olmadan paylaşılabileceğinden endişe duyan kişilere güvenli bir şekilde yardımcı olan bu platform, türünün ilk global girişimidir.
Mahrem resimlerinin yayınlandığından veya Facebook veya Instagram gibi çevrim içi platformlarda yayınlanabileceğinden endişe duyan biri, bunları proaktif olarak tespit etmek için StopNCII.org aracılığıyla bir durum oluşturabilir.
Revenge Porn Helpline Manager Yöneticisi Sophie Mortimer, StopNCII.org’un mahrem görüntüleri paylaşılarak istismara uğraya kişilerin kendilerini koruma biçiminde büyük bir değişikliği temsil ettiğini belirti. Bu araç ile kontrolü mağdurların eline verdiklerini söyleyen Mortimer, Meta’ya desteğinden ötürü teşekkür ederek diğer platformları sisteme katılmaya davet etti.
Peki ya sizler bu araç hakkında ne düşünüyorsunuz? Fikirlerinizi yorumlar kısmına yazmayı unutmayın.
Balıklama atlarlar şimdi buna
Sadece yüzünün bir fotoğrafını paylaşsınlar ve yüzünün göründüğü bütün fotoğraflar yapay zeka ile tespit edilip engellensin?
genelde yüzünü göstermiyorsun ki bu tarz fotolarda
kanka yüzü görülmezsede çok sıkıntı değil gibi ya hani. tanınabileceği iz dövme falan yoksa.
Bunlara inanıp çıplak resmini yollayan ahmaktir, dünya nereye gidiyor ya pess?!