Çocuk no image

Published on Ağustos 6th, 2021

0

Apple’dan çocuk istismarına karşı önlem

Apple, ABD’li müşterilerin cihazlarında çocuklara yönelik cinsel istismar materyali bulmaya yönelik bir sistemin ayrıntılarını duyurdu.

Bir görüntü iCloud Photos’a kaydedilmeden önce, yeni teknoloji zaten bilinen bunlar arasında cinsel istismar materyali arayacak. 

Apple, bir eşleşme bulunursa, bir inceleme görevlisinin kullanıcıyı değerlendirip kolluk kuvvetlerine bildireceğini söyledi.

Bununla birlikte, teknolojinin telefonları yasaklanmış içerik ve hatta siyasi konuşmalar için taramak üzere genişletilebileceğine dair gizlilik endişeleri var.

Uzmanlar, teknolojinin otoriter hükümetler tarafından vatandaşlarını gözetlemek için kullanmasından korkuyor. 

Veri tabanı karşılaştırması

Apple, bu yılın sonlarında piyasaya sürülecek olan iOS ve iPadOS’un yeni sürümlerinin “kullanıcı gizliliği için tasarım yaparken cinsel istismar materyallerinin çevrimiçi yayılmasını sınırlamaya yardımcı olacak yeni şifreleme uygulamalarına” sahip olacağını söyledi.

Sistem, resimleri, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından derlenen, bilinen çocuk cinsel istismarı görüntülerinden oluşan bir veri tabanıyla karşılaştırarak çalışacak.

Bu görüntüler, bir Apple aygıtındaki bir görüntüyle “eşleştirilebilecek” sayısal kodlar olan “karmalara” çevrilecek.

Apple, teknolojinin orijinal görüntülerin düzenlenmiş ancak benzer sürümlerini de yakalayacağını söylüyor.

‘Yüksek düzeyde doğruluk’

Apple, “Bir görüntü iCloud Fotoğrafları’nda saklanmadan önce, o görüntü için bilinen CSAM karmalarına karşı bir cihaz üzerinde eşleştirme işlemi gerçekleştirilir” açıklaması yaptı.

Şirket, sistemin “son derece yüksek bir doğruluk düzeyine sahip olduğunu ve belirli bir hesabın yanlış bir şekilde işaretlenmesi için yılda bir trilyonda birden daha az şans sağladığını” iddia etti.

Apple, bir eşleşme olduğunu doğrulamak için her raporu manuel olarak inceleyeceğini söylüyor. Ardından, bir kullanıcının hesabını devre dışı bırakmak ve kolluk kuvvetlerine rapor vermek için adımlar atabilir.

Şirket, yeni teknolojinin mevcut tekniklere göre “önemli” gizlilik avantajları sunduğunu söylüyor – çünkü Apple, kullanıcıların fotoğraflarını yalnızca iCloud Photos hesaplarında bilinen bir cinsel istismar koleksiyonu varsa tespit edebilecek.

(Bianet)

Foto: Jan Vašek – Pixabay

Tags: , , ,


About the Author



Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Back to Top ↑