Apple, Çocuk İstismarı İçin Taranma Sistemi Uygulanmadığı İçin Dava Edildi
Apple, çocuk istismarı içeriğini (CSAM) taramak için iCloud fotoğraflarında bir sistem uygulamadığı gerekçesiyle dava edildi. Davada, Apple’ın bu materyallerin yayılmasını önleme çabalarının yetersizliğinin, mağdurların travmalarını yeniden yaşamalarına yol açtığı iddia ediliyor. Apple, 2021’de, kullanıcıların iCloud kütüphanelerinde bilinen CSAM içeriğini tespit etmek için bir sistem duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle planları rafa kaldırmıştı.
“Hükümet Gözetimi İçin Arka Kapı Olabilir”
Apple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer grupların topladığı dijital imzalarla kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurdu. Ancak güvenlik ve gizlilik savunucuları, bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle planlar rafa kaldırıldı.
2.680 Mağdur Olduğu Belirtliyor
Dava, bebekken bir akrabası tarafından istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, neredeyse her gün bu görüntülere sahip biriyle ilgili kolluk kuvvetleri tarafından bildirim aldığını belirtti. Avukat James Marsh, davada tazminat almaya hak kazanabilecek 2.680 mağdur olduğunu söyledi.
Apple, bu suçlarla mücadele etmek için güvenlik ve gizlilikten ödün vermeden yenilik yapmaya devam ettiklerini belirtti. Ağustos ayında, 9 yaşındaki bir kız çocuğu ve vasisi, Apple’ı iCloud’da CSAM’ı ele almamakla suçlayarak dava açtı.