Apple, Çocuk İstismarı İçin Taranma Sistemi Uygulanmadığı İçin Dava Edildi Apple, çocuk istismarı içeriğini (CSAM) taramak için iCloud fotoğraflarında bir sistem uygulamadığı gerekçesiyle dava edildi. Davada, Apple’ın bu materyallerin yayılmasını önleme çabalarının yetersizliğinin, mağdurların travmalarını yeniden yaşamalarına yol açtığı iddia ediliyor. Apple, 2021’de, kullanıcıların iCloud kütüphanelerinde bilinen CSAM içeriğini tespit...
Bursa,
8°C
kapalı