Forum
Blog
Facebook
Instagram
Twitter (X)
Pinterest
WhatsApp
Linkedin
Telegram
29-01-2025 09:41
29-01-2025 09:37
29-01-2025 09:30
Apple, iCloud'da çocuk cinsel istismarı materyalleri (CSAM) tarama planlarını uygulamaya koymaması nedeniyle çocuk cinsel istismarı mağdurları tarafından dava ediliyor. The New York Times'ın haberine göre, Apple, 2021 yılında CSAM içeriklerini tespit ederek Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne bildirecek bir araç üzerinde çalıştığını açıklamıştı. Ancak, bu teknolojinin gizlilik etkileri hakkında yoğun eleştiriler aldıktan sonra planı iptal etti.
NYT’nin aktardığına göre, Kuzey Kaliforniya’da Cumartesi günü açılan dava, 2.680 potansiyel mağduru temsil ediyor ve 1,2 milyar dolardan fazla tazminat talep ediyor. Dava, Apple'ın duyurduğu çocuk güvenliği araçlarını uygulamaya koymamasını veya cihazlarında CSAM içeriklerini tespit etmek ve sınırlamak için herhangi bir önlem almamasını eleştiriyor. Ayrıca, bu durumun görüntülerin yayılmaya devam etmesine ve mağdurların zarar görmesine yol açtığı iddia ediliyor.
Apple sözcüsü Fred Sainz, “Çocuk cinsel istismarı materyalleri iğrençtir ve biz bu suçlarla mücadeleye kararlıyız. Tüm kullanıcılarımızın güvenliğini ve gizliliğini tehlikeye atmadan bu suçları önlemek için yenilik yapmaya devam ediyoruz. Örneğin, İletişim Güvenliği özelliği, çocukları çıplaklık içeren içerik aldıklarında veya göndermeye çalıştıklarında uyararak cinsel istismara yol açabilecek süreçleri kesintiye uğratmayı hedefliyor. Ayrıca, CSAM’ın yayılmasını önlemek için güçlü korumalar geliştirmeye odaklanıyoruz.” dedi.
Bu dava, Apple’ın kısa bir süre önce İngiltere'deki Çocuklara Karşı Zulmü Önleme Derneği (NSPCC) tarafından CSAM içeriklerini eksik bildirmekle suçlanmasının ardından geldi.
Kendi özelleştirilmiş stilini belirle
Uygulamanız için mükemmel renk modunu seçin.
Dil yönünüzü değiştirin
Tam ekran modu aç/kapat
Bu web sitesi, en iyi deneyimi sağlamak için çerezleri kullanır. Daha fazla bilgi için lütfen Çerez Politikamızı okuyun.Kapat