A Apple enfrenta processo de sobreviventes de abuso infantil por alegações de que hospedava e ignorava imagens de abuso no iCloud.
A Apple enfrenta uma ação coletiva de milhares de sobreviventes de abuso sexual infantil, acusando a empresa de hospedar conscientemente e não remover imagens e vídeos de abuso no iCloud. Os demandantes alegam que a Apple tinha a tecnologia para detectar tal conteúdo, mas descontinuaram seu programa de "Detecção CSAM" de 2021. O processo busca medidas para garantir a segurança infantil, alegando que a inação da Apple prejudicou as vítimas.
Há 4 meses
31 Artigos