Apple fait l'objet de critiques pour avoir sous-déclaré les matériels liés à la maltraitance sexuelle d'enfants

Apple fait l'objet de critiques pour avoir sous-déclaré les matériels liés à la maltraitance sexuelle d'enfants

Par
Sofia Fernandez
3 min de lecture

Apple Face à la Critique pour la Sous-Déclaration des Cas de Contenu Sexuellement Exploitant des Mineurs

Apple fait l'objet de critiques pour le nombre relativement faible de cas signalés de contenu sexuellement exploitant des mineurs (CSAM) sur ses plateformes, en comparaison avec d'autres géants de la technologie tels que Google et Meta. En 2023, Apple a signalé seulement 267 cas de CSAM au National Center for Missing & Exploited Children (NCMEC), ce qui est nettement inférieur aux 1,47 million de Google et aux 30,6 millions de Meta. L'écart est également évident par rapport à d'autres plateformes telles que TikTok, X, Snapchat, Xbox et PlayStation, qui ont toutes signalé plus de cas qu'Apple.

La National Society for the Prevention of Cruelty to Children (NSPCC) au Royaume-Uni a découvert qu'Apple était associé à 337 cas de CSAM en Angleterre et au Pays de Galles entre avril 2022 et mars 2023, dépassant ses rapports mondiaux. La NSPCC a obtenu ces informations par le biais de demandes de liberté d'information.

L'utilisation du chiffrement de bout en bout dans les services d'Apple, tels qu'iMessage, FaceTime et iCloud, a entravé la capacité de l'entreprise à surveiller le contenu des utilisateurs. Toutefois, même avec un chiffrement similaire, WhatsApp a signalé près de 1,4 million de cas suspects de CSAM en 2023.

Richard Collard, responsable de la politique de sécurité de l'enfant en ligne à la NSPCC, s'est dit préoccupé par la différence significative entre le nombre de cas de CSAM au Royaume-Uni sur les services d'Apple et le faible nombre de rapports mondiaux aux autorités. Il a exhorté Apple à prioriser la sécurité, en particulier à la lumière de la prochaine Loi sur la sécurité en ligne au Royaume-Uni.

Apple avait initialement prévu d'implémenter un balayage d'images pour le CSAM avant les envois sur iCloud en 2021, mais a fait face à une résistance de la part des défenseurs de la vie privée, mettant finalement fin au projet en 2022. Depuis, l'entreprise s'est concentrée sur la priorisation de la sécurité et de la confidentialité des utilisateurs, soulignant que la protection des enfants peut être obtenue sans une surveillance étendue des données personnelles.

Points Clés à Retenir

  • Apple a signalé seulement 267 cas de CSAM mondialement en 2023, ce qui est nettement inférieur à Google (1,47 million) et à Meta (30,6 millions).
  • La NSPCC a trouvé qu'Apple était impliqué dans 337 cas de CSAM en Angleterre et au Pays de Galles, un nombre plus élevé que ses rapports mondiaux.
  • Les services d'Apple tels qu'iMessage, FaceTime et iCloud utilisent un chiffrement de bout en bout, ce qui limite leur capacité à détecter le CSAM.
  • Malgré un chiffrement similaire, WhatsApp a signalé près de 1,4 million de cas suspects de CSAM en 2023.
  • Apple a mis de côté ses outils de détection du CSAM en 2022, se concentrant sur la confidentialité et la sécurité des utilisateurs à la place.

Analyse

Le sous-déclaration des cas de CSAM par Apple est principalement attribuable à son utilisation du chiffrement de bout en bout, ce qui entrave les efforts de détection. Cet écart n'affecte pas seulement des organisations comme le NCMEC et la NSPCC, mais soulève également des inquiétudes concernant les initiatives de sécurité des enfants. À court terme, Apple fait face à un examen réglementaire et à un risque potentiel de dommages à sa réputation. Toutefois, à long terme, un investissement accru dans la technologie de sécurité, potentiellement par le biais de partenariats, pourrait aider à atténuer les risques et à s'aligner sur les lois évoluantes en matière de confidentialité telles que la Loi sur la sécurité en ligne du Royaume-Uni.

Saviez-Vous Que?

  • Chiffrement de Bout en Bout (E2EE):
    • Explication: Cette mesure de sécurité garantit que seuls les utilisateurs communiquant peuvent lire les messages. Elle est cruciale pour la confidentialité, mais peut limiter la capacité des fournisseurs de services à surveiller et à détecter le contenu illégal tel que le CSAM.
  • National Center for Missing & Exploited Children (NCMEC):
    • Explication: Une organisation essentielle aux États-Unis qui sert d'agence centrale de rapport pour les cas de maltraitance d'enfants. Les entreprises technologiques sont tenues de signaler tous les cas suspects de CSAM qu'elles rencontrent sur leurs plateformes au NCMEC.
  • Loi sur la Sécurité en Ligne (Royaume-Uni):
    • Explication: Une proposition de législation visant à rendre l'Internet plus sûr, en particulier pour les enfants, en exigeant des entreprises technologiques qu'elles prennent des mesures actives pour protéger les utilisateurs contre les contenus nocifs, y compris le CSAM. Cette loi devrait imposer des règlements plus stricts aux entreprises en ce qui concerne la surveillance et le rapport du contenu, ce qui pourrait influencer la manière dont les entreprises technologiques gèrent la sécurité et la confidentialité des utilisateurs.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres