Microsoft s'associe à StopNCII pour supprimer les deepfakes de Bing

Microsoft s'associe à StopNCII pour supprimer les deepfakes de Bing

Par
Anya Petrovich
6 min de lecture

La Collaboration de Microsoft avec StopNCII : Un Grand Pas vers la Lutte Contre les Images Intimes Non Consensuelles et les Deepfakes

Microsoft a récemment établi un partenariat avec StopNCII pour lutter contre le problème croissant des images intimes non consensuelles (NCII), y compris les deepfakes générés par l'IA. Ce partenariat fait partie d'un effort plus large pour adresser la diffusion de contenu nuisible sur internet, un problème aggravé par les avancées en intelligence artificielle. En utilisant la technologie avancée de StopNCII, Microsoft prend des mesures proactives pour empêcher ce type de contenu d'apparaître dans les résultats de recherche Bing, renforçant ainsi la sécurité en ligne pour les victimes d'exploitation en ligne.

Comment Fonctionne le Partenariat

La principale contribution de StopNCII à cet effort est sa technologie d'empreinte numérique, qui permet aux individus de créer des hashes d'images intimes sans avoir à télécharger les fichiers. Ces empreintes numériques sont partagées avec des entreprises participantes telles que Meta, TikTok, Bumble et Reddit. Les empreintes aident ces plateformes à identifier et à enlever le contenu correspondant sur leurs services, empêchant ainsi sa propagation.

Cette méthode est particulièrement efficace car elle protège la vie privée des victimes tout en garantissant que leurs images intimes ne peuvent pas être trouvées ou partagées sans consentement. Le processus fournit également un moyen de signaler ces images directement, facilitant la prise de mesures par les victimes contre les NCII.

L'Approche Indépendante de Google

Tandis que Microsoft adopte un modèle de collaboration en s'associant à StopNCII, Google a décidé de ne pas rejoindre cette initiative. Au lieu de cela, Google continue d'utiliser ses propres outils de signalement pour gérer les cas de NCII, y compris les deepfakes. Les victimes peuvent signaler des images directement à Google pour leur suppression. Cette décision marque une divergence significative d'approches entre deux géants de la technologie : alors que Microsoft privilégie la collaboration dans l'industrie, Google préfère gérer le problème en interne.

Cette distinction a suscité des questions parmi les experts de l'industrie, surtout alors que le problème des deepfakes générés par l'IA devient de plus en plus courant. Cependant, les victimes disposent toujours de moyens pour signaler les NCII et les deepfakes, quel que soit la plateforme avec laquelle elles interagissent. Notamment, les mineurs peuvent signaler des incidents via NCMEC (National Center for Missing & Exploited Children), offrant un processus de signalement spécialisé pour les jeunes victimes.

Soutien Législatif et Rôle de l'IA dans l'Exploitation en Ligne

Cette initiative de Microsoft s'inscrit dans un effort gouvernemental plus large pour lutter contre les préjudices en ligne, en particulier ceux impliquant du contenu généré par l'IA. Le gouvernement américain travaille sur de nouvelles mesures législatives, y compris le NO FAKES Act, qui vise à freiner la diffusion des deepfakes et d'autres médias synthétiques utilisés à des fins malveillantes. Le NO FAKES Act représente une reconnaissance de la menace significative posée par les technologies de l'IA capables de créer du contenu réaliste mais nuisible.

Le partenariat de Microsoft avec StopNCII est considéré comme une action complémentaire à ces initiatives législatives, renforçant l'importance de la collaboration dans l'industrie technologique pour lutter contre l'exploitation en ligne. L'augmentation des deepfakes, qui sont plus sophistiqués et plus difficiles à détecter que les NCII traditionnels, rend essentiel pour les entreprises d'adopter des outils de pointe capables de suivre les menaces en évolution. Dans ce contexte, l'intégration de la technologie de hashing de StopNCII par Microsoft est considérée comme un pas en avant crucial.

Le Défi Permanent de la Détection des Deepfakes

Bien que ce partenariat soit un développement positif, les experts soulignent les défis continus pour traiter efficacement les deepfakes. Contrairement aux NCII traditionnels, les deepfakes sont générés par l'IA et peuvent souvent échapper aux outils de détection comme PhotoDNA, qui a été initialement conçu pour identifier le matériel d'exploitation des enfants. Les deepfakes sont plus complexes, car ils combinent souvent des éléments synthétiques avec de vraies images, rendant difficile pour les systèmes de détection conventionnels de les signaler.

En conséquence, les entreprises technologiques sont de plus en plus sous pression pour innover en matière de technologies de détection et d'harmoniser leurs politiques pour faire face à cette menace émergente. Le modèle collaboratif adopté par Microsoft et d'autres plateformes est perçu comme une avancée dans la bonne direction, mais la lutte contre les deepfakes nécessitera sans doute des mises à jour politiques continues, des avancées technologiques, et la coopération entre les gouvernements et les entreprises technologiques.

Conclusion

Le partenariat de Microsoft avec StopNCII marque un tournant dans la lutte contre les images intimes non consensuelles et les deepfakes générés par l'IA. En utilisant la technologie d'empreintes numériques, Microsoft aide à protéger les victimes et à prévenir la prolifération de contenu nuisible sur ses plateformes et sur internet en général. Alors que Google a choisi de traiter les NCII de manière indépendante, cette collaboration crée un précédent important pour la coopération dans l'industrie à l'ère numérique. Alors que l'IA continue d'évoluer, des partenariats comme celui-ci, associés à des efforts législatifs tels que le NO FAKES Act, sont cruciaux pour protéger les individus contre l'exploitation dans un paysage en ligne de plus en plus complexe.

Points Clés

  • Microsoft s'associe à StopNCII pour éliminer les images intimes non consensuelles des résultats de recherche Bing.
  • StopNCII utilise des empreintes numériques pour identifier et supprimer les images intimes sur différentes plateformes.
  • Des entreprises technologiques leaders comme Meta, TikTok et Bumble se regroupent avec StopNCII pour combattre le partage d'images non consensuelles.
  • Google opère de manière indépendante, utilisant ses propres outils pour signaler les images non consensuelles.
  • Le gouvernement américain plaide en faveur de nouvelles législations pour s'attaquer aux préoccupations de vie privée liées aux deepfakes.

Analyse

La collaboration entre Microsoft et StopNCII vise à freiner la diffusion d'images intimes non consensuelles, touchant les grands acteurs technologiques comme Meta, TikTok et Bumble. L'absence de Google dans le partenariat pourrait fragmenter les efforts, affaiblissant potentiellement l'efficacité de cette initiative. Bien que les victimes bénéficient d'un processus de signalement plus simplifié à court terme, le succès à long terme de cette démarche dépend de l'adoption plus large au sein de l'industrie et du soutien législatif. Le plaidoyer du gouvernement américain pour le NO FAKES Act souligne l'urgence, mais son impact réel dépendra de l'application et de la coopération mondiale. En conséquence, les instruments financiers liés aux actions technologiques pourraient connaître de la volatilité à mesure que l'opinion publique évolue.

Saviez-Vous ?

  • StopNCII : Stop Non-Consensual Intimate Images (StopNCII) est une initiative visant à lutter contre la prolifération d'images intimes non consensuelles, y compris les deepfakes, à travers internet. Elle fonctionne en créant des empreintes numériques (hashes) d'images signalées sans avoir besoin des fichiers réels, qui sont ensuite partagées avec les entreprises participantes pour enlever le contenu correspondant. Cette approche collaborative facilite l'identification rapide et la suppression de contenu nuisible sur plusieurs plateformes simultanément.
  • Empreinte Numérique (Hash) : Dans le cadre de StopNCII, une empreinte numérique (hash) est un identifiant unique créé à partir d'un fichier image. Ce hash est généré sans stocker l'image réelle, garantissant la vie privée et la sécurité. En partageant ces hashes avec les entreprises participantes, StopNCII peut identifier et enlever les images intimes non consensuelles sur diverses plateformes, même si les images sont légèrement modifiées ou hébergées sur différents sites.
  • NO FAKES Act : Le NO FAKES Act est une législation proposée aux États-Unis visant à s'attaquer à la diffusion de deepfakes et d'autres images intimes non consensuelles. L'acte vise à établir de nouvelles réglementations et pénalités pour lutter contre la création et la diffusion de ce type de contenu, reflétant les préoccupations croissantes concernant l'utilisation abusive de la technologie pour violer la vie privée et causer du tort.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres