Les employés de Google DeepMind demandent de mettre fin aux contrats militaires

Les employés de Google DeepMind demandent de mettre fin aux contrats militaires

Par
Lena Kuznetsova
3 min de lecture

Les employés de Google DeepMind demandent un examen des contrats militaires

Récemment, environ 200 employés, représentant 5 % de l'équipe de DeepMind, ont pris l'initiative d'exprimer leurs préoccupations en envoyant une lettre à Google, exigeant la fin des partenariats militaires. Leur inquiétude vient de la croyance que ces contrats pourraient enfreindre les propres normes éthiques de Google en matière d'IA. La lettre, circulée en mai, souligne la fourniture par Google de technologies d'IA aux forces militaires des États-Unis et d'Israël via des services cloud.

Ce n'est pas la première fois que Google fait face à des résistances concernant ses collaborations militaires. Auparavant, il y avait eu une opposition à un projet appelé Nimbus, qui impliquait la fourniture de technologies au gouvernement israélien. En effet, plus tôt cette année, certains employés ont été licenciés pour avoir exprimé leur désaccord.

Les employés de DeepMind sont fermement décidés, appelant à la création d'un organe interne pour éviter les associations militaires et exhortant la direction à mettre fin à l'accès militaire à leur technologie. Toutefois, ils n'ont pas encore reçu de réponse significative de la part de la direction. En revanche, Google affirme respecter ses principes en matière d'IA et conteste les accusations selon lesquelles sa technologie serait utilisée à des fins militaires sensibles dans ses accords avec le gouvernement israélien.

La situation est effectivement complexe, surtout à la lumière de l'acquisition de DeepMind par Google en 2014, avec la promesse que leurs recherches en IA ne s'aligneraient pas sur des opérations militaires ou de surveillance. Cependant, avec l'intensification de la concurrence en matière d'IA, il semble que l'autonomie de DeepMind soit en diminution. La question qui se pose maintenant est : Quelles seront les prochaines étapes ?

Points clés

  • Environ 200 employés de DeepMind plaident pour la fin des contrats militaires avec Google.
  • La lettre souligne un conflit avec les normes éthiques de Google en matière d'IA.
  • Des rapports suggèrent que les contrats cloud de Google incluent l'utilisation de l'IA de DeepMind à des fins militaires.
  • Les employés demandent la création d'un nouvel organe de gouvernance pour empêcher le déploiement futur de technologies militaires.
  • Google maintient sa conformité avec les principes de l'IA et nie l'utilisation militaire pour des tâches sensibles.

Analyse

La révolte des employés de Google DeepMind concernant les contrats militaires pourrait tendre les relations internes et nuire à la réputation de l'entreprise. Ce différend met en évidence les tensions sous-jacentes entre les intérêts commerciaux et le développement éthique de l'IA. À court terme, cela pourrait entraîner un examen accru et des défis réglementaires potentiels. Si cela reste non résolu à long terme, cela pourrait affecter la rétention des talents chez Google et son statut au sein de la communauté de l'IA, pouvant ainsi freiner l'innovation et la croissance du marché. De plus, ce conflit soulève des questions plus larges sur l'application éthique de l'IA dans le domaine de la défense, ce qui pourrait influencer les partenariats technologiques et militaires mondiaux ainsi que la perception publique des technologies d'IA.

Le saviez-vous ?

  • Google DeepMind :
    • Aperçu : Google DeepMind, acquis par Google en 2014, est une entreprise d'IA de premier plan reconnue pour le développement de technologies d'IA avancées, telles qu'AlphaGo, qui a battu un champion du monde au complexe jeu de société Go. Bien que DeepMind soit dédié à l'utilisation de l'intelligence pour améliorer le monde, des préoccupations récentes ont émergé concernant son implication dans des applications militaires, ce qui va à l'encontre de ses directives éthiques.
  • Principes éthiques de l'IA :
    • Aperçu : Les principes éthiques de l'IA servent de lignes directrices établies par des organisations pour garantir le développement et le déploiement responsables et éthiques des technologies d'IA. Ces principes comprennent des aspects tels que la transparence, l'équité, la vie privée et le non-nuisance. Dans le contexte de Google DeepMind, ces principes sont remis en question en raison de la fourniture par l'entreprise de technologies d'IA à des groupes militaires, suscitant des inquiétudes concernant des utilisations potentiellement contraires à l'éthique de l'IA.
  • Projet Nimbus :
    • Aperçu : Le projet Nimbus est une initiative de cloud computing impliquant Google et le gouvernement israélien, fournissant des services cloud à diverses agences, y compris potentiellement des entités militaires. Ce projet a suscité des conflits internes et un examen public au sein de Google, notamment parmi les employés de DeepMind, qui craignent les implications éthiques de la fourniture de technologies d'IA à l'armée. Par conséquent, le projet a suscité des débats concernant le respect par Google de ses principes éthiques en matière d'IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres