L'entraînement de l'IA de Slack sous le feu des critiques

L'entraînement de l'IA de Slack sous le feu des critiques

Par
Katerina Ivanovski
2 min de lecture

Slack fait face à un contrecoup sur sa politique de formation de l'IA

Slack, appartenant à Salesforce, est confronté à des critiques concernant l'utilisation par défaut des données des clients, y compris les messages et les fichiers, pour améliorer ses modèles d'IA. Bien qu'elle affirme ne pas former de grands modèles de langage sur les données des clients, la politique de Slack, initialement conçue pour les fonctionnalités de recherche et de recommandation, manque de clarté. Les utilisateurs ont exprimé leurs préoccupations concernant le partage des données, d'autant plus que la page de l'IA de Slack contredit en déclarant que les données des utilisateurs ne sont pas utilisées pour la formation. En réponse à la levée de boucliers, Salesforce a accepté de mettre à jour les principes de confidentialité pour clarifier la relation entre les données des clients et l'IA générative dans Slack. Cependant, les utilisateurs restent inquiets de l'absence de consentement explicite pour le partage des discussions et d'autres contenus Slack pour la formation de l'IA.

Principaux points à retenir

  • Slack a été critiqué pour utiliser automatiquement les données des clients pour former ses modèles d'IA, ce qui soulève des préoccupations en matière de confidentialité.
  • Le libellé de la politique de Slack pourrait nécessiter un raffinement pour préciser l'utilisation des données des clients pour la formation de l'IA, à l'origine prévue pour les fonctions de recherche et de recommandation.
  • Les utilisateurs exhortent Slack à mettre à jour les principes de confidentialité pour intégrer l'utilisation des données pour la formation de l'IA ou les futures mises à jour de l'IA.
  • Salesforce s'est engagé à réviser les principes de confidentialité pour clarifier que les données des clients ne sont pas utilisées pour former l'IA de Slack ou tout autre modèle génératif.
  • Des préoccupations ont émergé concernant l'absence de consentement explicite pour l'utilisation des discussions et d'autres contenus Slack dans la formation de l'IA.

Analyse

La politique de formation de l'IA de Slack a déclenché des inquiétudes et un potentiel contrecoup, car l'utilisation par défaut des données des clients pour améliorer les modèles d'IA soulève des questions de transparence et de confiance. La controverse pourrait nuire à la réputation de Slack et attirer l'attention sur les pratiques de gestion des données de Salesforce. À l'avenir, la clarté des principes de confidentialité est essentielle pour expliciter l'utilisation des données pour la formation de l'IA, assurant ainsi la transparence et le consentement des utilisateurs. De plus, cet incident pourrait conduire à des réglementations plus strictes en matière de protection des données et à une sensibilisation accrue des utilisateurs aux pratiques de formation des modèles d'IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres