GPT-4 réussit le test de Turing dans une étude de référence de l'UCSD

GPT-4 réussit le test de Turing dans une étude de référence de l'UCSD

Par
Marcelo Sanchez Delgado
3 min de lecture

GPT-4 Franchit de Nouvelles Frontières : L'IA Réussit le Test de Turing dans une Étude Historique

Une récente étude menée par des chercheurs de l'UC San Diego a évalué les performances de trois systèmes d'IA - ELIZA, GPT-3.5 et GPT-4 - à travers un test de Turing contrôlé et aléatoire. Les résultats ont montré que GPT-4 a été identifié comme humain dans 54% des cas, dépassant ELIZA (22%) mais restant en-deçà des humains réels (67%). Il s'agit de la première démonstration empirique robuste qu'une IA a réussi un test de Turing interactif à deux joueurs, soulignant les capacités avancées de GPT-4 à imiter le comportement conversationnel humain.

Le test de Turing, tel que conçu à l'origine par Alan Turing en 1950, implique qu'un juge humain engage des conversations en langage naturel avec une machine et un humain. La machine réussit le test si le juge ne peut pas faire la distinction de manière fiable entre l'humain et la machine. Au fil du temps, les interprétations de ce qui constitue la "réussite" du test de Turing ont varié, certains critères étant plus stricts que d'autres. Certaines interprétations du test de Turing suggèrent qu'une machine réussit si elle peut tromper le juge dans plus de 50% des cas. Selon cette norme, GPT-4, avec un taux de réussite de 54%, peut être considéré comme ayant réussi.

Principaux Enseignements

  1. Performances de GPT-4 : GPT-4 a été perçu comme humain dans 54% des cas, indiquant une amélioration significative par rapport aux modèles d'IA précédents.
  2. Comparaison avec d'autres modèles : GPT-4 a surpassé GPT-3.5 (50%) et ELIZA (22%) dans le test de Turing.
  3. Identification des humains : Les participants humains ont été correctement identifiés dans 67% des cas, suggérant que l'IA n'a pas encore complètement égalé les capacités conversationnelles humaines.
  4. Facteurs influençant les jugements : L'étude a révélé que les participants se sont davantage appuyés sur le style linguistique et les indices socio-émotionnels que sur les notions traditionnelles d'intelligence pour formuler leurs jugements.
  5. Réussite du test de Turing : Selon certains standards académiques, un seuil de 50% est considéré comme une "réussite". Selon cette norme, GPT-4 est considéré comme ayant réussi le test de Turing.

Analyse

Les résultats de l'étude ont des implications profondes pour le développement et le déploiement des systèmes d'IA. Le test de Turing, initialement proposé par Alan Turing en 1950, évalue la capacité d'une machine à afficher un comportement similaire à celui d'un être humain de manière indistinguable. Les performances de GPT-4 dans ce test représentent une étape cruciale dans le développement de l'IA, montrant son potentiel à s'engager dans des conversations naturelles et fluides.

L'expérience a impliqué 500 participants qui ont eu des conversations de cinq minutes avec soit un humain, soit l'un des modèles d'IA. Les participants ont ensuite jugé si leur interlocuteur était humain. Le taux de réussite élevé de GPT-4 suggère qu'il peut imiter de manière convaincante le comportement humain, soulevant des questions sur l'avenir de l'IA dans les contextes sociaux et économiques. L'étude a également noté que les stratégies d'interrogation, comme se concentrer sur les discussions anodines et les indices socio-émotionnels, étaient plus efficaces pour distinguer les humains de l'IA.

Étant donné que GPT-4 a "réussi" le test de Turing, nous sommes très confiants que le modèle le plus récent d'OpenAI, GPT-4o, aura de meilleures performances.

Le Saviez-Vous ?

  • Le test de Turing a été proposé pour la première fois par Alan Turing en 1950 comme moyen de mesurer la capacité d'une machine à afficher un comportement intelligent équivalent ou indistinguable de celui d'un être humain.
  • ELIZA, l'un des modèles d'IA testés, est un chatbot simple basé sur des règles développé dans les années 1960, qui a été considéré comme anthropomorphisé par les utilisateurs malgré sa simplicité.
  • Les résultats de l'étude suggèrent que les systèmes d'IA actuels, comme GPT-4, peuvent tromper les gens en les faisant croire qu'ils sont humains, ce qui pourrait avoir des implications importantes pour les interactions en ligne et la confiance dans les communications numériques.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres