Ne Faites Pas Trop Confiance aux Chatbots
Une Étude Révèle qu’ils Surestiment l’Intelligence Humaine
Une étude récente révèle que les modèles d’intelligence artificielle, notamment les chatbots les plus utilisés, ont tendance à surestimer la rationalité et la capacité de raisonnement des êtres humains. Cette vision excessivement optimiste influence leur aptitude à anticiper correctement les décisions humaines dans des contextes économiques ou stratégiques.
Les Modèles d’IA Surestiment la Rationalité Humaine
Selon les chercheurs, des modèles tels que GPT ou Claude interprètent le comportement humain à travers un cadre théorique idéal, en supposant que les individus prennent des décisions logiques et réfléchies. Pourtant, dans la réalité, les comportements humains sont souvent impulsifs, émotionnels ou imprévisibles. Cette divergence crée un écart significatif entre la manière dont l’IA imagine les décisions humaines et la façon dont les individus réagissent réellement, limitant ainsi la précision des prédictions dans les situations complexes.
Une Expérimentation Inspirée du “Concours de Beauté Keynésien”
Pour analyser la précision des modèles d’IA, les chercheurs se sont appuyés sur une expérience issue de la théorie des jeux : le concours de beauté keynésien. Ce jeu consiste à choisir non pas ce que l’on préfère, mais ce que l’on pense que les autres sélectionneront, ce qui nécessite plusieurs niveaux de raisonnement stratégique. Dans la pratique, ce type de réflexion est difficile à appliquer, même pour les experts, et encore plus pour les individus non familiarisés avec les stratégies avancées de prise de décision.
Les Chatbots Adoptent une Stratégie Trop “Intelligente”
Les modèles d’IA ont ensuite été invités à participer à une version du jeu “Devinez le Nombre”, où le vainqueur est celui dont le choix se rapproche le plus de la moitié de la moyenne des autres participants. Lorsque les chatbots recevaient des descriptions de leurs adversaires allant d’étudiants débutants à des spécialistes de la théorie des jeux ils ajustaient leurs réponses en fonction du niveau de rationalité attendu.Toutefois, ils adoptaient souvent une approche trop sophistiquée, supposant que les humains appliquaient des stratégies complexes, ce qui les éloignait fréquemment du résultat optimal. L’étude montre clairement que les modèles d’intelligence artificielle continuent de surestimer les capacités cognitives humaines. Malgré leurs progrès, ces systèmes doivent encore améliorer leur compréhension du comportement réel des individus, en particulier dans les scénarios où les décisions reposent sur des stratégies multiples et des anticipations difficiles à prédire.
Sujets connexes :




