Skip to main content

Quand l’IA est perçue comme une personne

Depuis que l’intelligence artificielle a quitté les laboratoires pour s’immiscer dans les entreprises, une erreur d’évaluation subtile mais systématique est apparue : les humains, qu’ils soient managers ou collaborateurs, jugent ces technologies comme s’il s’agissait d’humains.
C’est le cœur du problème souligné par VentureBeat et confirmé par plusieurs études de Harvard Business Review ou du MIT : quand une entreprise évalue l’IA, elle le fait souvent en calquant les standards de performance émotionnelle et sociale réservés aux personnes.

Ainsi, lorsque l’IA commet une erreur, elle n’est pas perçue comme une simple imperfection technique mais comme une « trahison » ou un signe d’incompétence flagrante, bien plus sévèrement jugée que si cette même erreur avait été commise par un salarié humain.
Cette tendance trouve ses racines dans un phénomène bien connu des psychologues : l’anthropomorphisme, soit la propension à attribuer aux machines des intentions, des émotions et des jugements humains.

Les attentes irréalistes plombent l’adoption

En pratique, cet anthropomorphisme entraîne deux effets pervers majeurs.
D’abord, les collaborateurs s’attendent à ce que l’IA « comprenne » des subtilités, des émotions ou des contextes de manière humaine, ce qui n’est pas le cas, même pour les systèmes les plus avancés.
Ensuite, lorsque l’IA échoue (ce qu’elle fait, comme tout outil technologique), elle est jugée plus sévèrement qu’un collègue humain, car on attend d’elle une perfection mécanique et une finesse humaine combinées, un combo impossible.

Cette dynamique explique en partie pourquoi de nombreuses implémentations d’IA en entreprise, qu’il s’agisse de chatbots, d’assistants internes ou d’outils de recommandation, connaissent une adoption lente ou restent sous-exploitées malgré leur potentiel.
Les utilisateurs déçus par des résultats qu’ils avaient surestimés préfèrent souvent revenir à des processus humains imparfaits mais familiers.

Comment les entreprises peuvent-elles sortir de ce piège ?

Pour les experts interrogés par VentureBeat et Harvard Business Review, trois leviers sont essentiels :

  • Éduquer les collaborateurs : les familiariser avec ce que l’IA sait réellement faire (et ce qu’elle ne peut pas faire) réduit l’effet d’anthropomorphisme et aligne les attentes sur la réalité technique.
  • Concevoir des IA honnêtes : les systèmes ne doivent pas feindre d’être humains. Mieux vaut qu’un chatbot dise « je ne suis pas sûr de comprendre » plutôt que d’approximer une réponse fausse avec assurance.
  • Normaliser les erreurs de l’IA : comme on accepte les limites humaines, accepter que l’IA puisse parfois se tromper sans remettre en cause toute sa valeur est crucial pour qu’elle soit réellement adoptée.

Vers une adoption plus mature de l’IA

L’enjeu dépasse la simple adoption technologique. À l’heure où l’IA est appelée à transformer les métiers, les chaînes de valeur et les relations clients, savoir l’intégrer sans projeter sur elle des qualités humaines irréalistes devient une compétence stratégique pour les entreprises. Gartner estime d’ailleurs que d’ici 2027, plus de 50 % des échecs de déploiement d’IA en entreprise seront dus à des attentes mal calibrées, souvent nourries par l’anthropomorphisme.

L’IA n’est ni une humaine parfaite, ni une machine froide. C’est un outil, parfois impressionnant, parfois limité. Le véritable défi pour les entreprises est de la juger pour ce qu’elle est réellement, et non pour ce qu’elles aimeraient qu’elle soit.