Pourquoi l’utilisation éthique de l’IA est importante pour votre carrière

Pourquoi l'utilisation éthique de l'IA est importante pour votre carrière

POURQUOI L'UTILISATION ÉTHIQUE DE L'IA EST IMPORTANTE POUR VOTRE CARRIÈRE

Par Jack McGuire, David De Cremer, Leander De Schutter et York Hesselbarth

Dans le contemporain À l’ère du numérique, les innovations telles que l’intelligence artificielle (IA) transforment profondément le paysage des affaires (De Cremer, 2020). Le buzz autour de ChatGPT, associé aux récentes affirmations sur la sensibilité du LaMDA de Google, un grand modèle de langage, soulignent l’importance de la technologie des chatbots dans ces avancées (Adamopoulou & Moussiades, 2020 ; Ryu & Lee, 2018 ; Tiku, 2022). Les chatbots orientés client, une application émergente de cette technologie, offrent une efficacité et une rentabilité inégalées, fonctionnant en continu et répondant aux demandes des clients en temps réel (Salesforce, Research, 2019). Pourtant, au milieu de ces avantages se cache une énigme éthique. Les clients apprécient les interactions humaines authentiques et peuvent rapidement être déçus lorsqu’ils réalisent qu’ils communiquent avec un robot et non avec une personne (Ciechanowski, Przegalinska, Magnuski & Gloor, 2019). Équilibrer ce désir d’authenticité avec l’attrait de l’efficacité opérationnelle constitue un défi, ce qui rend les entreprises tentantes de tromper les clients en brouillant les frontières entre l’humain et la machine.

Plus précisément, les organisations sont aujourd’hui confrontées à une réalité dans laquelle les chatbots démontrent des qualités humaines remarquables (Collins & Ghahramani, 2021 ; Leviathan & Matias, 2018). Cette réalité rend rationnel le choix de réduire les coûts en adoptant des chatbots de type humain. Cependant, ce choix n’est pas si simple à faire pour les organisations. Après tout, les clients préfèrent la réalité (c’est-à-dire les interactions avec un humain) à l’artificielle, et donc faire un choix rationnel nécessite que les organisations adoptent une stratégie consistant à tromper leurs clients en ne leur révélant pas que des chatbots sont utilisés.

Mai & Van Hel, 2023

Cependant, quels sont les risques lorsque les entreprises utilisent des chatbots sans les divulguer ? Qu’arrive-t-il à la réputation des organisations qui se livrent à ces actes trompeurs lorsque les clients découvrent ce qui se passe réellement ? Et, plus important encore, qu’arrive-t-il aux employés travaillant pour ces organisations ? Lorsqu’une tromperie est découverte, les organisations risquent de subir une atteinte à leur réputation, mais cela ternira-t-il également la carrière de leurs employés ? Plusieurs entreprises technologiques de premier plan ont été confrontées à des réactions négatives suite à une utilisation contraire à l’éthique des technologies émergentes.

Considérez les retombées du scandale de fraude et de mauvaise conduite de Theranos. Si l’entreprise a subi des dommages juridiques et une atteinte à sa réputation, les employés ont également été confrontés à des réactions négatives. Plusieurs d’entre eux ont fait état de difficultés de transition professionnelle, les employeurs potentiels les associant au scandale (Lapowsky, 2021). Les entreprises étant responsables de leurs employés, il est impératif, du point de vue de la responsabilité, qu’elles soient conscientes de tout effet potentiel sur la carrière de leurs employés avant de succomber à l’attrait du déploiement de chatbots sous couvert de tromperie. Pour tester si les employés souffrent effectivement dans leurs perspectives de carrière lorsque l’organisation pour laquelle ils travaillent s’engage dans des pratiques trompeuses de chatbot, nous avons mené plusieurs études expérimentales et sur le terrain (McGuire, De Cremer, De Schutter, Hesselbarth, Mai & Van Hel, 2023).

L’effet d’entraînement sur les carrières

Tout d’abord, Sans surprise, notre recherche révèle que les organisations employant des chatbots non divulgués sont perçues comme moins éthiques par les clients lorsqu’elles sont découvertes. Évidemment, si vous travaillez pour une organisation considérée comme contraire à l’éthique dans son utilisation des technologies émergentes, cela affectera votre identité professionnelle. Si tel est le cas, comment cela affectera-t-il les jugements et les actions ultérieures de ces employés ? Le scandale Uber impliquant la suppression d’allégations de harcèlement sexuel fournit des informations utiles sur la manière de répondre à cette question. Les employés d’Uber, même ceux qui ne sont pas impliqués, ont constaté que les manquements éthiques de l’entreprise éclipsaient leur réputation individuelle et incitaient nombre d’entre eux à démissionner (Kosoff, 2017).

Les organisations qui trompent leurs clients en prétendant que des humains traitent les demandes des clients sont jugées contraires à l’éthique tant par les clients que par les employés travaillant pour ces organisations.

Pour valider cela idée, nous avons mené une série d’études expérimentales dans lesquelles les employés d’une entreprise simulée ont été invités à faciliter l’utilisation trompeuse d’un chatbot. Mettre les employés dans cette situation les rendait plus susceptibles de percevoir que leur organisation cultivait une culture consistant à formuler des demandes contraires à l’éthique à leur personnel. En retour, en raison de ces perceptions, nous avons constaté que ces employés souhaitaient davantage quitter leur emploi.

Ainsi, les organisations qui tromper leurs clients en prétendant que des humains traitent les demandes des clients est jugé contraire à l’éthique tant par les clients que par les employés travaillant pour ces organisations. En conséquence, les clients ne feront preuve d’aucune loyauté envers ces organisations et les employés voudront les quitter. Mais où peuvent aller ces employés ? Sont-ils contaminés pour le marché du travail ? Avec la transmission rapide d’informations en ligne, les pratiques contraires à l’éthique d’une entreprise peuvent devenir largement connues et avoir ainsi un impact sur les trajectoires professionnelles des salariés.

Pour étudier cela phénomène, nous avons mené deux autres études, dans lesquelles nous avons évalué la façon dont ces employés sont perçus par les recruteurs. Nos résultats ont montré que les employés ayant travaillé pour une organisation connue pour utiliser les chatbots de manière trompeuse étaient perçus par les recruteurs comme moins dignes de confiance, étaient moins susceptibles de se voir proposer un emploi et recevaient un salaire inférieur lorsqu’on leur en proposait un. L’utilisation trompeuse des chatbots a donc de vastes répercussions. Cela nuit non seulement à l’entreprise, mais aussi aux personnes qui y travaillent.

La responsabilité des professionnels de la technologie : un appel à l’action

LA RESPONSABILITÉ DES PROFESSIONNELS DE LA TECH

Le cas est clair. Les professionnels de la technologie doivent défendre une utilisation éthique de l’IA. Les implications sociétales plus larges de nos créations ne peuvent être ignorées. Plaider pour la transparence et les lignes directrices éthiques protège à la fois la réputation de l’entreprise et votre propre statut professionnel. Les résultats de notre recherche offrent deux conclusions concrètes :

  1. Le rôle des dirigeants. Les dirigeants doivent reconnaître les dommages durables causés par les pratiques trompeuses. L’utilisation éthique de la technologie peut renforcer la réputation, le moral et la confiance des clients de l’entreprise.
  2. Le rôle des salariés. Les employés doivent être proactifs, exprimer leurs préoccupations concernant une utilisation contraire à l’éthique de la technologie et quitter les entreprises qui utilisent des pratiques trompeuses avant que ces tromperies ne soient révélées. Communiquer ces préoccupations de manière anonyme, en privé avec votre responsable ou publiquement lors de réunions d’équipe et de séances de discussion ouverte sont tous utiles et doivent être envisagés.

En conclusion, à mesure que le rôle de l’IA dans les entreprises augmente, son utilisation éthique devient essentielle. Il ne s’agit pas uniquement des bénéfices de l’entreprise ; il s’agit des carrières et de la réputation de ceux qui composent l’organisation. Donner la priorité aux pratiques éthiques de l’IA n’est pas seulement un impératif commercial ; c’est une nécessité de carrière.

à propos des auteurs

Jack McGuireJack McGuire Jack McGuire est associé de recherche postdoctoral à la D’Amore-McKim School of Business de la Northeastern University (Boston). Il a obtenu son doctorat en gestion et organisation de la National University of Singapore Business School et sa maîtrise en sciences de l’University College London. Avant cela, il était directeur de laboratoire expérimental et assistant de recherche à la Judge Business School de l’Université de Cambridge. Les recherches de Jack examinent les conséquences psychologiques de l’intelligence artificielle et son application croissante sur le lieu de travail. Ces travaux ont été publiés, entre autres, dans Journal of Business Ethics, Computers in Human Behaviour, International Journal of Human-Computer Interaction et Harvard Business Review.

décréterDavid De Crémer est actuellement doyen de la famille Dunton de la D’Amore-McKim School of Business et professeur de gestion et de technologie à la Northeastern University (Boston), et membre honoraire de la Cambridge Judge Business School et du St. Edmunds College de l’Université de Cambridge. Avant de déménager à Boston, il était titulaire d’une chaire principale et professeur de gestion à l’Université nationale de Singapour et professeur doté de KPMG en études de gestion à l’Université de Cambridge. Il est le fondateur et directeur du Center on AI Technology for Humankind (AiTH) à Singapour, salué par le Higher Education Times comme un exemple d’approches interdisciplinaires face aux défis de l’IA dans la société. Il est l’un des spécialistes du comportement les plus prolifiques de sa génération et un leader d’opinion mondial reconnu par Thinkers50. Il est un auteur à succès, notamment « Leadership par algorithme : qui dirige et qui suit à l’ère de l’IA ? », et son dernier livre « Le leader expert en IA : 9 façons de reprendre le contrôle et de faire fonctionner l’IA», qui sera publié par Harvard Business Review Press en 2024.

Léandre De SchutterLéandre De Schutter est professeur adjoint à la Vrije Universiteit Amsterdam, aux Pays-Bas. Il s’intéresse au leadership et à la prise de décision en milieu de travail.

York HesselbarthYork Hesselbarth construit des modèles fondateurs avec des valeurs européennes chez Nyonic AI, contribuant ainsi à la souveraineté numérique sur le continent. Auparavant, il a mené des recherches dans le domaine de l’interaction homme-machine et dirigé plusieurs projets d’IA de pointe pour l’armée allemande.

Les références

  • Adamopoulou, E. & Moussiades, L. (juin 2020). « Un aperçu de la technologie des chatbots ». Dans Conférence internationale IFIP sur les applications et innovations de l’intelligence artificielle (p. 373-83). Springer, Cham.
  • Bogost, I. (2022). « Le chatbot » sensible « de Google est notre avenir auto-trompeur ». L’Atlantique. Récupéré de :
  • Collins, E. et Ghahramani, Z. (18 mai 2021). « LaMDA : notre technologie de conversation révolutionnaire ». Blogue Google. Récupéré de :
  • De Crémer, D. (2020). Leadership par algorithme : qui dirige et qui suit à l’ère de l’IA. Maison Harriman.
  • Kosoff, M. (20 mars 2017). « Le président d’Uber démissionne alors que les employés se dirigent vers les sorties ». Salon de la vanité. Récupéré de :
  • Lapowsky, I. (31 août 2021). « Que sont devenus les employés de Theranos ? Protocole. Récupéré de :
  • Léviathan, Y. et Matias, Y. (8 mai 2018). « Google Duplex : un système d’IA pour accomplir des tâches réelles par téléphone ». Récupéré de :
  • McGuire, J., De Cremer, D., De Schutter, L., Y. Hesselbarth, Mai, KE et Van Hiel, A. (2023). « Les conséquences réputationnelles et éthiques de l’utilisation trompeuse des chatbots ». Rapports scientifiques, 13, 16246.
  • Ryu, HS et Lee, JN (2018). « Comprendre le rôle de la technologie dans l’innovation des services : comparaison de trois perspectives théoriques ». Information & Gestion, 55(3), 294-307.
  • Tiku, N. (2022). « L’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie ». Le Washington Post. Récupéré de :

Publications sur le même sujet:

Système national d’économie politique/Livre 2/06.,Référence litéraire de ce livre. Disponible chez votre libraire.

Cette chronique a été reproduite de la manière la plus claire que possible. Dans la mesure où vous désirez apporter quelques explications concernant le thème « Apprentis de Mantes-la-Jolie » vous avez la possibilité de joindre notre journaliste responsable. Ce post a été choisi par le site ifa-mantes.fr en ligne pour la seule raison qu’il se présentait dans les interfaces d’un média voué au sujet « Apprentis de Mantes-la-Jolie ». La fonction de ifa-mantes.fr étant de trier sur internet des données autour de Apprentis de Mantes-la-Jolie et les diffuser en répondant du mieux possible aux questions de tout le monde. Il y aura de multiples développements sur le sujet « Apprentis de Mantes-la-Jolie » dans peu de temps, on vous incite à consulter notre site plusieurs fois.