La gouvernance de l’IA est à la traîne par rapport à l’innovation en matière d’IA sur le lieu de travail : la course est lancée

La gouvernance de l’IA est à la traîne par rapport

Gouvernance de l'IA

Par Sam Ward

Au début de ce mois, McKinsey a publié son rapport annuel **State of AI** 2023, qui montre comment les lieux de travail réagissent au boom génératif. Les résultats montrent qu’un tiers des lieux de travail utilisent déjà l’IA générative, mais que seulement 21 % ont mis en place des politiques de gouvernance appropriées.

Cette nouvelle arrive à un moment d’innovation GenAI sans précédent. De Llama à Midjourney, le rythme de ce qu’il est possible de faire avec GenAI évolue de semaine en semaine, avec de nouvelles versions à droite, à gauche et au centre. S’il est remarquable de pouvoir rédiger des textes de produits éblouissants, automatiser des tâches répétitives et créer des créations publicitaires en quelques secondes, la technologie évolue si rapidement que les régulateurs gouvernementaux ne peuvent tout simplement pas suivre le rythme. Et c’est une véritable source d’inquiétude.

Parmi les 21 % d’entreprises utilisant l’IA qui ont établi des politiques régissant l’utilisation des employés, « l’inexactitude » est citée comme la principale raison de gouvernance, la « sécurité » venant en deuxième position. La plupart des lieux de travail ne traitent tout simplement pas les risques liés à l’IA.

Les implications de GenAI ne sont pas encore entièrement connues

Il est crucial de distinguer le potentiel de GenAI et de l’intégrer efficacement dans un processus métier. Tout comme lors des premiers stades de la technologie GPS, ceux qui s’en sont trop appuyés prématurément se sont souvent retrouvés coincés sur un chemin de terre sur une route qui ne mène nulle part. Des risques similaires menacent avec GenAI, car ses implications ne sont pas encore entièrement connues et ses réponses ne devraient pas être universellement appliquées aux clients ni intégrées de manière transparente dans les processus.

Supposons qu’une entreprise opte pour GenAI, en faisant un élément central de sa solution et ne puisse pas fonctionner sans elle. Nous n’avons pas besoin d’imaginer grand-chose, car cela se produit déjà avec 10 % des équipes d’opérations de service qui s’appuient sur GenAI pour le service client, prévoyant les tendances des services et créant les premières ébauches de documents. Si les règles et réglementations dépassent cette limite ou interdisent l’utilisation de GenAI, ces équipes et l’organisation dans son ensemble pourraient se retrouver dans une situation difficile.

Les problèmes de confidentialité et de préjugés pourraient placer les entreprises dans une situation vulnérable

Toute IA est un peu biaisée en raison des données dont elle apprend. Par exemple, si un LLM (grand modèle linguistique) a été construit par une entreprise américaine, il est probable qu’il ait une perspective américaine, et si vous utilisez le même outil pour, par exemple, rédiger des e-mails ou répondre à des plaintes, alors selon la région sur lesquels vous travaillez, ces préjugés pourraient ne pas correspondre aux points de vue de vos clients.

Une autre crainte concerne les problèmes de confidentialité : les entreprises qui n’ont pas pris le temps de mettre en œuvre des directives et des garde-fous appropriés pour le traitement des données clients (par exemple, les équipes de service utilisant des chatbots pour le service client) pourraient se retrouver accidentellement à divulguer des informations sensibles via les outils GenAI. C’est la même chose que toute autre dépendance sur laquelle nous comptons : GenAI comporte son propre ensemble de risques. Trop compter sur une technologie externe pour atteindre nos objectifs commerciaux cruciaux pourrait nous rendre vulnérables.

De plus, si les réglementations resserrent soudainement leur emprise, les produits basés sur GenAI pourraient disparaître du marché sans avertissement. Contrairement à d’autres dépendances, le caractère distinctif de GenAI mérite une attention réglementaire en raison de sa dépendance à de vastes ensembles de données publiques, il est donc préférable de pécher par excès de prudence.

L’embauche d’un Chief AI Officer deviendra bientôt une activité habituelle

Lorsque vous envisagez d’utiliser des outils GenAI, faites toujours preuve de diligence raisonnable avant de vous lancer à deux pieds. Les rôles créatifs tels que la conception graphique ou la rédaction présentent peu de risques en termes de sécurité des données et les entreprises devraient les adopter pour aider leurs employés à augmenter leur productivité et à automatiser les tâches banales. Cependant, si le titre de votre poste comprend des mots tels que « livraison », « processus » ou « responsable de la relation client », vous avez besoin d’un moyen de mesurer le résultat que vous attendez, et vous avez besoin d’une politique claire comme de l’eau de roche concernant les données, comment gérer et quel est l’intérêt d’utiliser les données de votre organisation pour former d’autres modèles.

J’irais jusqu’à dire que vous devez nommer quelqu’un dans votre entreprise pour être responsable de la sécurité de l’IA. Un Chief AI Officer constitue un ensemble de compétences très spécifiques pour les organisations qui souhaitent prendre au sérieux l’IA.

Plus d’emplois seront activés par l’IA que remplacés par l’IA

Si l’on considère l’économie, il est vrai que certaines professions cesseront d’exister et que certains rôles diminueront. Le rapport de McKinsey indique que les emplois dans les opérations de services sont déjà appelés à diminuer.

Il y aura sans aucun doute un effet, et il est impératif que nous fournissions une assistance aux personnes qui traversent ce changement. Nous ne devons pas adopter une attitude indifférente à l’égard des pertes d’emplois, où les gens ignorent simplement le problème. Après tout, l’IA est une ressource collective tissée de manière complexe par tous ceux qui ont déjà utilisé Internet. Il est important de diffuser largement ses avantages, en veillant à ce qu’ils s’étendent à la société dans son ensemble, plutôt que de se limiter à un groupe sélectionné de passionnés de technologie qui ont exploité ses vastes informations pour développer des produits basés sur l’IA.

Tout au long de l’histoire, la technologie a constamment remplacé et généré des opportunités d’emploi. La bonne nouvelle est qu’il y a actuellement plus d’emplois disponibles qu’il n’y a de personnes pour les occuper. Il existe une limite à ce que les machines peuvent faire ; la présence humaine reste essentielle. Néanmoins, il est évident que notre société a besoin d’une productivité accrue au sein du marché pour améliorer le fonctionnement économique, et l’intelligence artificielle peut jouer un rôle central pour répondre à cette demande. De nombreux postes seront renforcés par l’IA plutôt que entièrement remplacés.

Les gouvernements rattrapent leur retard

Alors que l’innovation en matière d’IA se poursuit à un rythme soutenu, les organismes gouvernementaux mondiaux sont disparates dans leur approche pour combler les lacunes réglementaires. La semaine dernière, la Chine a proposé 24 principes pour rendre obligatoire l’utilisation de l’IA tout en favorisant l’innovation, alors qu’au moment de la rédaction de cet article, les États-Unis n’avaient pas de lois distinctes liées à l’IA. L’UE adopte une approche dure, avec sa loi sur l’IA, mais cette loi a fait l’objet d’un examen minutieux car elle risque de disparaître avant même d’avoir commencé en raison de l’expansion rapide de GenAI. L’ancien homme politique britannique Nick Clegg a appelé à une agence internationale autonome plutôt qu’à des « lois fragmentées » isolées.

Il est fort probable que la législation des pays ou des régions dans lesquels vous opérez (où votre technologie est hébergée) vous impactera. Cela présente un défi, car différentes régions peuvent nécessiter des versions de logiciels distinctes ou n’autoriser que certaines fonctionnalités.

Pour l’avenir, j’imagine que les grandes entreprises construisent leurs propres modèles de langage et d’apprentissage. L’avènement des LLM open source est plus susceptible d’être utilisé pour un usage privé et pour une adoption dans les petites entreprises. Il s’agirait d’une transition des dépenses passant d’une dépendance à plusieurs services d’IA/cognitifs à l’hébergement d’un service capable de fournir la plupart des résultats.

Le temps nous le dira

Le créateur de ChatGPT, Sam Altman, a prévenu que la société serait « folle de ne pas avoir un peu peur de l’IA », et pourtant le consensus général est le suivant : construisez-la et ils viendront. Seul le temps nous dira si nous pouvons atténuer les risques de l’IA sur le lieu de travail tout en accueillant cette nouvelle aube de l’innovation en matière d’IA. La course est lancée.

A propos de l’auteur

Sam Ward - AuteurSam Ward travaille actuellement en tant que responsable de la recherche et du développement en IA chez Enate, après près de deux décennies d’expérience en ingénierie avec un accent sur l’innovation et la recherche, en particulier dans l’IA et l’apprentissage automatique. Il a une passion pour la résolution de problèmes techniques complexes et la fourniture de solutions fortement renforcées par l’IA.

Publications:

L’Emploi des mathématiques en économie politique/I.,A lire. . Disponible sur internet.

Cette chronique a été reproduite de la manière la plus claire que possible. Dans la mesure où vous désirez apporter quelques explications concernant le thème « Apprentis de Mantes-la-Jolie » vous avez la possibilité de joindre notre journaliste responsable. Ce post a été choisi par le site ifa-mantes.fr en ligne pour la seule raison qu’il se présentait dans les interfaces d’un média voué au sujet « Apprentis de Mantes-la-Jolie ». La fonction de ifa-mantes.fr étant de trier sur internet des données autour de Apprentis de Mantes-la-Jolie et les diffuser en répondant du mieux possible aux questions de tout le monde. Il y aura de multiples développements sur le sujet « Apprentis de Mantes-la-Jolie » dans peu de temps, on vous incite à consulter notre site plusieurs fois.