Rahul Ghodke

Dr. Rahul Ghodke

Vice-président principal et dirigeant de l’unité d’affaires Opérations technologiques mondiales, Asie-Pacifique

L’intelligence artificielle (IA) agentive marque un tournant décisif dans la manière dont les organisations mettent en œuvre l’intelligence artificielle au sein de leurs activités. Ces systèmes ne font pas que répondre aux requêtes. Ils établissent des objectifs et des plans d’action, s’entraînent sur les résultats, en plus de fonctionner avec un degré d’autonomie propice aux occasions d’affaires et aux risques. À mesure que les modèles d’IA agentive quittent les laboratoires pour s’installer dans les entreprises, la question centrale n’est plus « Qu’est-ce que ces systèmes peuvent accomplir? », mais plutôt « Comment pouvons-nous les concevoir, les gouverner et leur accorder notre confiance? ».

Dans ce billet de blogue, je présente quelques pratiques recommandées afin d’adopter l’IA agentive de manière responsable. En m’appuyant sur l’expérience de CGI auprès de clients de tous les secteurs d’activité, j’explore comment les organisations peuvent passer de la phase pilote à celle de production tout en équilibrant autonomie et imputabilité, innovation et contrôle ainsi qu’efficacité et supervision éthique.

Cette transition vers des systèmes d’IA qui agissent comme des collègues n’est plus qu’une simple évolution technique, mais un tournant organisationnel, économique et éthique. Afin de générer de la valeur à grande échelle, les entreprises doivent intégrer une transparence, une surveillance humaine de même qu’une gouvernance à chaque étape du cycle de vie de l’IA agentive.

Qu’est-ce que l’IA agentive et en quoi perturbe-t-elle la nature du travail?

L’IA agentive fait référence à des systèmes intelligents semi-autonomes capables d’analyser le contexte des flux de travaux, les résultats escomptés ainsi que les sources de données à disposition afin de prendre des mesures axées sur l’atteinte des objectifs. Ces systèmes peuvent morceler les objectifs en étapes concrètes, sélectionner les outils ou les sources de données, adapter les stratégies en fonction des commentaires ou des échecs de même qu’étudier les résultats de performance afin de s’améliorer au fil du temps.

Concrètement, voici ce que les systèmes d’IA agentive peuvent accomplir.

  • Agir avec un apport humain minimal à chaque étape

    Exemple – Chez CGI, nous bâtissons des modèles d’IA agentive afin de gérer les activités de bout en bout des TI, ce qui permet de concentrer les interventions humaines sur la surveillance, plutôt que l’exécution.

  • Entreprendre des actions, prendre des décisions et s’adapter dynamiquement

    Exemple – Nos agents d’automatisation d’entreprise gèrent de manière autonome les flux de travaux de soutien à la clientèle, en transférant les cas complexes et ambigus aux humains lorsqu’ils surviennent.

  • Faire preuve d’autonomie dans l’atteinte des objectifs, et non pas seulement sur la tâche en cours

    Exemple – Nous avons conçu une solution de GPT sur site qui analyse, résume et présente les perspectives des répertoires de connaissances internes de manière proactive, ce qui permet d’améliorer la qualité des réponses, la précision des décisions de même que les délais d’exécution.

Contrairement à un système d’IA traditionnelle qui exécute des tâches prédéfinies en réponse aux interactions de l’utilisateur, un système d’IA agentive évalue le contexte, les connaissances et les flux de travaux, ce qui lui permet d’optimiser ses décisions au fur et à mesure.

Quand l’IA délaisse l’automatisation de tâche pour devenir un collègue responsable

Avec cette nouvelle forme d’intelligence qui pénètre dans la main-d’œuvre, les organisations doivent délaisser les agents conversationnels intelligents à interaction unique et l’automatisation de tâches spécifiques au profit d’agents d’IA qui font preuve d’initiative, de planification et d’indépendance. Ces systèmes sont plus que juste des assistants numériques. Ils deviennent des collègues, et, dans certains cas, des partenaires de confiance dans la prise de décision concernant des tâches spécifiques.

Cette évolution apporte son lot de défis réels pour les chefs de la direction informatique et les leaders en numérique, y compris :

  • équilibrer efficacité avec imputabilité et transparence;
  • résoudre les risques liés à l’éthique, à la fiabilité, à la protection des données et à la sécurité;
  • gérer la relation en constante évolution entre les talents et les machines.

À mesure que l’IA agentive prend une plus grande part de responsabilités, la nécessité d’une surveillance humaine et d’une autonomie responsable devient essentielle. Sans cette dernière, les organisations sont à risque de commettre des erreurs qui pourraient les exposer à des dommages opérationnels, de sécurité ou à leur réputation.

Selon notre expérience à soutenir nos clients tout au long de leurs parcours de maturité en IA, vous trouverez ci-dessous des recommandations pratiques afin d’adopter l’IA agentive de manière responsable, des mises à l’essai précoces à des déploiements gouvernés à l’échelle de l’entreprise.

Se concentrer sur la collaboration humain-IA, pas seulement sur la vitesse

L’adoption de l’IA responsable commence par une vision qui va au-delà de la vitesse et de l’efficacité. L’objectif n’est pas de remplacer les talents, mais de concevoir une IA agentive capable d’accroître les capacités humaines de jugement, de créativité et de prise de décision.

La véritable accélération provient d’une collaboration repensée entre humains et machines, où l’IA est responsable de l’exécution et de la reconnaissance des tendances, pendant que les humains conservent le contrôle quant à l’imputabilité, au contexte et à la stratégie.

Les organisations peuvent mettre cela en place en :

  • établissant des équipes numériques interfonctionnelles;
  • intégrant l’IA agentive dans l’ensemble des opérations, de la gestion des applications et des environnements des utilisateurs finaux;
  • élaborant des pratiques normalisées en matière de transparence et de surveillance humaine;
  • présentant conjointement les commentaires, les étapes de validation et les résultats;
  • définissant d’emblée les mesures de valeur et en suivant continuellement les indicateurs clés de performance.

Lorsqu’elle est bien intégrée, l’IA agentive améliore la productivité et la qualité des décisions prises tout en conservant les humains dans le processus.

Intégrer la gouvernance et l’éthique à la prise de décision autonome

Si la gouvernance de l’IA traditionnelle se penchait sur l’équité, la transparence, la protection des données et la lutte contre la discrimination, de son côté, l’IA agentive apporte son lot supplémentaire de complexités. Elle comprend des systèmes capables d’agir indépendamment, de prendre des décisions et d’influencer les résultats au fil du temps.

Cela nécessite que les organisations :

  • définissent clairement les responsabilités concernant les actions prises par l’agent en ce qui concerne sa conception, son déploiement et les résultats obtenus;
  • intègrent la transparence aux processus de raisonnement, de planification et d’exécution de l’agent;
  • s’assurent que les décisions prises sont sécuritaires, justes, vérifiables et qu’elles s’améliorent continuellement;
  • alignent les modèles de gouvernance sur les valeurs humaines, les exigences réglementaires et les normes du secteur d’activité.

La prochaine phase de maturité de l’IA exige des balises éthiques intégrées dès la conception, y compris une orientation propre au secteur, un code de conduite, une intégration de l’architecture technique ainsi qu’une simulation des incidences concrètes avant de mettre à l’échelle son autonomie.

Aligner les agents autonomes sur les valeurs humaines et se protéger contre les préjugés

L’alignement des valeurs quant à l’IA agentive n’est pas un paramétrage que l’on effectue une seule fois ni un ensemble de règles statiques. C’est un processus continu façonné par les normes sociales, les réflexions éthiques et les rétroactions provenant de cas réels.

Les systèmes d’IA agentive sont dotés d’une autonomie, d’outils et d’objectifs. Sans mesures de protection, ils peuvent amplifier les préjugés, renforcer les inégalités ou générer des résultats inattendus.

Voici quelques mesures efficaces d’atténuation.

  • Audit des préjugés – Mise à l’essai régulière des agents à l’aide de scénarios réels et fictifs pour détecter les résultats présentant des préjugés.
  • Balises et contraintes – Codage en dur des limites éthiques et blocage des plans, des actions ou des usages d’outils dangereux.
  • Modélisation éthique des récompenses – Renforcement du comportement souhaité tout en pénalisant les résultats dangereux ou issus de préjugés.
  • Surveillance humaine – Acheminement des décisions ambiguës ou à caractère sensible à des examinateurs humains.
  • Conception et mise à l’essai inclusives – Participation d’utilisateurs et d’experts diversifiés afin de révéler les angles morts.
  • Transparence et explicabilité – Journalisation des actions et interprétabilité des plans des agents.
  • Surveillance et rétroaction continues – Autoriser les utilisateurs à signaler les problèmes et à alimenter le système avec des perspectives à des fins d’amélioration.

Opérationnaliser la confiance en transformant l’autonomie responsable en cas pratique

consultants looking at phone and agave leaves

Les principes d’IA responsable n’ont de valeur que s’ils peuvent être mis en œuvre (à l’échelle). CGI DigiOps, notre approche en matière de prestation de services fondée sur l’IA, démontre comment l’autonomie, la confiance et la gouvernance peuvent coexister.

CGI DigiOps permet aux entreprises de concevoir, de déployer et de surveiller les agents d’IA sensibles au contexte qui agissent de manière autonome tout en demeurant alignés sur les valeurs organisationnelles. L’objectif n’est pas de restreindre l’innovation, mais de s’assurer que la confiance suit le rythme d’évolution de l’autonomie.

Cette approche reflète l’engagement général de CGI à intégrer l’IA responsable dans l’ensemble de ses environnements de prestation de services, des services financiers aux systèmes du secteur public.

Exemples concrets de l’IA agentive responsable en action

Commerce de détail (collaboration humain-IA pour des opérations intelligentes)

Dans des opérations de TI à grande échelle, CGI a mis en œuvre des agents autonomes afin de gérer le grand volume de tâches avec une supervision humaine. Ces systèmes exécutent les actions, tandis que les employés conservent leur autorité en ce qui concerne l’interprétation et la prise de décision. En pratique, cela réduit les efforts manuels de 25 à 38 % et écourte considérablement les délais de résolution, ce qui permet aux équipes de se concentrer sur des analyses de plus grande valeur et l’engagement des clients.

Assurance (gouvernance fondée sur l’IA pour les réclamations et la prévention de la fraude)

L’IA agentive permet d’examiner les réclamations, d’effectuer une validation croisée des sources de données et de détecter les anomalies associées à la fraude. Les cadres de gestions de l’IA explicable assurent la transparence, pendant que les cas à risque élevé sont acheminés à des évaluateurs humains. En utilisant cette approche fondée sur l’IA agentive, nous aidons les clients du secteur de l’assurance à accélérer jusqu’à 48 % leurs délais de traitement des réclamations, tout en réduisant les réclamations frauduleuses de 56 %.

Centres de soutien (mesures de protection fondées sur l’IA contre l’hameçonnage, l’usurpation d’identité et le piratage psychologique)

Les centres de soutien fondés sur l’IA analysent les signaux comportementaux, le ton ainsi que les modèles de réclamation pour détecter les tentatives d’hameçonnage, d’usurpation d’identité et de piratage psychologique. En mettant en œuvre ce type de systèmes capables de valider l’identité et le contexte de manière dynamique, nous aidons les clients du secteur à réduire jusqu’à 52 % leur exposition au piratage psychologique et de plus de 60 % les incidents liés à des accès non autorisés.

Intégrer la confiance dans l’avenir du travail

Ces résultats démontrent que l’IA agentive responsable n’est pas qu’une question de cadres de gestion éthiques, mais de la manière d’intégrer l’imputabilité, l’explicabilité et des valeurs mesurables aux tâches quotidiennes.

L’expertise sectorielle mondiale, le cadre d’utilisation responsable de l’IA et les plateformes modulaires d’entreprise de CGI aident les organisations à déployer et à mettre à l’échelle des systèmes sécurisés d’IA agentive. En intégrant la gouvernance, l’ingénierie et le suivi des opérations, nous nous assurons que l’autonomie est mise en œuvre avec une confiance intégrée.

Si vous explorez comment mettre à l’échelle de manière responsable les systèmes d’IA agentive de votre organisation, je vous invite à communiquer avec moi pour discuter des leçons apprises, des cadres de gestion éprouvés et des évolutions du domaine à surveiller.

À propos de l’auteur

Rahul Ghodke

Dr. Rahul Ghodke

Vice-président principal et dirigeant de l’unité d’affaires Opérations technologiques mondiales, Asie-Pacifique

Rahul Ghodke est chargé de stimuler la croissance et de fournir des services à des clients de différents secteurs d’activité, y compris les communications, le secteur manufacturier, le commerce de détail, le secteur pétrolier et gazier, les services financiers et le secteur public. À titre ...