Frederic Miskawi

Frederic Miskawi

Vice-président, Responsable des services d’expertise et d’innovation en IA, Centre d’expertise en intelligence artificielle

Les grands modèles de langage tels que ChatGPT d’OpenAI, Bard de Google, Claude d’Anthropic et LLaMA de Meta suscitent l’enthousiasme en raison de leur énorme potentiel d’utilisation de l’intelligence artificielle (IA). Toutefois, les futurs systèmes d’IA les plus efficaces et les plus novateurs combineront probablement ces bases polyvalentes avec des réseaux neuronaux plus spécialisés. Il s’agit notamment de la vision artificielle pour l’analyse des images, de modèles de régression pour la prédiction des valeurs numériques, de l’apprentissage par renforcement pour l’optimisation des comportements, etc.

Tout comme un orchestre réunit divers talents musicaux, les plateformes d’IA de demain intégreront différentes approches d’apprentissage machine sous forme de composants modulaires dirigés par des « chefs d’orchestre » humains. L’avenir de l’IA passe par un orchestre de modèles, et non par un numéro de soliste.

La clé est de combiner judicieusement les grands modèles de langage avec d’autres capacités d’IA, des ensembles de données de qualité, des experts et des processus pour créer un système de contrôle et d’équilibre. Cela permet de mettre en place des solutions sur mesure qui génèrent de la valeur en augmentant la qualité, la sécurité et la précision du produit. Les grands modèles de langage sont des bases polyvalentes, mais une intégration réfléchie avec des capacités et une infrastructure d’IA plus larges permet de réaliser leur plein potentiel. Toute nouvelle technologie comporte toujours son lot de défis, mais en reposant sur une approche globale, ces modèles peuvent permettre aux organisations d’avancer à pas sûrs sur la voie de l’IA.

Chez CGI, notre vision de l’avenir de l’IA est celle d’un écosystème de modèles complémentaires travaillant en conjonction avec une intervention et une supervision humaines permanentes afin d’atteindre l’objectif souhaité. Par exemple, un modèle de langage génératif pourrait rapidement synthétiser une première ébauche de contenu. Un système d’assurance qualité basé sur la logique pourrait aider à vérifier certains termes critiques. Un modèle de contenu spécialisé, adapté au domaine cible, pourrait affiner le langage et le ton afin d’aligner cette ébauche aux documents existants de l’organisation. 

La combinaison sélective de modèles d’IA spécialisés et généralistes de cette manière progressive et validée sous supervision humaine permet d’offrir des solutions sur mesure où chaque modèle apporte des forces uniques pour offrir un résultat plus fiable. Cette fusion de divers modèles et processus de validation sera essentielle pour réaliser en toute sécurité le plein potentiel de l’IA.

Haut de page

Facteurs de réussite de l’IA multimodèle

La mise en place d’un écosystème d’IA multimodèle florissant nécessite une expertise pour orchestrer les modèles, les données, l’infrastructure et les opérations en un système de vérification. Comprendre quels modèles d’IA complémentaires utiliser et quelles ressources sont nécessaires pour assurer une bonne gouvernance aidera les équipes à se concentrer sur la création responsable de valeur par l’IA. Avec une planification minutieuse et des conseils stratégiques pour coordonner tous les éléments de manière synergique, les organisations peuvent développer des environnements d’IA ayant des répercussions éthiques sur l’entreprise.

Pour bien orchestrer ces différentes parties, un écosystème d’IA doté d’un solide système de vérification nécessite la mise en place des éléments suivants :

  • un cadre et une infrastructure appropriés pour prendre en charge le déploiement, la surveillance et les mises à jour des modèles d’IA;
  • l’expertise humaine qualifiée en matière de formation, de mise au point et de validation des ressources d’IA;
  • un ensemble diversifié de modèles d’IA spécialisés et généralistes qui peuvent se soutenir et se remettre en question;
  • une architecture, une formation, des processus et des procédures appropriés pour favoriser la modularité et améliorer la collaboration entre les modèles;
  • les bons ensembles de données pour réduire la subjectivité et maximiser la précision, l’équité et la sécurité des résultats;
  • des séries de validation rigoureuses pour obtenir les résultats souhaités et réduire le risque d’erreurs telles que les hallucinations;
  • une supervision humaine permanente dans l’ensemble du système afin d’équilibrer les composants autonomes.

 

Bien qu’il soit impossible d’éliminer les aspects subjectifs, vous pouvez les réduire en utilisant des modèles et des processus appropriés, en améliorant l’approche de la formation et en augmentant la taille et la diversité de l’ensemble de données.

Haut de page

Garantir l’éthique et la sécurité dans un écosystème d’IA sain

L’obtention de résultats d’IA conformes à vos objectifs et à votre éthique dépendra de votre écosystème d’IA et de la manière dont vous entraînez vos modèles et les alimentez en données pour qu’ils répondent à vos normes. Chaque organisation a des exigences et des niveaux de tolérance différents.

En matière de sécurité, il existe de nombreux vecteurs d’attaque potentiels liés aux grands modèles de langage et aux modèles d’IA en général. Une menace relativement nouvelle émane d’acteurs malveillants qui souhaitent influencer les résultats d’un modèle en recourant à l’ingénierie sociale de l’IA. Comme les humains, les grands modèles de langage peuvent être influencés par une série d’instructions soigneusement sélectionnées. Pour contrer ces menaces et éviter qu’ils ne partagent plus de données que prévu, les modèles d’IA assurent une surveillance et offrent du soutien, tout comme le ferait un superviseur dans un centre d’appel.

En complément de ces modèles de surveillance, les entreprises devraient envisager les techniques supplémentaires suivantes :

  • formation de lutte contre les attaques afin d’endurcir les modèles pour qu’ils résistent à des intrants spécialement conçus – ceci devrait être une priorité absolue;
  • validation en bac à sable pour isoler les intrants non fiables afin de les tester avant la production et d’empêcher les menaces d’affecter les systèmes en service;
  • mesures d’explicabilité pour mieux comprendre la logique du modèle et aider à identifier les irrégularités;
  • mécanismes d’authentification pour permettre et améliorer la vérification;
  • surveillance de la dérive des performances pour détecter des problèmes tels que l’empoisonnement des données;
  • intégration des algorithmes de la chaîne de blocs avec l’IA générative dans votre écosystème pour des résultats fiables.

Les organisations doivent faire de la sécurité et de la protection de la vie privée une priorité dès le début en s’assurant que leur écosystème d’IA met en œuvre les mesures de contrôle et d’équilibre nécessaires.

De nombreux parallèles peuvent être établis entre un écosystème d’IA multimodèle sain et une société humaine moderne. Les « bons » voudront conserver l’utilisation de modèles spécialisés et généralisés pour contrer les « méchants » qui voudront contourner et corrompre ces modèles à leurs propres fins malfaisantes. À bien des égards, la course est déjà lancée.

Haut de page

Prévenir les fausses données grâce à une supervision humaine

L’un des principaux problèmes posés par les grands modèles de langage et les autres modèles d’IA générative est qu’ils peuvent produire des informations non étayées ou illogiques, de la même manière que les souvenirs des humains peuvent être inexacts. Ces « hallucinations » résultent du mode de fonctionnement des réseaux d’apprentissage profond.

Pour décrire cela simplement, les modèles prennent des éléments des ensembles de données, comme les mots, et les transforment en jetons, qui sont des unités de base du texte ou du code. Ensuite, en fonction des relations entre les jetons dans un contexte donné, ceux-ci sont traduits en vecteurs multidimensionnels, qui sont des collections de nombres. Lorsque les modèles décodent ces derniers en langage naturel pour une instruction donnée, ils génèrent le texte le plus probable d’un point de vue statistique sur la base de l’entraînement du modèle, ce qui peut conduire à un contenu erroné ou irrationnel.

Les organisations peuvent limiter l’apparition d’hallucinations à l’aide de certaines techniques et approches. En voici quelques exemples.

  • Intégrer directement le jugement humain – De meilleures ressources pour la validation du contenu par un humain, le signalement des anomalies et la formation itérative par des experts en IA peuvent permettre de corriger les erreurs en temps réel, d’obtenir un retour d’information et d’améliorer l’entraînement des modèles.
  • Adopter des techniques de formation et améliorer les processus – L’apprentissage par renforcement à partir de rétroaction humaine, la formation de lutte contre les attaques et l’apprentissage multitâche peuvent améliorer l’ancrage factuel en exposant le modèle à divers scénarios et réponses élaborés par des experts. En outre, l’augmentation des ensembles de données, l’évaluation de la confiance et la quantification de l’incertitude permettent de s’assurer que le modèle dispose d’une base d’entraînement solide et d’évaluer ses performances.
  • Utiliser de nouvelles architectures de modèles – L’intégration de bases de connaissances externes et de composants logiques modulaires peut fournir des couches supplémentaires d’information et de prise de décision pour aider l’IA à produire des résultats plus précis.
  • Mettre en œuvre plusieurs modèles fondamentaux – Dans un écosystème d’IA sain, l’utilisation de plusieurs modèles pour comparer les résultats et réduire les anomalies de valeurs permet d’ajouter une mesure de validation croisée, améliorant ainsi la précision globale des résultats.
  • Intégrer la causalité et le raisonnement dans les objectifs des modèles – Au-delà de la précision prédictive, l’ajout de la causalité et du raisonnement permet au modèle d’IA de mieux comprendre les données, réduisant ainsi le risque de tirer des conclusions erronées.
  • Utiliser des approches hybrides – La combinaison de techniques neuronales d’apprentissage profond avec la logique symbolique (algorithmes plus traditionnels comme la chaîne de blocs) et les représentations des connaissances améliore la précision et l’alignement, réduit le temps de formation et accélère la mise sur le marché grâce à la réutilisation.

Bien que des techniques telles que celles énumérées ci-dessus permettent de réduire les résultats illogiques, les grands modèles de langage resteront intrinsèquement faillibles, tout comme la communication humaine peut parfois l’être. Cela signifie que les écosystèmes d’IA nécessiteront toujours des vérifications humaines. Plutôt que de voir l’IA remplacer la main-d’œuvre humaine, les organisations qui cherchent à tirer pleinement parti de la puissance de celle-ci se concentreront sur les programmes de formation qui permettent à leurs employés d’apprendre à utiliser ces technologies.

Si elle est correctement mise en œuvre, l’IA promet d’augmenter les capacités des employés et de leur permettre de consacrer plus de temps à des tâches à forte valeur ajoutée qui tirent parti des forces et des interactions humaines. Par exemple, les enseignants pourraient passer plus de temps en tête-à-tête avec les élèves (voir la théorie « 2 Sigma Problem » de Benjamin Bloom, datant de 1984). Ces améliorations de la productivité pourraient contribuer à remédier à la pénurie de talents à laquelle sont confrontées de nombreuses organisations. Toutefois, la transition peut s’avérer difficile pour certaines fonctions et nécessiter une formation et un soutien complémentaires.

Grâce à une approche réfléchie d’un écosystème d’IA multimodèle sain doté de mesures de contrôle et d’équilibre, les organisations peuvent s’efforcer de maximiser les avantages et d’atténuer les déplacements à mesure que l’IA et la main-d’œuvre humaine évoluent ensemble, plutôt que de se faire concurrence.

Haut de page

Faire progresser un écosystème d’IA sain

Tout comme un orchestre symphonique combine les talents de divers musiciens pour former un tout harmonieux, la réalisation du plein potentiel de l’IA nécessite une intégration réfléchie des technologies, des données et de l’expertise humaine.

Chez CGI, nous reconnaissons que c’est cette fusion qui permet d’obtenir les résultats les plus cohérents en matière d’IA. Notre plateforme CGI PulseAI illustre comment les écosystèmes robustes permettent à différents modèles d’IA de travailler ensemble sous supervision humaine, comme un chef d’orchestre guidant les différentes sections d’un orchestre.

Les modèles de langage généralistes fournissent une mélodie de base solide sur laquelle les modèles prédictifs et de vision artificielle spécialisés peuvent superposer des parties complémentaires. En combinant des modèles généraux et spécialisés, en utilisant des données de qualité et en permettant la collaboration entre les systèmes d’IA et les personnes grâce à une conception centrée sur l’humain, des solutions sur mesure émergent pour chaque défi d’affaires.

L’avenir de l’IA réside dans cette synthèse harmonieuse de modèles, de données et d’humains afin de mettre en œuvre des solutions qui génèrent une valeur mesurable. N’hésitez pas à nous contacter pour discuter de nos perspectives sur l’évolution du paysage de l’IA multimodèle et des meilleures pratiques de mise en œuvre.

Haut de page

À propos de l’auteur

Frederic Miskawi

Frederic Miskawi

Vice-président, Responsable des services d’expertise et d’innovation en IA, Centre d’expertise en intelligence artificielle

Fred Miskawi est à la tête des services d’expertise et d’innovation en IA du centre d’expertise en intelligence artificielle de CGI. Il est responsable d’assurer le réseautage entre la coalition d’experts en IA appliquée des centres d’innovation de CGI et les pratiques en technologies émergentes. ...