Dans notre plus récente étude La voix de nos clients, 85 % des hauts dirigeants du secteur de la défense et du renseignement ont affirmé que leurs organisations ont adopté des stratégies d’IA à l’échelle de l’entreprise ou au sein de fonctions spécifiques. L’adoption de l’IA est étendue, mais elle doit augmenter.
Dans tous les ministères, les commandements et les agences, un défi ressort : la rapidité sans preuve érode la confiance. Les décideurs ont besoin de recommandations accompagnées de preuves et d’approbations qui se traduisent clairement en actions responsables, sans enfreindre les règles de gouvernance ni alourdir les frais généraux.
Dans ce modèle, l’IA agit comme un conseiller pour l’humain, fournissant des recommandations vérifiées et traçables qui accélèrent la prise de décision tout en cédant l’autorité et la responsabilité à l’opérateur. Ce « principe des quatre yeux » garantit que chaque action reste dirigée par l’humain et basée sur l’IA, équilibrant la rapidité opérationnelle avec la responsabilité et la supervision.
Nous appelons cela une approche de l’IA axée sur la vérification, soit un modèle opérationnel pratique où chaque recommandation est traçable et prête à être exécutée. Cette approche s’aligne sur les six principes d’utilisation responsable de l’IA dans le domaine de la défense dictés par l’OTAN (légalité, responsabilité et obligation de rendre des comptes, explicabilité et traçabilité, fiabilité, gouvernabilité et atténuation des biais) et sur les exigences de la loi européenne sur l’IA pour les systèmes à haut risque, notamment en matière de gestion des risques, de contrôle humain et de journalisation.
Conception axée sur la vérifiabilité
L’IA axée sur la vérification commence dès la conception. Chaque recommandation doit être prouvée avant d’être approuvée.
- Provenance avant approbation – Les recommandations sont accompagnées de sources, de contrôles de fiabilité et du contexte, ce qui permet aux dirigeants de comprendre pourquoi une option est suggérée et de quoi elle dépend.
- Explicable par défaut – Les résultats sont accompagnés de panneaux de vérification indiquant les données récupérées, les éléments vérifiés et les seuils atteints, de sorte que l’explicabilité est intégrée et n’a pas besoin d’être reconstruite ultérieurement.
- Adaptée à l’audit – Chaque décision acceptée ou rejetée est accompagnée d’un ensemble de preuves, permettant aux organismes de contrôle de retracer ce qui était connu, quand et par qui.
Cette base rend chaque action transparente, reproductible et vérifiable, ce qui est essentiel pour maintenir la confiance.
Capacités éprouvées – AI Felix et CGI AIOps Director
CGI met en valeur les principes d’utilisation responsable de l’OTAN grâce à AI Felix et CGI AIOps Director, qui démontrent comment l’IA axée sur la vérification fonctionne dans des environnements de mission.
- Légalité, responsabilité et obligation de rendre des comptes – Fonctionne dans des environnements classés OTAN SECRET, déconnectés d’Internet, avec des cadres de gouvernance et un contrôle du cycle de vie qui garantissent une conformité et une responsabilité totales.
- Explicabilité et traçabilité – AI Felix offre une traçabilité au niveau des tâches, tandis qu’AIOps Director ajoute la journalisation et l’orchestration, créant ainsi une visibilité totale sur les données utilisées, à quel moment et par quel système.
- Fiabilité et gouvernabilité – CGI AIOps Director gère les cycles de vie des modèles et la fiabilité opérationnelle, tandis qu’AI Felix intègre ces modèles gouvernés dans les flux de travaux des missions afin de maintenir la cohérence et la confiance.
- Atténuation des biais – CGI AIOps Director prend en charge les contrôles de biais pendant la formation des modèles, ce qui permet de réduire les biais potentiels dès le début du cycle de vie de l’IA et de jeter les bases d’une future gouvernance complète des biais.
- Provenance avant approbation – La provenance est prise en charge grâce aux capacités de journalisation et d’orchestration d’AIOps Director, tandis qu’AI Felix accélère les flux de travaux, en s’orientant vers l’objectif de vérification préalable qui consiste à joindre des dossiers de preuves complets aux recommandations.
- Décisions prêtes à la vérification – La gestion combinée du cycle de vie, la journalisation et la traçabilité des tâches permettent la vérifiabilité et l’analyse rétrospective, garantissant ainsi que les décisions peuvent être examinées pour savoir ce qui était connu, quand et par qui.
- Interopérabilité, coalition et mobilité – AI Felix prend en charge le réseau de mission fédéré (FMN) de l’OTAN, et CGI AIOps Director fonctionne dans des environnements sécurisés et multidomaines, permettant des opérations d’IA vérifiables et prêtes pour la coalition.
Ces solutions combinent gouvernance, transparence et interopérabilité pour instaurer rapidement la confiance.
Combler le fossé entre l’approbation et l’action
Dans les environnements de mission, les goulots d’étranglement sont rarement liés aux idées. Ils se forment plutôt dans le passage de l’approbation à l’exécution. L’IA axée sur la vérification accélère ce processus en intégrant la traçabilité dans le flux de travaux lui-même.
- Lorsqu’un plan d’action est approuvé, les tâches sont générées automatiquement et attribuées aux équipes appropriées.
- Les traces de preuves sont conservées par défaut, capturant les artefacts même sous pression.
- Les décisions et les preuves qui les sous-tendent sont transférables entre les partenaires, conformément aux objectifs du FMN (en anglais) de l’OTAN visant à renforcer l’interopérabilité et la préparation.
Il en résulte des cycles décisionnels plus rapides et responsables qui préservent l’intégrité de la gouvernance et la dynamique opérationnelle.
Opérer là où se déroulent les missions
Une IA fiable doit fonctionner dans le cadre des réalités de la mobilité classifiée et de l’interopérabilité des coalitions. Les modèles axés sur la vérification ont déjà fait leurs preuves pour les opérations classées SECRET, prenant en charge des domaines parallèles sur un seul appareil, le travail à distance sécurisé et l’échange de paquets de preuves entre partenaires.
Ces principes renforcent la stratégie de mise en œuvre de la transformation numérique de l’OTAN, favorisant la résilience numérique et l’efficacité multidomaine.
Évaluer l’incidence
L’IA axée sur la vérification offre des améliorations claires en termes de performances.
- Meilleure reproductibilité des décisions – Les décisions peuvent être vérifiées et répétées, ce qui réduit le besoin de nouvelles approbations et diminue les conclusions d’audit.
- Cycles d’approbation et d’exécution plus rapides – Les recommandations vérifiées sont rapidement mises en œuvre, ce qui réduit les retards et minimise les écarts par rapport aux politiques.
- Résilience opérationnelle renforcée – Les preuves accompagnent les décisions dans toutes les organisations, garantissant la continuité et la confiance même sous la pression des missions.
La confiance se transforme ainsi en un résultat tangible, ce qui permet de maintenir un avantage opérationnel durable.
Comment CGI peut vous aider
CGI aide les hauts dirigeants du secteur de la défense et du renseignement à déployer des systèmes décisionnels, des cadres de mobilité classifiés et des capacités d’IA prêtes à l’emploi qui fonctionnent selon les principes axés sur la vérification.
Nous fournissons :
- Une aide à la décision avec récupération, vérification et attribution de tâches intégrées
- Une mobilité multidomaine de niveau SECRET grâce à des services en mode délégué
- Des trousses d’accès à utilisateurs multiples déployables et sécurisés pour l’usage en périphérie
En collaborant avec CGI, les clients bénéficient d’une IA rapide et éprouvée, qui fournit des résultats fiables du bureau de commandement au terrain.