L’intelligence artificielle (IA) est en train de transformer notre monde et la cybersécurité n’y échappe pas. Outil incontournable dans la protection des systèmes contre les attaques, il s’agit en même temps d’une arme redoutable entre les mains de malfaiteurs. Dans cet article, nous explorerons les bons et les mauvais côtés de l’IA en cybersécurité.

L’omniprésence de l’IA dans la vie de tous les jours

L’IA s’est intégrée tout naturellement dans notre vie en facilitant nos activités courantes, la connectivité et les interactions entre la technologie et les humains. Notamment utilisée par les moteurs de recherche pour produire des résultats précis et rehausser l’expérience de magasinage en ligne par des recommandations personnalisées, l’IA est à l’avant-garde de l’innovation numérique.

Toutefois, son adoption généralisée introduit des vulnérabilités importantes dans l’ensemble de la société. Parmi ces vulnérabilités, on trouve les attaques antagonistes où des données falsifiées trompent un système d’IA, ce qui entraîne une identification erronée ou le contournement de filtres mis en place. On trouve aussi les attaques par empoisonnement où des malfaiteurs corrompent les données d’entraînement d’un système d’IA pour altérer son comportement ou créer des portes dérobées (backdoors). La vie privée peut être compromise par une fuite accidentelle de données sensibles d’entraînement des modèles d’IA ou une surveillance en masse au moyen de la reconnaissance faciale. Les biais introduits dans les algorithmes d’IA par des données faussées peuvent produire des résultats discriminatoires dans des processus comme l’embauche ou les demandes de prêt. L’IA générative facilite la manipulation de contenu pour créer des hypertrucages à des fins d’arnaque ou de propagande ainsi que la propagation des hallucinations d’IA. Et finalement, la nature imprévisible ou opaque de certains systèmes d’IA peut masquer des failles exploitables, mettant à risque les infrastructures essentielles ou les systèmes autonomes.

L’IA transforme plusieurs secteurs, notamment celui de la cybersécurité. Les organisations intègrent de plus en plus l’IA dans leurs outils courants afin de prévenir les attaques et de réduire leurs dépenses en TI. Un rapport de recherche d’Acumen prévoit que le marché mondial des solutions d’IA en cybersécurité passera de près de 15 milliards $ US en 2021 à environ 134 milliards $ US d’ici 2030.

 

L’IA défensive : une protection numérique rehaussée

En raison de sa capacité à analyser de vastes ensembles de données et à repérer des tendances, l’IA est idéale pour les tâches suivantes :

  1. Détection et intervention automatisées : l’IA joue un rôle crucial dans la détection de nouvelles menaces grâce à l’automatisation. En recourant à des algorithmes sophistiqués, elle peut analyser l’activité réseau, détecter les anomalies, atténuer les menaces avant qu’elles ne s’aggravent, ou identifier des attaques comme les exploits du jour zéro.
  2. Gestion des vulnérabilités : l’IA peut balayer les systèmes pour identifier les failles connues et réduire les efforts de correction selon les facteurs de risque. Elle peut également prédire les vulnérabilités futures grâce à l’analyse de données historiques.
  3. Intervention en cas d’incident : elle peut automatiser les réponses aux incidents comme l’isolement des systèmes infectés, le blocage du trafic malveillant ou la contenance des brèches.
  4. Détection de la fraude : elle surveille les comportements et les connexions pour prévenir les prises de contrôle, analyse les transactions et détecte les incohérences dans les documents pour identifier des identités fictives ou volées.
  5. Renseignements de sécurité : elle génère des rapports, analyse les bases de code complexes et optimise les processus, aidant les équipes de sécurité à agir proactivement.

 

L’IA offensive : une nouvelle ère de cybercriminalité

L’IA a d’importantes vertus défensives, mais sa force d’attaque est tout aussi admirable… et alarmante. Les malfaiteurs font preuve de ruse et de ténacité :

  1. Piratage psychologique (ingénierie sociale) : l’IA peut générer à grande échelle des messages personnalisés et sophistiqués pour des attaques de type hameçonnage.
  2. Craquage de mots de passe : elle améliore les algorithmes de décryptage, rendant les attaques plus rapides et précises.
  3. Attaques par empoisonnement : des données biaisées sont injectées dans l’entraînement des modèles, influençant leurs décisions finales.
  4. Développement de programmes malveillants : des maliciels adaptatifs apprennent à éviter la détection et peuvent viser des cibles précises.

 

Une question d’équilibre

L’évolution continue de l’IA s’accompagne d’enjeux en matière de confidentialité des données et de gestion des risques, tant pour les organisations que les individus. Les organismes de réglementation envisagent des stratégies pour exploiter le potentiel de l’IA tout en limitant ses répercussions négatives sur la société.

Le paradoxe de l’IA présente un défi complexe au niveau de la cybersécurité : il faut tirer parti de ses capacités défensives contre les attaques de plus en plus sophistiquées tout en gardant à l’esprit ses grandes capacités offensives. Une approche multidimensionnelle favoriserait l’utilisation responsable de l’IA par les organisations et les individus :

Organisations

1. Tenez-vous à jour sur l’évolution des menaces en lien avec l’IA : le MITRE ATLAS est une base de connaissances permettant aux équipes de sécurité d’étudier des cas d’attaques passées et de les adapter à leur environnement.

2. L’IA et l’apprentissage automatique ne remplacent pas votre équipe, ils la renforcent : même les meilleurs systèmes peuvent être trompés. Formez vos équipes à travailler avec ces outils.

3. Mettez régulièrement à jour vos politiques sur la protection des données : restez conforme à la législation en constante évolution en actualisant vos pratiques régulièrement.

Utilisateurs et utilisatrices

1. Protégez la confidentialité de vos données : respectez les bonnes pratiques lors de vos interactions avec des outils d’IA générative :

  • Limitez la divulgation de données personnelles ou sensibles.
  • Adoptez un modèle de vérification systématique : ne faites confiance à personne ni à aucun appareil par défaut.

2. Exercez une vigilance face au piratage psychologique et au contenu généré par l’IA : les escrocs peuvent manipuler les outils IA pour créer du contenu trompeur.

  • Vérifiez la crédibilité de toute information reçue.
  • Soyez sceptique face aux demandes inattendues de données sensibles.

3. Familiarisez-vous avec l’éthique et les biais en IA : soyez conscients des limites et des potentiels biais dans les contenus IA, et informez-vous sur les implications éthiques.

 

Conclusion

En maîtrisant les risques et les enjeux et en adoptant une approche proactive et éthique, nous pouvons tirer parti de l’IA pour assurer un avenir numérique sûr. La cybersécurité change constamment et l’IA joue un rôle central dans cette évolution. La capacité des organisations à s’adapter et à innover déterminera leur succès en cette nouvelle ère de cyberguerre.

Notre entreprise investit dans ses talents et outille chaque associé(e) de CGI avec les ressources d’IA adéquates pour améliorer leur productivité, leur créativité et leur bien-être, conformément à ses politiques d’utilisation responsable des technologies (données, infonuagique, IA).

Experte en IA, CGI aide les clients à l’apprivoiser et à l’utiliser de façon responsable. Elle combine ses capacités complètes en science des données et en apprentissage automatique avec ses connaissances sectorielles pour générer de nouvelles avenues et des modèles fondés sur l’IA.

En étant notre propre client et en intégrant de manière responsable l’IA dans nos activités, nos services et nos solutions, nous accélérons les résultats pour les associé(e)s de CGI, nos clients et nos actionnaires.

 

Références

1. Harvard Business Review (mai 2019).

When AI Becomes a Part of Our Daily Lives.

2. McKinsey & Company (14 novembre 2024).

The cybersecurity provider’s next opportunity: Making AI safer.

3. Acumen Research and Consulting (juillet 2022).

Artificial Intelligence in Cybersecurity Market Analysis - Global Industry Size, Share, Trends and Forecast 2022 - 2030.

4. The Wall Street Journal (2025).

GenAI Increasingly Powering Scams, Wall Street Watchdog Warns. Risk & Compliance Journal.