L’IA au service des menaces

Chaque progrès s’accompagne toujours de nouvelles menaces, et les attaques utilisant des technologies d'intelligence artificielle (IA) sont de plus en plus élaborées et parfois d’une technicité encore inégalée. L’IA permet désormais de rédiger des courriers en vue d’une utilisation pour le phishing ou de générer des deep fakes ou hypertrucages en reproduisant la voix du dirigeant ou son image en manipulant une vidéo, afin par exemple de réaliser une ou des fraudes au président ou fraudes aux faux ordres de virement (FOVI).

Les dommages causés peuvent être très élevés et se chiffrer en centaines de milliers ou millions d’euros. En outre, l’IA peut servir à détecter les failles qui existent dans le SI de la cible et à déterminer quelle est la vulnérabilité la plus intéressante pour pénétrer ou saboter ledit SI. L’IA permet également l’apprentissage pour affiner les performances des outils logiciels malveillants. Par ailleurs, on a appris récemment que des chercheurs du Royaume-Uni ont conçu une application d’IA qui permet de déchiffrer un mot de passe en écoutant le bruit d’un clavier. Pour ce faire, ils s’appuient sur un algorithme d'apprentissage profond (deep learning) baptisé CoAtNet.

Les menaces les plus prégnantes sont les attaques par ransomwares (rançongiciel) , par déni de service (attaque DDoS) et le défaçage (ou modification non sollicitée d’un site internet suite à son piratage). La difficulté des poursuites pénales tient au caractère international des attaques et à la pluri-localisation des délinquants ce qui nécessite une étroite coopération des services de plusieurs pays avec Europol ou Interpol. On citera Wanacry qui a impacté plus de 300 000 systèmes d’exploitation Windows dans le monde en 2017 ou l’affaire Locky (prévenu relaxé des faits de cybercriminalité mais condamné à 5 ans d’emprisonnement par le tribunal de Paris pour blanchiment le 7 décembre 2020).

De plus, on assiste au développement très inquiétant d’un phénomène de double extorsion, soit une rançon pour le déchiffrement des données et une autre pour éviter la publication des données sur le darkweb (les échos du 30 nov. 2023, Rapport Orange Cyberdéfense). Pour 2023, la France se situe au 5ème rang mondial des attaques par ransomware (rapport sur les ransomwares 2023 - Outpost24is). Si l’IA constitue un moyen de développement des attaques, ces technologies renforcent également les systèmes de sécurité des SI.

L’IA au service de la défense des Systèmes d’information

La cybersécurité bénéficie des avantages de l’IA tant sur le plan des nouveaux outils et process de sécurité que des améliorations de l’existant en sécurité. Aujourd’hui, les outils usuels de la sécurité tels que les pares-feux, les routeurs, les antivirus ou les anti-malwares intègrent des systèmes d’IA en vue de leur optimisation. On peut penser que les Data Loss Prevention (DLP) utiliseront (si ce n’est déjà le cas) des applications d’IA pour mieux lutter contre les fuites d’informations. Cela est d’autant plus d’actualité que l’apprentissage est au cœur de la lutte cyber.

Par exemple en matière d’antivirus, les applications d’IA ne se contentent pas de répertorier les virus et malwares existants et de les mettre à jour régulièrement. Les anti-virus qui s’appuient sur l’IA sont entrainés à détecter des comportements anormaux de sorte que ces solutions évoluent en permanence en corrélation avec les nouvelles menaces. Plus généralement, les solutions de machine learning sont de plus en plus utilisées pour détecter les menaces dans la mesure où le système d’IA peut analyser très rapidement de grands volumes de données (ex : attaque de réseau) et détecter les anomalies et autres comportements suspects ce qui permet aux équipes sécurité d’investiguer sur un ou plusieurs points précis de vulnérabilités.

L'intelligence artificielle est également utilisée pour combler les lacunes ou corriger les apprentissages erronés (on parle de "remédiation"). Le système d’IA sert en outre à sécuriser les développements de logiciels en analysant les lignes de code de façon à identifier et diagnostiquer les bugs et autres vulnérabilités, ce qui doit permettre des corrections rapides et donc gagner en efficacité.

Mais l’utilisation de systèmes d’IA, comme l’IA générative, impose aux organisations une analyse précise comme par exemple la question des données sources qui nourrissent le système, c’est-à-dire les données d’apprentissage (questions de propriété intellectuelle notamment). Il en résultera l’obligation de mettre en place un encadrement contractuel pour que le SIA demeure cyber-sécurisé et adapté aux besoins de l’entreprise ou de l’organisation tout en étant conforme aux obligations légales. La prise en compte des futurs textes relatifs à l’IA (ex : règlement IA et directive sur la responsabilité) devra faire l’objet d’une mise en perspective au regard des instruments juridiques utilisés par l’organisation en matière de cybersécurité.

 

Éric A. Caprioli, avocat à la Cour, docteur en Droit
Caprioli & Associés, société d’avocats membre du réseau JurisDéfi

@https://www.usine-digitale.fr/article/la-cybersecurite-face-a-l-intelligence-artificielle.N2201303