IA générative : amie et ennemie de la cybersécurité

Blog

MaisonMaison / Blog / IA générative : amie et ennemie de la cybersécurité

Aug 20, 2023

IA générative : amie et ennemie de la cybersécurité

Voler des données personnelles via un concept d'ordinateur portable pour pirate informatique, réseau

Vol de données personnelles via un concept d'ordinateur portable pour pirate informatique, sécurité réseau et électronique ... [+] sécurité bancaire

Il est clair que l'intelligence artificielle est allée au-delà d'une simple curiosité du futur, car des outils d'IA génératifs comme le chatbot ChatGPT d'OpenAI, le générateur d'images DALL-E2 et les compagnons virtuels CarynAI et Replika sont adoptés par tout le monde, des personnes seules engagées dans des relations amoureuses virtuelles. aux personnes qui créent des photos ambitieuses pour leur photo de profil sur les réseaux sociaux. Sur le plan commercial, les PDG envisagent l'impact de l'IA générative sur leurs entreprises dans des domaines aussi variés que l'analyse de données, le service client, les préparatifs de voyage, le marketing et l'écriture de code.

Dans le monde de la cybersécurité, l'IA fait tout autant le buzz. La conférence RSA est la plus grande conférence sur la cybersécurité au monde. Tenu à San Francisco en avril, il comprenait des points de vue sur les risques et les avantages de l'IA par des responsables gouvernementaux de la Cybersecurity and Infrastructure Security Agency (CISA) américaine, de la National Security Agency (NSA) et de la National Aeronautics and Space Administration (NASA), et d'autres. Lors de la même conférence, Google a annoncé son nouveau Google Cloud Security AI Workbench, basé sur l'IA, qui tire parti des avancées des grands modèles de langage (LLM). Également à RSA, SentinelOne a annoncé sa plate-forme de détection des menaces de cybersécurité alimentée par l'IA avec une réponse autonome à l'échelle de l'entreprise qui tire parti de ces avancées, tandis que Veracode a annoncé Veracode Fix, qui utilise l'IA générative pour recommander des correctifs pour les failles de sécurité dans le code.

SentinelOne Co-fondateur et PDG Tomer Weingarten

Tomer Weingarten est co-fondateur et PDG de SentinelOne, une entreprise leader dans le domaine de la cybersécurité qui compte Hitachi, Samsung et Politico parmi ses clients. Il explique que l'IA générative peut aider à résoudre les plus gros problèmes de la cybersécurité actuelle : la complexité, dans la mesure où la plupart des gens ignorent la méthodologie et les outils nécessaires pour protéger et contrer les cyberattaques ; et la pénurie de talents créée par la forte barrière à l'entrée causée par la très haute compétence nécessaire pour travailler dans le domaine.

"L'IA est super évolutive pour résoudre tous ces problèmes, et nous avons démontré la capacité de ne plus avoir besoin d'utiliser des langages de requête complexes, des opérations complexes et l'ingénierie inverse pour permettre désormais même à un analyste débutant d'utiliser une IA générative algorithme qui peut s'exécuter automatiquement dans les coulisses pour traduire en anglais ou dans d'autres langues afin de fournir des informations, et appliquer une action automatisée pour résoudre les problèmes qu'il fait apparaître », a déclaré Weingarten. "Cela transforme complètement la façon dont vous faites de la cybersécurité en supprimant la complexité et en permettant à chaque analyste d'être un super analyste. C'est presque comme si vous leur donniez des super pouvoirs pour faire ce qu'ils prendraient normalement jusqu'à quelques jours pour faire maintenant en quelques secondes . C'est un véritable multiplicateur de force."

Selon Weingarten, l'autre gros problème de la cybersécurité auquel l'IA générative s'attaque est le fait que l'industrie de la cybersécurité a été construite avec des produits discrets et cloisonnés, chacun conçu pour s'attaquer à un aspect spécifique de la cyberdéfense. "La véritable perturbation de l'IA dans la cybersécurité vient de l'agrégation de toutes ces données dans un référentiel central", a-t-il déclaré. "Et puis, lorsque vous appliquez vos algorithmes d'IA au-dessus de ce lac de données, vous pouvez commencer à voir des corrélations composées entre tous ces différents éléments qui entrent dans la défense de la cybersécurité aujourd'hui. Dans ces problèmes gourmands en données, l'IA vous permet de devenir incroyablement compétent pour trouver un aiguille dans une botte de foin."

Brian Roche, chef de produit de la société de sécurité des applications Veracode

Brian Roche, directeur des produits de la société de sécurité des applications Veracode, explique le côté malveillant de l'IA dans la cybersécurité. "Les pirates utilisent l'IA pour automatiser les attaques, échapper aux systèmes de détection et même créer des logiciels malveillants qui peuvent muter en temps réel", a déclaré Roche. "De plus, les forums du Dark Web regorgent déjà de discussions sur la manière d'utiliser les plates-formes d'IA génératives, comme ChatGPT, pour exécuter des attaques de harponnage et d'ingénierie sociale."

Roche affirme que les solutions d'IA avec un modèle d'apprentissage en profondeur dans le traitement du langage naturel pourraient adopter une approche préventive de la cybersécurité, à savoir en partageant des correctifs suggérés pour les failles de sécurité lorsque les développeurs écrivent du code. "Cela réduirait la nécessité pour les développeurs de corriger ces failles manuellement quelque part dans le cycle de développement logiciel de leur application, économisant du temps et des ressources. Lorsqu'il est formé sur un ensemble de données organisé, ce type de solution alimentée par l'IA ne remplacerait pas les développeurs, mais permettrait simplement de se concentrer sur la création d'un code plus sécurisé et de laisser la tâche fastidieuse mais très importante d'analyse et de correction des failles à l'automatisation », a déclaré Roche.

Pourtant, Roche met en garde : "les organisations doivent être prudentes avant de s'engager dans une solution d'IA, car un modèle d'IA mal formé peut faire autant de dégâts qu'aucun. Les modèles d'IA ne sont aussi bons que les données qui les alimentent - mieux c'est données, plus les résultats sont précis."

L'IA générative peut permettre au code malveillant de se transformer, créant une plus grande menace car il échappe à la détection et aux défenses de cybersécurité traditionnelles. Les défenses de la cybersécurité doivent innover et évoluer avec une longueur d'avance sur les cybercriminels si elles veulent rester efficaces.

À cela, Weingarten note que sa théorie sur les avantages que l'IA générative apporte à la cybersécurité en supprimant la complexité et en s'attaquant à la pénurie de talents va dans les deux sens. L'IA générative peut aider les adversaires du gouvernement à devenir plus évolutifs et avancés, et elle peut également supprimer la barrière à l'entrée des pirates. "L'IA peut aider les attaquants et les adversaires débutants à acquérir des capacités auparavant réservées aux attaquants de niveau gouvernemental. L'IA générative va dynamiser le paysage des attaques", a déclaré Weingarten. Il ajoute que l'IA générative peut également être utilisée pour créer une fausse vidéo d'un dirigeant national fournissant des informations qui soutiennent l'objectif néfaste d'un adversaire, ce qui conduit au scepticisme quant à l'incapacité de savoir ce qui est réel, ce qui est faux et à qui faire confiance.

Le terme "open source" fait référence à un code accessible au public et que le propriétaire permet à quiconque de visualiser, d'utiliser, de modifier, de partager ou de distribuer. On peut affirmer que l'open source favorise un développement plus rapide grâce à la collaboration et au partage. Comme l'a rapporté Hasan Chowdhury, écrivain de Business Insider, Luke Sernau, ingénieur logiciel senior chez Google, "a déclaré que les ingénieurs open source faisaient des choses avec 100 $ avec lesquelles" nous luttons "à 10 millions de dollars, 'le faisant en semaines, pas en mois'", déclarant dans un a récemment divulgué un mémo de Google indiquant que la faction open source « chevauche » Google, OpenAI et d'autres grandes entreprises technologiques en matière d'IA générative.

Weingarten pense que le code open source et le code propriétaire ont leur place. "Mais en fin de compte, l'open source et la transparence qui l'accompagne, en particulier avec une technologie aussi fondamentale, est un ingrédient impératif", a-t-il déclaré. "En particulier pour les entreprises plus férues de technologie, nous tirerons parti des algorithmes open source car ils peuvent être plus prévisibles pour nous, nous comprenons comment ils fonctionnent, nous pouvons les former à ce dont nous avons besoin."

Reuben Maher, COO de la société de cybersécurité et d'analyse Skybrid Solutions

Reuben Maher, directeur de l'exploitation de la société de cybersécurité et d'analyse Skybrid Solutions, est pragmatique quant à une cyberapproche holistique qui intègre à la fois l'IA générative et l'open source. « La convergence du code open source et des capacités d'IA générative robustes a un potentiel puissant dans le domaine de la cybersécurité d'entreprise pour fournir aux organisations des défenses solides – et de plus en plus intelligentes – contre les menaces en constante évolution », a déclaré Maher. "D'une part, la capacité de l'IA générative à prévoir les menaces, à automatiser les tâches et à améliorer les renseignements sur les menaces est renforcée par la transparence et le soutien communautaire fournis par les frameworks open source. Cela permet une détection et une réponse aux vulnérabilités beaucoup plus rapides à l'échelle de l'entreprise."

"D'un autre côté", poursuit Maher, "c'est un équilibre délicat. Les modèles d'IA générative forts peuvent avoir des faux positifs et des faux négatifs, ce qui rend le processus de prise de décision opaque. Le code open source, malgré sa transparence et sa rentabilité, peut laisser le système exposé aux attaquants qui pourraient exploiter les vulnérabilités découvertes jusqu'à ce que le support de la communauté rattrape son retard." Maher conclut : "Ces facteurs nécessitent une approche prudente et, en fin de compte, l'application stratégique de ces technologies pourrait être la clé de voûte de la sécurisation de votre entreprise dans notre monde numérique de plus en plus connecté".

Alors quelle est la réponse ? L'IA générative est là pour rester et offre à la fois des risques et des récompenses à la cybersécurité.

Maher suggère qu'une réponse intelligente du côté de la chasse aux cybermenaces, au moins proportionnelle à celle des mauvais acteurs, est de plus en plus nécessaire pour maintenir le rythme. "L'intégration de LLM deviendra de plus en plus courante à mesure que les acteurs open source construiront rapidement des modèles beaucoup plus sophistiqués qui dépassent les capacités des mastodontes mondiaux comme Google, Microsoft et OpenAI", a déclaré Maher. "Les leaders des cybersolutions d'IA génératives devront accroître l'automatisation autour de tâches plus transactionnelles tout en limitant les faux positifs et négatifs - tout en maintenant la confiance de leurs utilisateurs en raison des préoccupations croissantes en matière de confidentialité des données autour de grands volumes d'informations sensibles ou personnelles."

Weingarten note que l'IA générative a fait ses débuts généralisés à un moment où les tensions géopolitiques sont fortes. "Ajouter un ingrédient suralimenté comme l'IA à une marmite bouillante de ragoût instable pourrait vraiment créer d'autres ravages, donc des lignes directrices pour une utilisation responsable de l'IA générative sont nécessaires. La réglementation gouvernementale est probablement le facteur le plus important dans tout cela, et bien qu'il y ait eu quelques tentatives en Europe, nous ne l'avons pas fait sérieusement aux États-Unis"

Maher conclut : "Bien que je comprenne la" pause pour l'éthique" que certains dirigeants mondiaux de l'IA voulaient que les principales nations technologiques mettent en place pour développer des capacités d'IA génératives, je ne suis pas d'accord avec cette stratégie car les criminels ne sont pas liés par notre éthique. Ne laissez pas les criminels utilisant des LLM mener l'innovation dans ce domaine, ce qui obligerait tous les autres à rattraper leur retard. Les mauvais acteurs ne vont pas s'arrêter pendant que nous comprenons les choses - alors pourquoi devrions-nous le faire ? Les enjeux sont trop importants !"

La conversation a été éditée et condensée pour plus de clarté. Consultez mes autres chroniques ici.