Trois façons dont l’IA générative peut renforcer la cybersécurité

Les analystes humains ne peuvent plus se défendre efficacement contre la rapidité et la complexité croissantes des attaques de cybersécurité. La quantité de données est tout simplement trop importante pour être analysée manuellement.
L’IA générative, l’outil le plus transformateur de notre époque, permet une sorte de jiu jitsu numérique. Il permet aux entreprises de transformer la force des données qui menace de les submerger en une force qui renforce leurs défenses.
Les chefs d’entreprise semblent prêts à saisir l’opportunité qui se présente. Dans une enquête récente, les PDG ont déclaré que la cybersécurité était l’une de leurs trois principales préoccupations et qu’ils considéraient l’IA générative comme une technologie de pointe qui offrirait des avantages concurrentiels.
L’IA générative présente à la fois des risques et des avantages. Un blog précédent décrivait six étapes pour démarrer le processus de sécurisation de l’IA d’entreprise.
Voici trois façons dont l’IA générative peut renforcer la cybersécurité.
Commencez par les développeurs
Tout d’abord, donnez aux développeurs un copilote de sécurité.
Tout le monde joue un rôle en matière de sécurité, mais tout le monde n’est pas un expert en sécurité. C’est donc l’un des points de départ les plus stratégiques.
Le meilleur endroit pour commencer à renforcer la sécurité est au niveau du front-end, là où les développeurs écrivent des logiciels. Un assistant basé sur l’IA, formé en tant qu’expert en sécurité, peut les aider à garantir que leur code respecte les meilleures pratiques en matière de sécurité.
L’assistant logiciel d’IA peut devenir chaque jour plus intelligent s’il est alimenté par du code précédemment révisé. Il peut apprendre des travaux antérieurs pour aider à guider les développeurs sur les meilleures pratiques.
Pour donner une longueur d’avance aux utilisateurs, NVIDIA crée un flux de travail pour créer de tels copilotes ou chatbots. Ce flux de travail particulier utilise des composants de NVIDIA NeMo, un framework permettant de créer et de personnaliser de grands modèles de langage (LLM).
Que les utilisateurs personnalisent leurs propres modèles ou utilisent un service commercial, un assistant de sécurité n’est que la première étape vers l’application de l’IA générative à la cybersécurité.
Un agent pour analyser les vulnérabilités
Deuxièmement, laissez l’IA générative vous aider à naviguer dans l’océan des vulnérabilités logicielles connues.
À tout moment, les entreprises doivent choisir parmi des milliers de correctifs pour atténuer les exploits connus. En effet, chaque morceau de code peut avoir des racines dans des dizaines, voire des milliers de branches logicielles et de projets open source différents.
Un LLM axé sur l’analyse des vulnérabilités peut aider à prioriser les correctifs qu’une entreprise doit mettre en œuvre en premier. Il s’agit d’un assistant de sécurité particulièrement puissant car il lit toutes les bibliothèques de logiciels qu’une entreprise utilise ainsi que ses politiques sur les fonctionnalités et les API qu’elle prend en charge.
Pour tester ce concept, NVIDIA a construit un pipeline pour analyser les vulnérabilités des conteneurs logiciels. L’agent a identifié les zones nécessitant des correctifs avec une grande précision, accélérant ainsi le travail des analystes humains jusqu’à 4 fois.
Ce qu’il faut retenir est clair. Il est temps de faire appel à l’IA générative comme premier intervenant dans l’analyse des vulnérabilités.
Combler le manque de données
Enfin, utilisez les LLM pour contribuer à combler le manque croissant de données en matière de cybersécurité.
Les utilisateurs partagent rarement des informations sur les violations de données car elles sont très sensibles. Il est donc difficile d’anticiper les exploits.
Entrez les LLM. Les modèles d’IA générative peuvent créer des données synthétiques pour simuler des modèles d’attaque inédits. Ces données synthétiques peuvent également combler les lacunes des données de formation afin que les systèmes d’apprentissage automatique apprennent à se défendre contre les exploits avant qu’ils ne se produisent.
Organiser des simulations sécurisées
N’attendez pas que les attaquants démontrent ce qui est possible. Créez des simulations sécurisées pour découvrir comment ils pourraient tenter de pénétrer les défenses de l’entreprise.
Ce type de défense proactive est la marque d’un programme de sécurité solide. Les adversaires utilisent déjà l’IA générative dans leurs attaques. Il est temps que les utilisateurs exploitent cette puissante technologie pour la défense de la cybersécurité.
Pour montrer ce qui est possible, un autre workflow d’IA utilise l’IA générative pour se défendre contre le spear phishing, ces faux e-mails soigneusement ciblés qui coûtent aux entreprises environ 2,4 milliards de dollars rien qu’en 2021.
Ce flux de travail a généré des e-mails synthétiques pour s’assurer qu’il contenait de nombreux bons exemples de messages de spear phishing. Le modèle d’IA formé sur ces données a appris à comprendre l’intention des e-mails entrants grâce aux capacités de traitement du langage naturel de NVIDIA Morpheus, un cadre de cybersécurité basé sur l’IA.
Le modèle résultant a détecté 21 % d’e-mails de spear phishing en plus que les outils existants. Consultez notre blog de développeur ou regardez la vidéo ci-dessous pour en savoir plus.
Partout où les utilisateurs choisissent de commencer ce travail, l’automatisation est cruciale, étant donné la pénurie d’experts en cybersécurité et les milliers et milliers d’utilisateurs et de cas d’utilisation que les entreprises doivent protéger.
Ces trois outils – assistants logiciels, analystes de vulnérabilités virtuelles et simulations de données synthétiques – sont d’excellents points de départ pour appliquer l’IA générative à un parcours de sécurité qui se poursuit chaque jour.
Mais ce n’est que le début. Les entreprises doivent intégrer l’IA générative à toutes les couches de leurs défenses.
Assistez à un webinaire pour plus de détails sur la façon de démarrer.
Laisser un commentaire