Spanish English French German Italian Portuguese
Marketing social
AccueilLa technologieIntelligence artificielleMicrosoft libère l'IA générative dans la cybersécurité

Microsoft libère l'IA générative dans la cybersécurité

Dans le cadre de sa quête continue d'injecter l'IA générative dans tous ses produits, Microsoft a présenté Copilote de sécurité, un nouvel outil qui vise à "résumer" et "donner du sens" à la Threat Intelligence.

Dans une annonce éparse, Microsoft a introduit Security Copilot comme moyen de corréler les données d'attaque et de hiérarchiser les incidents de sécurité. C'est déjà fait par de nombreux outils. Mais Microsoft affirme que Security Copilot, qui s'intègre à son portefeuille actuel de produits de sécurité, amélioration grâce aux modèles d'IA générative OpenAI, en particulier le GPT-4, récemment publié, qui génère du texte.

« Faire progresser l'état de la sécurité nécessite à la fois des personnes et de la technologie : l'ingéniosité humaine combinée aux outils les plus avancés qui aident à appliquer l'expertise humaine à la vitesse et à l'échelle »a déclaré le vice-président exécutif de Microsoft Security, Charlie Bell, dans une déclaration en conserve. "Avec Security Copilot, nous construisons un avenir où chaque défenseur dispose des outils et des technologies dont il a besoin pour rendre le monde plus sûr."

Curieusement, Microsoft n'a pas révélé exactement comment Security Copilot intègre GPT-4. Au lieu de cela, il a mis en évidence un modèle personnalisé et formé, peut-être basé sur GPT-4, optimisé par Security Copilot qui "intègre un ensemble croissant de compétences spécifiques à la sécurité" et "déploye des compétences et des requêtes" liées à la cybersécurité.

Microsoft souligne que le modèle n'est pas basé sur les données clients, ce qui répond à une critique commune des services basés sur des modèles linguistiques.

Ce modèle personnalisé aide à "capturer ce que d'autres approches pourraient manquer", explique Microsoft, en répondant aux questions liées à la sécurité, en conseillant sur le meilleur plan d'action et en résumant les événements et les processus. Mais étant donné la tendance des modèles générés par le texte à être falsifiés, il n'est pas clair à quel point un tel modèle peut être efficace en production.

Microsoft lui-même admet que le modèle personnalisé de copilote de sécurité ne fonctionne pas toujours correctement. "Le contenu généré par l'IA peut contenir des erreurs", écrit la société. "Alors que nous continuons à apprendre de ces interactions, nous ajustons vos réponses pour créer des réponses plus cohérentes, pertinentes et utiles."

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci