Como parte de sua busca contínua para injetar IA generativa em todos os seus produtos, Microsoft apresentou copiloto de segurança, uma nova ferramenta que visa "resumir" e "dar sentido" à inteligência de ameaças.
Em um anúncio esparso, A Microsoft introduziu o Security Copilot como uma forma de correlacionar dados de ataque e priorizar incidentes de segurança. Isso já é feito por muitas ferramentas. Mas a Microsoft argumenta que o Security Copilot, que se integra ao seu atual portfólio de produtos de segurança, melhoria graças aos modelos de IA generativa OpenAI, especificamente o GPT-4, lançado recentemente, que gera texto.
“Avançar o estado de segurança requer pessoas e tecnologia: engenhosidade humana combinada com as ferramentas mais avançadas que ajudam a aplicar o conhecimento humano em velocidade e escala”disse o vice-presidente executivo de segurança da Microsoft, Charlie Bell, em um comunicado enlatado. "Com o Security Copilot, estamos construindo um futuro em que todos os defensores tenham as ferramentas e tecnologias necessárias para tornar o mundo um lugar mais seguro."
A Microsoft não divulgou exatamente como o Security Copilot incorpora o GPT-4, por incrível que pareça. Em vez disso, ele destacou um modelo personalizado e treinado – talvez baseado no GPT-4 – desenvolvido pelo Security Copilot que “incorpora um conjunto crescente de habilidades específicas de segurança” e “implanta habilidades e consultas” relacionadas à segurança cibernética.
A Microsoft enfatiza que o modelo não é baseado em dados de clientes, o que responde a uma crítica comum aos serviços baseados em modelos linguísticos.
Esse modelo personalizado ajuda a "capturar o que outras abordagens podem perder", diz a Microsoft, respondendo a perguntas relacionadas à segurança, aconselhando sobre o melhor curso de ação e resumindo eventos e processos. Mas dada a tendência dos modelos gerados por texto serem falsificados, não está claro o quão eficaz tal modelo pode ser na produção.
A própria Microsoft admite que o modelo personalizado do Security Copilot nem sempre acerta tudo. “O conteúdo gerado por IA pode conter erros”, escreve a empresa. "À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas mais consistentes, relevantes e úteis."