Come parte della sua continua ricerca per iniettare l'IA generativa in tutti i suoi prodotti, Microsoft ha presentato Copilota di sicurezza, un nuovo strumento che mira a "riassumere" e "dare un senso" all'intelligence sulle minacce.
In un annuncio scarno, Microsoft ha introdotto Security Copilot come un modo per correlare i dati di attacco e dare priorità agli incidenti di sicurezza. Questo è già fatto da molti strumenti. Ma Microsoft sostiene che Security Copilot, che si integra con il suo attuale portafoglio di prodotti per la sicurezza, miglioramento grazie ai modelli di intelligenza artificiale generativa OpenAI, in particolare il GPT-4, rilasciato di recente, che genera testo.
"Il miglioramento dello stato di sicurezza richiede sia persone che tecnologia: l'ingegno umano combinato con gli strumenti più avanzati che aiutano ad applicare le competenze umane a velocità e scala"ha affermato il vicepresidente esecutivo della Microsoft Security Charlie Bell in una dichiarazione predefinita. "Con Security Copilot stiamo costruendo un futuro in cui ogni difensore ha gli strumenti e le tecnologie di cui ha bisogno per rendere il mondo un posto più sicuro".
Microsoft non ha rivelato esattamente come Security Copilot incorpora GPT-4, stranamente. Invece, ha evidenziato un modello personalizzato e addestrato, forse basato su GPT-4, alimentato da Security Copilot che "incorpora un insieme crescente di competenze specifiche per la sicurezza" e "distribuisce competenze e domande" relative alla sicurezza informatica.
Microsoft sottolinea che il modello non si basa sui dati dei clienti, il che risponde a una critica comune ai servizi basati su modelli linguistici.
Questo modello personalizzato aiuta a "catturare ciò che altri approcci potrebbero perdere", afferma Microsoft, rispondendo a domande relative alla sicurezza, consigliando la migliore linea d'azione e riassumendo eventi e processi. Ma data la tendenza alla falsificazione dei modelli generati da testo, non è chiaro quanto possa essere efficace un tale modello in produzione.
La stessa Microsoft ammette che il modello personalizzato di Security Copilot non sempre fa tutto bene. "I contenuti generati dall'intelligenza artificiale possono contenere errori", scrive la società. "Mentre continuiamo a imparare da queste interazioni, stiamo adattando le tue risposte per creare risposte più coerenti, pertinenti e utili".