Spanish English French German Italian Portuguese
Marketing Social
InicioTecnologíaInteligencia ArtificialMicrosoft da rienda suelta a la IA generativa en ciberseguridad

Microsoft da rienda suelta a la IA generativa en ciberseguridad

Como parte de su continua búsqueda para inyectar IA generativa en todos sus productos, Microsoft ha presentado Security Copilot, una nueva herramienta que pretende «resumir» y «dar sentido» a la inteligencia sobre amenazas.

En un anuncio poco detallado, Microsoft ha presentado Security Copilot como una forma de correlacionar datos sobre ataques y priorizar los incidentes de seguridad. Esto ya lo hacen muchas herramientas. Pero Microsoft argumenta que Security Copilot, que se integra con su actual cartera de productos de seguridad, mejora gracias a los modelos de IA generativa de OpenAI, en concreto el GPT-4, de reciente lanzamiento, que genera texto.

«Avanzar en el estado de la seguridad requiere tanto personas como tecnología: ingenio humano combinado con las herramientas más avanzadas que ayudan a aplicar la experiencia humana a velocidad y escala», dijo el vicepresidente ejecutivo de Microsoft Security, Charlie Bell, en un comunicado enlatado. «Con Security Copilot estamos construyendo un futuro en el que cada defensor tenga las herramientas y tecnologías necesarias para hacer del mundo un lugar más seguro».

Microsoft no divulgó exactamente cómo Security Copilot incorpora GPT-4, por extraño que parezca. En su lugar, destacó un modelo personalizado y entrenado -quizás basado en GPT-4- que impulsa Security Copilot y que «incorpora un conjunto creciente de habilidades específicas de seguridad» y «despliega habilidades y consultas» relacionadas con la ciberseguridad.

Microsoft subraya que el modelo no se basa en datos de clientes, lo que responde a una crítica habitual a los servicios basados en modelos lingüísticos.

Este modelo personalizado ayuda a «captar lo que otros enfoques podrían pasar por alto», afirma Microsoft, respondiendo a preguntas relacionadas con la seguridad, aconsejando sobre el mejor curso de acción y resumiendo acontecimientos y procesos. Pero dada la tendencia a la falsedad de los modelos generados por texto, no está claro hasta qué punto puede ser eficaz un modelo de este tipo en producción.

La propia Microsoft admite que el modelo personalizado Security Copilot no siempre acierta en todo. «El contenido generado por IA puede contener errores», escribe la compañía. «A medida que seguimos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas más coherentes, relevantes y útiles».

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La moderación de comentarios está activada. Su comentario podría tardar cierto tiempo en aparecer.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias