Spanish English French German Italian Portuguese
Marketing Social
InicioSectoresBanca y SegurosLa IA generativa podría hacer fútil KYC

La IA generativa podría hacer fútil KYC

KYC, o «Conozca a su cliente», es un proceso destinado a ayudar a las instituciones financieras, las nuevas empresas de tecnología financiera y los bancos a verificar la identidad de sus clientes. No es raro que la autenticación KYC implique “imágenes de identificación” o selfies verificados que se utilizan para confirmar que una persona es quien dice ser. Wise, Revolut y las plataformas de criptomonedas Gemini y LiteBit se encuentran entre las que dependen de imágenes de identificación para la incorporación de seguridad.

Pero la IA generativa podría sembrar dudas sobre estos controles.

Las publicaciones virales en X (anteriormente Twitter) y Reddit muestran cómo, aprovechando el código abierto y el software disponible en el mercado, un atacante podría descargar una selfie de una persona, editarla con herramientas de inteligencia artificial generativa y usar la imagen de identificación manipulada para aprobar una prueba de KYC. No hay evidencia de que se hayan utilizado herramientas de inteligencia artificial de generación para engañar a un sistema KYC real, todavía. Pero la facilidad con la que se obtienen imágenes de identificación profundamente falsificadas relativamente convincentes es motivo de alarma.

Engañar a KYC

En una autenticación de imagen de identificación KYC típica, un cliente carga una fotografía de sí mismo sosteniendo un documento de identificación (un pasaporte o una licencia de conducir, por ejemplo) que solo él puede poseer. Una persona, o un algoritmo, cruza la imagen con documentos y selfies archivados para (con suerte) frustrar los intentos de suplantación.

La autenticación por imagen de identificación nunca ha sido infalible. Los estafadores han realizado venta de identificaciones y selfies falsificados durante años. Pero la IA genera un abanico de nuevas posibilidades.

Tutoriales online muestran cómo Stable Diffusion, un generador de imágenes gratuito y de código abierto, se puede utilizar para crear representaciones sintéticas de una persona contra cualquier fondo deseado (por ejemplo, una sala de estar). Con un poco de prueba y error, un atacante puede modificar las representaciones para mostrar que el objetivo parece tener un documento de identificación. En ese momento, el atacante puede utilizar cualquier editor de imágenes para insertar un documento real o falso en las manos de la persona falsificada.

La IA acelerará rápidamente el uso generalizado de la criptografía de clave privada y la identificación descentralizada. Consulte esta «publicación de verificación» de Reddit y la identificación realizada con Stable Diffusion. Cuando ya no podamos confiar en nuestros ojos para determinar si el contenido es genuino, recurriremos a la criptografía aplicada. pic.twitter.com/6IjybWRhRa – Justin Leroux (@0xMidnight) 5 de enero de 2024

Ahora bien, para obtener los mejores resultados con Stable Diffusion es necesario instalar herramientas y extensiones adicionales y obtener alrededor de una docena de imágenes del objetivo. Un usuario de Reddit con el nombre de usuario _harsh_, que publicó un flujo de trabajo para crear selfies de identificación falsos, dijo que se necesitan entre 1 y 2 días para crear una imagen convincente.

Pero la barrera de entrada es ciertamente más baja de lo que solía ser. La creación de imágenes de identificación con iluminación, sombras y entornos realistas requiere conocimientos algo avanzados del software de edición de fotografías. Ahora bien, ese no es necesariamente el caso.

Introducir imágenes KYC falsificadas en una aplicación es incluso más fácil que crearlas. Las aplicaciones de Android que se ejecutan en un emulador de escritorio como Bluestacks pueden ser engañadas para que acepten imágenes falsificadas en lugar de una transmisión de cámara en directo, mientras que las aplicaciones en la web pueden ser frustradas por un software que permite a los usuarios convertir cualquier fuente de imagen o video en una cámara web virtual.

Amenaza creciente

Algunas aplicaciones y plataformas implementan controles de “vida” como seguridad adicional para verificar la identidad. Por lo general, implican que un usuario grabe un video corto de sí mismo girando la cabeza, parpadeando o demostrando de alguna otra manera que realmente es una persona real.

Pero los controles de vida también se pueden eludir utilizando IA genérica.

NOTICIAS: ¡Nuestra última investigación ya está disponible! Descubrimos que 10 de los proveedores biométricos de KYC más populares son muy vulnerables a ataques deepfake en tiempo real. Y también puede serlo su banco, seguro o proveedores de salud. Informe completo en https://t.co/vryGJ7na0ihttps://t.co/VVaSZrCZRn — Sensibilidad (@sensityai) 18 de mayo de 2022

A principios del año pasado, Jimmy Su, director de seguridad del intercambio de criptomonedas Binance, dijo a Cointelegraph que las herramientas de deepfake actuales son suficientes para pasar controles de vida, incluso aquellas que requieren que los usuarios realicen acciones como girar la cabeza en tiempo real.

La conclusión es que KYC, que ya era impredecible, pronto podría volverse inútil como medida de seguridad. Su, por su parte, no cree que las imágenes y los vídeos deepfake hayan llegado al punto en el que puedan engañar a los críticos humanos. Pero podría ser sólo cuestión de tiempo antes de que eso cambie.

RELACIONADOS

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias