Muchos han descrito 2023 como el año de la IA, y el término apareció en varias listas de “palabras del año”. Si bien ha tenido un impacto positivo en la productividad y la eficiencia en el lugar de trabajo, la IA también ha presentado una serie de riesgos emergentes para las empresas.
En una encuesta desarrollada por AuditBoard, se reveló que aproximadamente la mitad de los empleados estadounidenses (51%) utilizan herramientas impulsadas por IA para trabajar, sin duda impulsadas por ChatGPT y otras soluciones de IA generativa. Al mismo tiempo, sin embargo, casi la mitad (48%) dijo que introducen datos de la empresa en herramientas de inteligencia artificial que no son públicos para ayudarlos en su trabajo.
Esta rápida integración de herramientas de IA generativa en el trabajo presenta desafíos éticos, legales, de privacidad y prácticos, lo que crea la necesidad de que las empresas implementen políticas nuevas y sólidas en torno a las herramientas de IA generativa. Tal como están las cosas, la mayoría aún no lo ha hecho: un informe de Gartner reveló que más de la mitad de las organizaciones carecen de una política interna sobre IA generativa, y la encuesta de AuditBoard mostró que solo el 37% de los empleados tienen una política formal con respecto al uso de herramientas impulsadas por IA no proporcionadas por la empresa.
Si bien puede parecer una tarea desalentadora, desarrollar un conjunto de políticas y estándares puede evitar que las organizaciones sufran grandes dolores de cabeza en el futuro.
Uso y Gobierno de la IA: riesgos y desafíos
La rápida adopción de la IA generativa ha dificultado para las empresas seguir el ritmo de la gestión de riesgos y el gobierno de la IA, y existe una clara desconexión entre la adopción y las políticas formales. La encuesta de AuditBoard mencionada anteriormente encontró que el 64% percibe el uso de herramientas de inteligencia artificial como seguro, lo que indica que muchos trabajadores y organizaciones podrían estar pasando por alto los riesgos.
Estos riesgos y desafíos pueden variar, pero tres de los más comunes en este momento son:
- Exceso de seguridad. El efecto Dunning-Kruger es un sesgo que se produce cuando se sobreestiman nuestros propios conocimientos o capacidades. Hemos visto que esto se manifiesta en relación con el uso de la IA; muchos sobreestiman las capacidades de la IA sin comprender sus limitaciones. Esto podría producir resultados relativamente inofensivos, como proporcionar resultados incompletos o inexactos, pero también podría conducir a situaciones mucho más graves, como resultados que violen las restricciones de uso legales o creen riesgos de propiedad intelectual.
- Seguridad y privacidad. La IA necesita acceso a grandes cantidades de datos para ser completamente efectiva, pero esto a veces incluye datos personales u otra información confidencial. Existen riesgos inherentes que conlleva el uso de herramientas de IA no analizadas en profundidad, por lo que las organizaciones deben asegurarse de utilizar herramientas que cumplan con sus estándares de seguridad de datos.
- Compartir datos. Casi todos los proveedores de tecnología han lanzado o lanzarán pronto capacidades de inteligencia artificial para aumentar sus ofertas de productos, y muchas de estas adiciones son de autoservicio o habilitadas por el usuario. Las soluciones de uso gratuito a menudo funcionan monetizando los datos proporcionados por el usuario y, en estos casos, hay una cosa que debe recordar: si no paga por el producto, probablemente sea usted el producto. Las organizaciones deben tener cuidado de garantizar que los modelos de aprendizaje que utilizan no se entrenen con datos personales o de terceros sin consentimiento y que sus propios datos no se utilicen para entrenar modelos de aprendizaje sin permiso.
También existen riesgos y desafíos asociados con el desarrollo de productos que incluyen capacidades de IA, como definir el uso aceptable de los datos de los clientes para la capacitación de modelos. A medida que la IA se infiltra en todas las facetas de los negocios, estas y muchas otras consideraciones seguramente aparecerán en el horizonte.
Desarrollar políticas integrales de uso de IA
La integración de la IA en los procesos y estrategias empresariales se ha vuelto imperativa, pero requiere desarrollar un marco de políticas y directrices para su implementación y uso responsable. La apariencia de esto puede variar según las necesidades específicas y los casos de uso de una entidad, pero cuatro pilares generales pueden ayudar a las organizaciones a aprovechar la IA para la innovación mientras mitigan los riesgos y mantienen estándares éticos.
Integrar la IA en los planes estratégicos
Adoptar la IA requiere alinear su implementación con los objetivos estratégicos del negocio. No se trata de adoptar tecnología puntera por el simple hecho de hacerlo; La integración de aplicaciones de IA que promocionan la misión y los objetivos definidos de la organización debería mejorar la eficiencia operativa e impulsar el crecimiento.
Mitigar el exceso de confianza
Reconocer el potencial de la IA no debería equivaler a una confianza inquebrantable. Siempre debe prevalecer un optimismo cauteloso (con énfasis en “cauteloso”), ya que las organizaciones deben tener en cuenta las limitaciones y los posibles sesgos de las herramientas de IA. Es fundamental encontrar un equilibrio calculado entre aprovechar las fortalezas de la IA y ser consciente de sus limitaciones actuales y futuras.
Definir directrices y mejores prácticas en el uso de la IA
La definición de protocolos para la privacidad de los datos, las medidas de seguridad y las consideraciones éticas garantiza una utilización coherente y ética en todos los departamentos. Este proceso incluye:
- Involucrar a diversos equipos en la creación de políticas: deben participar equipos que incluyan equipos legales, de recursos humanos y de seguridad de la información para crear una perspectiva holística, integrando dimensiones legales y éticas en los marcos operativos.
- Definir parámetros de uso y restringir aplicaciones dañinas: Articular políticas para el uso de la IA en aplicaciones prácticas y tecnológicas, identificar áreas donde la IA puede emplearse de manera beneficiosa y evitar el uso de aplicaciones potencialmente dañinas mientras se establecen procesos para evaluar nuevos casos de uso de la IA que puedan alinearse con los intereses estratégicos del negocio.
- Realizar actualizaciones periódicas de políticas y educación de los empleados: la IA evoluciona continuamente y es posible que esta evolución se acelere: los marcos de políticas deben adaptarse en conjunto. Las actualizaciones periódicas garantizan que las políticas se alineen con el panorama de la IA que cambia rápidamente, y la educación integral de los empleados garantiza el cumplimiento y el uso responsable.
Monitorización y detección de uso no autorizado de la IA
La creación y uso de mecanismos sólidos de prevención de pérdida de datos (DLP) y detecciones basadas en endpoints o SASE/CASB desempeña un papel muy importante a la hora de identificar el uso no autorizado de IA dentro de la organización y mitigar posibles infracciones o usos indebidos. También es crucial buscar propiedad intelectual dentro de modelos de IA de código abierto. Una inspección meticulosa salvaguarda la información patentada y evita infracciones no deseadas y, en consecuencia, muy caras.
A medida que las empresas profundizan en la integración de la IA, la formulación de políticas claras pero amplias les permite aprovechar el potencial de la IA y al mismo tiempo mitigar sus riesgos.
El diseño de políticas eficaces también fomenta el uso ético de la IA y crea resiliencia organizacional en un mundo que cada vez estará más impulsado por la IA. No hay que equivocarse: se trata de un asunto urgente. Las organizaciones que adopten la IA con políticas bien definidas se brindarán la mejor oportunidad para navegar de manera efectiva esta transformación y al mismo tiempo defender los estándares éticos y lograr sus objetivos estratégicos.