Spanish English French German Italian Portuguese
Marketing Social
InicioGeneralCyberseguridad4 preguntas que hay que hacerse al evaluar los prototipos de IA...

4 preguntas que hay que hacerse al evaluar los prototipos de IA para detectar sesgos

Es cierto que se han producido avances en la protección de datos en Estados Unidos gracias a la aprobación de varias leyes, como la Ley de Privacidad del Consumidor de California (CCPA), y documentos no vinculantes, como el Blueprint for an AI Bill of Rights. Sin embargo, actualmente no existe ninguna normativa estándar que dicte cómo las empresas tecnológicas deben mitigar el sesgo y la discriminación de la IA.

Como resultado, muchas empresas se están quedando atrás en la creación de herramientas éticas que den prioridad a la privacidad. Casi el 80% de los científicos de datos en los EE.UU. son hombres y el 66% son blancos, lo que muestra una falta inherente de diversidad y representación demográfica en el desarrollo de herramientas automatizadas de toma de decisiones, lo que a menudo conduce a resultados de datos sesgados.

Se necesitan mejoras significativas en los procesos de revisión del diseño para garantizar que las empresas tecnológicas tengan en cuenta a todas las personas a la hora de crear y modificar sus productos. De lo contrario, las organizaciones pueden arriesgarse a perder clientes en favor de la competencia, empañar su reputación y arriesgarse a graves demandas judiciales. Según IBM, alrededor del 85% de los profesionales de TI creen que los consumidores eligen empresas que son transparentes sobre cómo se crean, gestionan y utilizan sus algoritmos de IA. Podemos esperar que esta cifra aumente a medida que más usuarios sigan posicionándose en contra de la tecnología perjudicial y sesgada.

Entonces, ¿qué deben tener en cuenta las empresas a la hora de analizar sus prototipos? He aquí cuatro preguntas que los equipos de desarrollo deberían plantearse:

¿Hemos descartado todos los tipos de sesgo en nuestro prototipo?

Para crear una tecnología eficaz y libre de prejuicios, los equipos de IA deben elaborar una lista de preguntas para formular durante el proceso de revisión que pueda ayudarles a identificar posibles problemas en sus modelos.

Hay muchas metodologías que los equipos de IA pueden utilizar para evaluar sus modelos, pero antes de hacerlo, es fundamental evaluar el objetivo final y si hay algún grupo que pueda verse desproporcionadamente afectado por los resultados del uso de la IA.

Por ejemplo, los equipos de IA deben tener en cuenta que el uso de tecnologías de reconocimiento facial puede discriminar inadvertidamente a las personas de color, algo que ocurre con demasiada frecuencia en los algoritmos de IA. Una investigación llevada a cabo por la Unión Americana de Libertades Civiles en 2018 mostró que el reconocimiento facial de Amazon emparejó incorrectamente a 28 miembros del Congreso de los Estados Unidos con fotos de fichas policiales. Un asombroso 40% de las coincidencias incorrectas eran personas de color, a pesar de que solo representan el 20% del Congreso.

Al plantear preguntas difíciles, los equipos de IA pueden encontrar nuevas formas de mejorar sus modelos y esforzarse por evitar que se produzcan estas situaciones. Por ejemplo, un examen minucioso puede ayudarles a determinar si necesitan analizar más datos o si necesitarán que un tercero, como un experto en privacidad, revise su producto.

Plot4AI es un gran recurso para los que quieren empezar.

¿Hemos designado a un profesional o defensor de la privacidad?

Debido a la naturaleza de su trabajo, los profesionales de la privacidad han sido considerados tradicionalmente como barreras a la innovación, especialmente cuando tienen que revisar cada producto, documento y procedimiento. En lugar de considerar que un departamento de privacidad es un obstáculo, las organizaciones deberían verlo como un facilitador fundamental de la innovación.

Las empresas deben dar prioridad a la contratación de expertos en privacidad e incorporarlos al proceso de revisión del diseño para poder garantizar que sus productos funcionen para todos, incluidas las poblaciones desatendidas, de forma segura, conforme a la normativa y libre de prejuicios.

Aunque el proceso para integrar a los profesionales de la privacidad variará en función de la naturaleza y el alcance de la organización, hay algunas formas clave de garantizar que el equipo de privacidad tenga un sitio en la mesa. Las empresas deben empezar por establecer un conjunto sencillo de procedimientos para identificar cualquier actividad de tratamiento de datos personales nueva o modificada.

La clave del éxito de estos procedimientos es socializar el proceso con los ejecutivos, así como con los jefes de producto y los ingenieros, y asegurarse de que están alineados con la definición de información personal de la organización. Por ejemplo, aunque muchas organizaciones suelen aceptar las direcciones IP y los identificadores de dispositivos móviles como información personal, los modelos y normas obsoletos pueden categorizarlos como «anónimos». Las empresas deben tener claro qué tipos de información se consideran información personal.

Además, las organizaciones pueden creer que la información personal utilizada en sus productos y servicios plantea el mayor riesgo y debe ser la prioridad de las revisiones, pero deben tener en cuenta que otros departamentos, como recursos humanos y marketing, también procesan grandes cantidades de información personal.

Si una organización no dispone del ancho de banda necesario para contratar a un profesional de la privacidad para cada departamento, debería considerar la posibilidad de designar a un defensor de la privacidad que pueda detectar problemas y remitirlos al equipo de privacidad en caso necesario.

¿Está implicado nuestro departamento de personal y cultura?

Los equipos de privacidad no deben ser los únicos responsables de la privacidad en una organización. Todos los empleados que tienen acceso a información personal o que influyen en el tratamiento de la misma son responsables.

Ampliar los esfuerzos de contratación para incluir a candidatos de diferentes grupos demográficos y regiones puede aportar diversas voces y perspectivas. La contratación de empleados diversos no debe limitarse a los puestos de nivel básico y medio. Un equipo directivo y un consejo de administración diversos son absolutamente esenciales para representar a los que no pueden entrar en la empresa.

Los programas de formación de toda la empresa sobre ética, privacidad e IA pueden apoyar aún más una cultura inclusiva a la vez que aumentan la concienciación sobre la importancia de los esfuerzos de diversidad, equidad e inclusión (DEI). Sólo el 32% de las organizaciones exigen algún tipo de formación sobre DEI a sus empleados, lo que pone de relieve la necesidad de mejorar en este ámbito.

¿Coincide nuestro prototipo con el Plan para una Declaración de Derechos de la IA?

En octubre de 2022, la administración Biden publicó un Plan para una Declaración de Derechos de la IA, que esboza principios clave, con pasos detallados y recomendaciones para desarrollar una IA responsable y minimizar la discriminación en los algoritmos.

Las directrices incluyen cinco protecciones:

  • Sistemas seguros y eficaces.
  • Discriminación algorítmica.
  • Privacidad de los datos.
  • Notificación y explicación.
  • Alternativas humanas, consideración y alternativas.

Aunque la Carta de Derechos de la IA no impone ninguna métrica ni plantea regulaciones específicas en torno a la IA, las organizaciones deberían considerarla como una línea de base para sus propias prácticas de desarrollo. El marco puede utilizarse como recurso estratégico para las empresas que deseen obtener más información sobre la IA ética, mitigar los prejuicios y dar a los consumidores el control sobre sus datos.

El camino hacia una IA que dé prioridad a la privacidad

La tecnología tiene la capacidad de revolucionar la sociedad tal y como la conocemos, pero acabará fracasando si no beneficia a todos por igual. A medida que los equipos de IA crean nuevos productos o modifican sus herramientas actuales, es fundamental que apliquen los pasos necesarios y se planteen las preguntas adecuadas para asegurarse de que han descartado todo tipo de sesgos.

La creación de herramientas éticas que den prioridad a la privacidad siempre será un trabajo en curso, pero las consideraciones anteriores pueden ayudar a las empresas a dar pasos en la dirección correcta.

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La moderación de comentarios está activada. Su comentario podría tardar cierto tiempo en aparecer.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias