Tecnólogo e investigador Aviv Ovadia no está seguro de que la IA generativa pueda ser gobernada, pero cree que el medio más plausible de mantenerla bajo control podría ser confiarles a aquellos que se verán afectados por la IA la decisión colectiva sobre las formas de frenarla.
Eso significa tu; significa yo. Es el poder de las grandes redes de personas para resolver problemas de forma más rápida y equitativa de lo que podría hacerlo un pequeño grupo de personas por sí solo (incluso, por ejemplo, en Washington). Se basa esencialmente en la sabiduría de las multitudes, y está sucediendo en muchos campos, incluida la investigación científica, los negocios, la política y los movimientos sociales.
En Taiwán, por ejemplo, piratas informáticos con mentalidad cívica formaron en 2015 una plataforma, «Taiwán virtual», que «reúne a representantes de los sectores público, privado y social para debatir soluciones políticas a problemas principalmente relacionados con la economía digital», como se explicó en 2019 por la ministra digital de Taiwán, Audrey Tang en el New York Times. Desde entonces, vTaiwan, como se le conoce, ha abordado docenas de problemas “basándose en una combinación de debate en línea y discusiones cara a cara con las partes interesadas”, escribió Tang en ese momento.
Una iniciativa similar es Revisión de la Iniciativa Ciudadana de Oregón, que se convirtió en ley en 2011 e informa a la población votante del estado sobre las medidas electorales a través de un «proceso deliberativo» impulsado por los ciudadanos. Aproximadamente 20 a 25 ciudadanos que son representativos de todo el electorado de Oregón se reúnen para debatir los méritos de una iniciativa; luego escriben colectivamente una declaración sobre esa iniciativa que se envía a los demás votantes del estado para que puedan tomar decisiones mejor informadas los días de las elecciones.
Los llamados procesos deliberativos también han ayudado con éxito a abordar problemas en Australia (política de agua), Canadá (reforma electoral), Chile (pensiones y atención médica) y Argentina (vivienda, propiedad de la tierra), entre otros lugares.
“Hay obstáculos para hacer que esto funcione” en lo que respecta a la IA, reconoce Ovadya, afiliado al Centro Berkman Klein de Harvard y cuyo trabajo se centra cada vez más en los impactos de la IA en la sociedad y la democracia. “Pero empíricamente, esto se ha hecho en todos los continentes del mundo, en todas las escalas” y “cuanto más rápido podamos implementar algunas de estas cosas, mejor”, señala.
Dejar que las personas decidan cuáles son las pautas aceptables en torno a la IA en particular puede sonar extraño para algunos, pero incluso los tecnólogos creen que es parte de la solución. Mira Murati, directora de tecnología de la destacada startup de inteligencia artificial OpenAI, publica Time en una nueva entrevista, “[Somos] un pequeño grupo de personas y necesitamos muchos más aportaciones en este sistema y muchos más que vayan más allá de las tecnologías, en concreto reguladores, gobiernos y otras entidades similares”.
Cuando se le preguntó si Murati teme que la participación del gobierno pueda frenar la innovación o si cree que es demasiado pronto para que los legisladores y reguladores se involucren, respondió: “No es demasiado pronto. Es muy importante que todos comiencen a involucrarse dado el impacto que van a tener estas tecnologías”.
En el vacío regulatorio actual, OpenAI ha adoptado un enfoque autónomo por ahora, creando pautas para el uso seguro de su tecnología y lanzando nuevas iteraciones a cuentagotas, a veces para frustración del público en general.
Mientras tanto, la Unión Europea ha estado redactando un marco regulatorio, la Lae de AI, que se está abriendo paso en el Parlamento Europeo y pretende convertirse en un estándar global. La ley asignaría aplicaciones de IA a tres categorías de riesgo: aplicaciones y sistemas que crean un “riesgo inaceptable”; «solicitudes de alto riesgo», como una «herramienta de escaneo de CV que clasifica a los solicitantes de empleo» que estaría sujeta a requisitos legales específicos; y aplicaciones no prohibidas explícitamente o catalogadas como de alto riesgo que en gran parte quedarían sin regular.
El Departamento de Comercio de EE. UU. también redactó un marco voluntario destinado a servir de guía para las empresas, pero no hay ninguna regulación, nada, cuando se necesita con urgencia. Además de OpenAI, los gigantes tecnológicos como Microsoft y Google, a pesar de haber sido quemados por versiones previas de su propia IA que fracasaron, están compitiendo públicamente de nuevo para lanzar productos y aplicaciones con IA, para que no se queden atrás.
Una especie de consorcio de la World Wide Web, una organización internacional creada en 1994 para establecer estándares para la World Wide Web, aparentemente tendría sentido. De hecho, en esa entrevista en Time, Murati observa que «diferentes voces, como filósofos, científicos sociales, artistas y personas de las humanidades» deben unirse para responder a las muchas «cuestiones éticas y filosóficas que debemos considerar».
Tal vez la industria se inicie así, y la llamada inteligencia colectiva llene muchos de los espacios entre las visiones generalistas.
Algunas herramientas nuevas pueden ayudar a alcanzar ese fin. El CEO de Open AI, Sam Altman, también es cofundador, por ejemplo, de una empresa de escaneo de retina en Berlín llamada WorldCoin que quiere facilitar la autenticación de la identidad de alguien. Se han planteado preguntas sobre las implicaciones de privacidad y seguridad del enfoque biométrico de WorldCoin, pero sus aplicaciones potenciales incluyen la distribución de un ingreso básico universal global, así como el empoderamiento de nuevas formas de democracia digital.
De cualquier manera, Ovadya cree que recurrir a procesos deliberativos que involucren a una gran cantidad de personas de todo el mundo es la forma de crear límites en torno a la IA y, al mismo tiempo, otorgar más credibilidad a los actores de la industria.
“OpenAI está recibiendo algunas críticas en este momento por parte de todos”, incluso por su sesgo liberal percibido, dice Ovadya. “Sería útil [para la empresa] tener una respuesta realmente concreta” sobre cómo establece sus políticas futuras.
Ovadya apunta de manera similar a Stability.AI, la empresa de IA de código abierto cuyo director ejecutivo, Emad Mostaque, ha sugerido repetidamente que Stability es más democrático que OpenAI porque está disponible en todas partes, mientras que OpenAI está disponible solo en países en este momento donde puede proporcionar «acceso seguro»
Dice Ovadya: “Emad de Stability dice que está ‘democratizando la IA’. Bien, ¿No sería bueno usar procesos democráticos para descubrir qué es lo que la gente realmente quiere?”.