La Declaración Prohumana: una hoja de ruta bipartidista para regular la IA ante la inacción del gobierno

Mientras la reciente ruptura entre Washington y Anthropic ha expuesto una alarmante falta de reglas coherentes para gobernar la inteligencia artificial, una coalición bipartidista de pensadores ha logrado lo que el gobierno no ha podido: un marco detallado para el desarrollo responsable de la IA.

Este esfuerzo se materializa en la Declaración Prohumana, un documento finalizado justo antes del enfrentamiento de la semana pasada entre el Pentágono y Anthropic, una coincidencia que no ha pasado desapercibida para los involucrados.

95%
de los estadounidenses se opone a una carrera no regulada hacia la superinteligencia

«Ha ocurrido algo bastante notable en Estados Unidos en los últimos cuatro meses», afirma Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar la iniciativa. “Las encuestas muestran de repente que el 95% de todos los estadounidenses se oponen a una carrera no regulada hacia la superinteligencia”.

Una encrucijada para la humanidad

El documento, firmado por cientos de expertos, exfuncionarios y figuras públicas, plantea que la humanidad se encuentra en una encrucijada. Un camino, denominado “la carrera por el reemplazo”, conduce a la suplantación de los seres humanos, primero como trabajadores y luego como tomadores de decisiones, a medida que el poder se concentra en instituciones opacas y sus máquinas. El otro camino, en cambio, utiliza la IA para expandir enormemente el potencial humano.

Los 5 Pilares de la IA Responsable

La declaración se basa en cinco principios clave: mantener a los humanos a cargo, evitar la concentración de poder, proteger la experiencia humana, preservar la libertad individual y responsabilizar legalmente a las empresas de IA.

Entre sus disposiciones más contundentes se encuentra una prohibición absoluta del desarrollo de superinteligencia hasta que exista un consenso científico sobre su seguridad y una aceptación democrática genuina. También exige apagados obligatorios (kill switches) en sistemas potentes y una prohibición de arquitecturas capaces de autorreplicación, auto-mejora autónoma o resistencia al apagado.

El conflicto del Pentágono como catalizador

La publicación de la declaración coincide con un momento que subraya su urgencia. La tensión entre el sector tecnológico y el gobierno alcanzó un punto crítico, dejando al descubierto el alto coste de la inacción del Congreso en materia de IA.

Cronología Clave del Conflicto

Finales de Febrero El Secretario de Defensa designa a Anthropic como un “riesgo para la cadena de suministro” después de que la compañía se negara a otorgar al Pentágono el uso ilimitado de su tecnología.
Horas después OpenAI llega a su propio acuerdo con el Departamento de Defensa, un pacto que los expertos legales consideran difícil de hacer cumplir de manera efectiva.

Perfil: Anthropic

Fundada en 2021 por ex-miembros de OpenAI, incluyendo a Dario y Daniela Amodei, Anthropic es una empresa de seguridad e investigación en IA con sede en San Francisco. Su misión es construir sistemas de IA fiables, interpretables y controlables, con un fuerte enfoque en la seguridad. La compañía ha recaudado miles de millones de dólares de inversores clave como Google y Amazon, alcanzando una valoración de más de 18.000 millones de dólares. Es conocida por su familia de modelos de lenguaje grande, Claude.

Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense, señaló la importancia del momento: «Esto no es sólo una disputa sobre un contrato. Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA».

La seguridad infantil como punto de inflexión

Tegmark utiliza una analogía clara para explicar la necesidad de regulación: «Nunca hay que preocuparse de que una compañía farmacéutica lance un medicamento que cause un daño masivo antes de que se haya descubierto cómo hacerlo seguro, porque la FDA no les permitirá liberar nada hasta que sea lo suficientemente seguro».

Dado que las disputas territoriales en Washington rara vez generan la presión pública necesaria para cambiar las leyes, Tegmark cree que la seguridad infantil es el punto de presión más probable para romper el estancamiento actual. La declaración exige pruebas obligatorias previas al despliegue para productos de IA, especialmente chatbots y aplicaciones dirigidas a jóvenes, que cubran riesgos como el aumento de la ideación suicida, la exacerbación de problemas de salud mental y la manipulación emocional.

“Si un hombre mayor y sospechoso le envía mensajes a un niño de 11 años haciéndose pasar por una niña para persuadirlo de que se suicide, ese hombre puede ir a la cárcel”, argumenta Tegmark. «Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?»

Él cree que una vez que se establezca el principio de pruebas previas al lanzamiento para productos infantiles, el alcance de la regulación se ampliará inevitablemente. «La gente vendrá y dirá: agreguemos otros requisitos. Quizás también deberíamos probar que esto no puede ayudar a terroristas a fabricar armas biológicas. Quizás deberíamos probar para asegurarnos de que la superinteligencia no tenga la capacidad de derrocar al gobierno de Estados Unidos».

El consenso en torno a esta declaración es notable. El hecho de que el ex asesor de Trump, Steve Bannon, y Susan Rice, asesora de seguridad nacional del presidente Obama, hayan firmado el mismo documento, junto con el ex presidente del Estado Mayor Conjunto, Mike Mullen, y líderes religiosos progresistas, demuestra la amplitud del acuerdo.

«En lo que están de acuerdo, por supuesto, es en que todos son humanos», concluye Tegmark. «Si todo se reduce a si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo lado».

spot_img