Por primera vez, Washington está a punto de decidir cómo regular la inteligencia artificial. Sin embargo, la lucha que se está gestando no tiene que ver con la tecnología en sí, sino con una cuestión de poder fundamental: quién puede establecer las reglas.
Ante la ausencia de un estándar federal significativo centrado en la seguridad del consumidor, los estados han tomado la iniciativa, presentando docenas de proyectos de ley para proteger a sus residentes de los daños relacionados con la IA. Entre ellos destacan el proyecto de ley de seguridad de la IA SB-53 de California y la Ley de Gobernanza Responsable de la IA de Texas, que prohíbe el uso indebido intencional de los sistemas de IA.
Esta proliferación de normativas locales ha encendido las alarmas en Silicon Valley. Gigantes tecnológicos y startups argumentan que estas leyes crean un mosaico regulatorio inviable que amenaza con estrangular la innovación.
La Postura de la Industria
«Nos va a frenar en la carrera contra China», afirma Josh Vlasto, cofundador del PAC pro-IA Leading the Future.
La industria tecnológica, junto con varios de sus aliados en la Casa Blanca, está presionando intensamente para que se adopte una norma nacional única, o en su defecto, ninguna. En esta batalla de todo o nada, han surgido nuevos y poderosos esfuerzos para prohibir explícitamente que los estados promulguen su propia legislación sobre IA.
Las Líneas de Batalla: NDAA y la Orden Ejecutiva
Los intentos de impedir que los estados regulen la IA se han intensificado en las últimas semanas, abriendo dos frentes principales en Washington.
Concepto Clave: NDAA
La Ley de Autorización de Defensa Nacional (NDAA) es un proyecto de ley federal anual que especifica el presupuesto y los gastos del Departamento de Defensa de EE. UU. Debido a su carácter de «legislación obligatoria», a menudo se utiliza como vehículo para incluir disposiciones no relacionadas que tienen más posibilidades de ser aprobadas.
Legisladores de la Cámara de Representantes están intentando utilizar la NDAA para bloquear las leyes estatales sobre IA. El líder de la mayoría, Steve Scalise (R-LA), ha confirmado estas consideraciones. Las negociaciones se han centrado en reducir el alcance de esta prohibición para preservar potencialmente la autoridad estatal en áreas críticas como la seguridad infantil y la transparencia.
Al mismo tiempo, un borrador filtrado de una orden ejecutiva (EO) de la Casa Blanca demuestra un fuerte apoyo a la prevención de los esfuerzos estatales. La EO, aunque supuestamente en suspenso, proponía crear un “Grupo de Trabajo de Litigios sobre IA” para impugnar las leyes estatales en los tribunales y ordenaría a las agencias federales evaluar las normativas locales consideradas “onerosas”.
De manera notable, la orden otorgaría a David Sacks, el zar de criptomonedas e IA de la administración y cofundador de la firma de capital riesgo Craft Ventures, autoridad codirectora para crear un marco legal uniforme, reemplazando el papel tradicional de la Oficina de Política Científica y Tecnológica de la Casa Blanca.
El Argumento del Mosaico y el Lobby Tecnológico
La posición de Sacks refleja la de gran parte de la industria. En los últimos meses han surgido varios súper PACs pro-IA, invirtiendo cientos de millones de dólares para oponerse a candidatos que apoyan la regulación de la IA.
Perfil del PAC: Leading the Future
Leading the Future es un Comité de Acción Política (PAC) dedicado a promover políticas que fomenten la innovación en inteligencia artificial en Estados Unidos. Su principal objetivo es abogar por una regulación federal unificada que anule el «mosaico» de leyes estatales, argumentando que un enfoque fragmentado perjudica la competitividad global del país, especialmente frente a China.
- Figuras Clave: Josh Vlasto (Cofundador), Nathan Leamer (CEO de Build American AI, su brazo de defensa).
- Inversores y Apoyos Notables: Andreessen Horowitz, Greg Brockman (Presidente de OpenAI), Perplexity, y Joe Lonsdale (Cofundador de Palantir).
- Web: Visitar sitio oficial
Nathan Leamer, director ejecutivo de Build American AI, el brazo de defensa del PAC, confirma que el grupo apoya la anulación de las leyes estatales incluso sin que existan protecciones federales específicas para la IA. Leamer argumenta que las leyes existentes sobre fraude o responsabilidad de producto son suficientes, favoreciendo un enfoque reactivo: permitir que las empresas innoven rápidamente y abordar los problemas en los tribunales a posteriori.
La Defensa de la Autonomía Estatal
No todos están de acuerdo con la estrategia de la industria. Alex Bores, miembro de la Asamblea de Nueva York y candidato al Congreso, es uno de los primeros objetivos de Leading the Future. Bores patrocinó la Ley RAISE, que exige que los grandes laboratorios de IA tengan planes de seguridad.
«Creo en el poder de la IA y por eso es tan importante tener regulaciones razonables. En última instancia, la IA que ganará en el mercado será una IA confiable», defiende Bores.
El argumento principal es que los estados pueden actuar con mayor agilidad para abordar los riesgos emergentes. Los datos respaldan esta afirmación.
En contraste, la actividad en el Congreso ha sido mucho más lenta. Se han presentado cientos de proyectos de ley sobre IA, pero pocos han sido aprobados. Más de 200 legisladores estatales y casi 40 fiscales generales han firmado cartas abiertas oponiéndose a la anulación de la autoridad estatal, argumentando que “los estados sirven como laboratorios de las democracias”.
Cronología de la Tensión Regulatoria
| 2025 | Estados como California y Texas presentan proyectos de ley de IA de gran alcance. |
| Nov 2025 | 38 estados ya han aprobado más de 100 leyes relacionadas con la IA, centradas en deepfakes y uso gubernamental. |
| Nov 2025 | Leading the Future lanza una campaña de $10 millones para presionar al Congreso por una ley federal que anule las estatales. |
| Finales 2025 | Se intensifican las negociaciones para incluir la prohibición de regulación estatal en la NDAA y se filtra un borrador de Orden Ejecutiva con el mismo fin. |
¿Cómo Sería una Norma Federal?
El representante Ted Lieu (D-CA) está preparando un megaproyecto de ley de más de 200 páginas que espera presentar en diciembre. El paquete legislativo cubre una variedad de protecciones al consumidor, incluyendo sanciones por fraude, protecciones contra deepfakes, defensa de denunciantes y requisitos de pruebas y divulgación para grandes empresas de modelos de lenguaje.
Esta última disposición requeriría que los laboratorios de IA prueben sus modelos y publiquen los resultados, algo que la mayoría ya hace voluntariamente. Es una propuesta menos estricta que un proyecto de ley similar de los senadores Josh Hawley (R-MS) y Richard Blumenthal (D-CN), que exigiría un programa de evaluación administrado por el gobierno.
Lieu reconoce que su proyecto de ley es un compromiso, diseñado con un objetivo pragmático en mente: «No estoy escribiendo un proyecto de ley que tendría si fuera rey. Estoy tratando de escribir un proyecto de ley que podría ser aprobado por una Cámara controlada por los republicanos, un Senado controlado por los republicanos y una Casa Blanca controlada por los republicanos».
