En un movimiento que ha sacudido los cimientos de la industria tecnológica, la relación entre las empresas de inteligencia artificial y el gobierno de Estados Unidos se ha vuelto un terreno complejo y lleno de tensiones. La noche del sábado, Sam Altman, CEO de OpenAI, intentó aclarar la situación a través de una sesión de preguntas y respuestas en la red social X, buscando desmitificar la decisión de su compañía de aceptar un controvertido contrato con el Pentágono, precisamente el que su principal rival, Anthropic, acababa de rechazar por motivos éticos.
Las preguntas del público se centraron rápidamente en las implicaciones más delicadas: la posible participación de OpenAI en sistemas de vigilancia masiva y armamento autónomo, las mismas líneas rojas que llevaron a Anthropic a retirarse de las negociaciones. La respuesta de Altman fue una defensa del proceso democrático, argumentando que no corresponde a las empresas privadas dictar la política nacional.
Sam Altman en X
«Creo profundamente en el proceso democrático, y en que nuestros líderes electos tienen el poder y que todos debemos defender la constitución».
«Hay más debate abierto del que pensé que habría sobre si deberíamos preferir un gobierno elegido democráticamente o que empresas privadas no electas tengan más poder. Supongo que esto es algo en lo que la gente no está de acuerdo».
Una transición inesperada: de startup a infraestructura crítica
Este episodio revela un punto de inflexión para OpenAI y para el sector tecnológico en su conjunto. La postura de Altman, cediendo la responsabilidad al liderazgo civil, es estándar en la industria de defensa tradicional. Sin embargo, evidencia que OpenAI, en su rápida transición de una exitosa startup de consumo a una pieza clave de la infraestructura de seguridad nacional, parece no estar preparada para las nuevas responsabilidades que esto conlleva.
Puntos Clave
OpenAI se enfrenta a la presión interna y al escrutinio político mientras navega su nuevo rol como contratista de defensa, un camino que su rival Anthropic rechazó explícitamente por motivos éticos.
Cronología del Conflicto
| Paso 1 | Anthropic negocia con el Pentágono pero insiste en incluir limitaciones contractuales sobre vigilancia y armamento autónomo. |
| Paso 2 | El Pentágono rechaza las condiciones, y Anthropic se retira del proceso de licitación. |
| Paso 3 | El Secretario de Defensa, Pete Hegseth, amenaza con designar a Anthropic como un ‘riesgo para la cadena de suministro’. |
| Paso 4 | Horas después, OpenAI anuncia que ha ganado el mismo contrato, aceptando las condiciones que Anthropic rechazó. |
La amenaza de una designación sin precedentes
El conflicto inmediato se centra en la amenaza del Secretario de Defensa, Pete Hegseth, de designar a Anthropic como un riesgo para la cadena de suministro. Esta medida, sin precedentes contra una empresa estadounidense, aislaría a Anthropic de sus socios de hardware y alojamiento, lo que podría destruir la compañía. Aunque la decisión podría ser revocada en los tribunales, el daño reputacional y operativo sería inmenso, enviando una onda de choque a toda la industria.
¿Qué es una designación de ‘Riesgo para la Cadena de Suministro’?
Esta es una herramienta del gobierno de EE. UU., generalmente utilizada contra empresas extranjeras (como Huawei), para prohibirles el acceso a tecnología y componentes estadounidenses. Aplicarla a una empresa nacional como Anthropic por desacuerdos contractuales es una escalada drástica que se percibe como una politización de la seguridad nacional y un mensaje intimidatorio para otros proveedores tecnológicos que consideren imponer límites éticos a su colaboración con el gobierno.
El exfuncionario de la administración Trump, Dean Ball, señaló que Anthropic simplemente estaba operando bajo los términos de un contrato existente, y fue la administración la que insistió en cambiarlos. Esta acción va más allá de cualquier disputa comercial y establece un precedente peligroso. “Incluso si el secretario Hegseth da marcha atrás, se ha causado un gran daño”, escribió Ball. “La mayoría de las corporaciones tendrán que operar bajo el supuesto de que ahora reinará la lógica de la tribu”.
El coste de elegir un bando
Esta situación coloca a OpenAI en una posición extremadamente delicada. Por un lado, enfrenta una intensa presión de sus propios empleados para mantener líneas rojas éticas. Por otro, los medios conservadores vigilarán cualquier señal de que no es un aliado incondicional del gobierno. OpenAI, quizás sin proponérselo, ha entrado en el mismo juego que contratistas de defensa más establecidos políticamente como Palantir y Anduril. En este nuevo escenario, no hay actores apolíticos.
Resulta paradójico que esta represión ocurra cuando más inversores tecnológicos que nunca ocupan posiciones influyentes en Washington. Sin embargo, muchos parecen cómodos con la ‘lógica tribal’. Entre los capitalistas de riesgo alineados con Trump, como David Sacks, se percibía que Anthropic buscaba el favor de la administración Biden, y ahora que la situación se ha invertido, pocos defienden el principio de la libre empresa.
Durante décadas, el sector de defensa estuvo dominado por conglomerados como Raytheon y Lockheed Martin, cuya estructura regulada les proporcionaba la cobertura política necesaria para evitar vaivenes partidistas. Las startups actuales, aunque más ágiles, están mucho menos preparadas para la volatilidad política a largo plazo. El precio que OpenAI pagará, ya sea en pérdida de talento o de negocio, aún está por verse, pero es casi seguro que no saldrá ilesa.
Perfil: OpenAI
Fundada en 2015 por figuras como Sam Altman, Greg Brockman, Elon Musk e Ilya Sutskever, OpenAI comenzó como un laboratorio de investigación sin fines de lucro con la misión de garantizar que la inteligencia artificial general beneficie a toda la humanidad. Con sede en San Francisco, ha evolucionado hacia un modelo de ‘beneficio limitado’, atrayendo inversiones masivas, principalmente de Microsoft. Es la creadora de tecnologías disruptivas como la familia de modelos GPT, ChatGPT y el generador de imágenes DALL-E, alcanzando una valoración estimada de 86 mil millones de dólares.
- Web: Visitar sitio oficial | X | LinkedIn
Perfil: Anthropic
Anthropic fue fundada en 2021 por ex-empleados de alto nivel de OpenAI, incluyendo a los hermanos Dario y Daniela Amodei. Nacida con un fuerte enfoque en la seguridad y la ética de la IA, la compañía se ha posicionado como una alternativa más cautelosa en la carrera de la IA. Con sede también en San Francisco, ha desarrollado la familia de modelos de lenguaje Claude, diseñados para ser más fiables y predecibles. Ha recibido importantes inversiones de gigantes como Google, Amazon y Salesforce, alcanzando una valoración de más de 18 mil millones de dólares.
- Web: Visitar sitio oficial | X | LinkedIn
