Tecnológicas:

Suscribir

Fiscales generales de EE.UU. exigen a OpenAI, Google y Microsoft que corrijan los resultados ‘delirantes’ de sus IA

Una coalición de fiscales generales estatales ha lanzado una seria advertencia a los principales actores de la industria de la inteligencia artificial, instándolos a abordar los «resultados delirantes» generados por sus chatbots. Tras una serie de preocupantes incidentes de salud mental vinculados a estas tecnologías, la carta enviada a gigantes como Microsoft, OpenAI y Google establece un ultimátum claro: implementar salvaguardias efectivas o enfrentar posibles violaciones de la ley estatal.

13
Empresas de IA Notificadas

Decenas
Fiscales Generales Involucrados

El Origen de la Alarma: Un Riesgo para la Salud Mental

La carta, firmada por docenas de fiscales generales de estados y territorios de EE. UU. en colaboración con la Asociación Nacional de Fiscales Generales, no surge en el vacío. Se fundamenta en incidentes trágicos y muy publicitados durante el último año, que incluyen suicidios y un asesinato, donde la violencia se ha relacionado directamente con el uso excesivo de la IA.

«En muchos de estos incidentes, los productos de GenAI generaron resultados aduladores y delirantes que alentaron los delirios de los usuarios o les aseguraron que no se estaban engañando», señala el documento. Este potencial para causar daños graves, especialmente a poblaciones vulnerables, es el motor principal de esta acción coordinada.

Exigencias Clave

Los fiscales exigen auditorías transparentes de terceros, procedimientos claros de notificación de incidentes y pruebas de seguridad rigurosas antes del lanzamiento público de los modelos de IA para prevenir daños psicológicos.

Un Pliego de Condiciones para una IA Segura

Para mitigar estos riesgos, los fiscales proponen un conjunto de salvaguardias concretas que las empresas deben implementar:

  • Auditorías de Terceros: Exigen auditorías transparentes de los grandes modelos de lenguaje (LLM) realizadas por entidades independientes como grupos académicos o de la sociedad civil. Estos auditores deben poder evaluar los sistemas antes de su lanzamiento y publicar sus hallazgos sin necesidad de aprobación previa por parte de la empresa.
  • Notificación de Incidentes: Sugieren tratar los incidentes de salud mental con la misma seriedad que los de ciberseguridad. Esto implica desarrollar y publicar cronogramas de detección y respuesta, y notificar de manera rápida y directa a los usuarios si han estado expuestos a resultados potencialmente dañinos.
  • Pruebas de Seguridad Previas: Las empresas deben desarrollar «pruebas de seguridad razonables y apropiadas» para garantizar que los modelos no produzcan resultados aduladores y delirantes antes de que se ofrezcan al público.

Los Gigantes de la IA en el Punto de Mira

La lista de destinatarios de la carta incluye a los nombres más influyentes del sector. Además de Microsoft, OpenAI y Google, también se incluyen Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika y xAI.

Perfil: OpenAI

Fundada en 2015 por figuras como Sam Altman, Elon Musk y Greg Brockman, OpenAI se ha consolidado como una de las organizaciones de investigación y desarrollo de inteligencia artificial más importantes del mundo. Con sede en San Francisco, California, la compañía está detrás de tecnologías transformadoras como el modelo de lenguaje GPT-4, que impulsa a ChatGPT, y el generador de imágenes DALL-E. Su misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad.

  • Sede: San Francisco, California, EE. UU.
  • Fundación: 2015
  • Valoración: Aproximadamente 86 mil millones de dólares
  • Inversores Clave: Microsoft, Khosla Ventures, Andreessen Horowitz, Sequoia Capital
  • Web: Visitar sitio oficial
  • Social: LinkedIn, X (Twitter)

La Tensión Regulatoria: Estados vs. Gobierno Federal

Esta iniciativa estatal contrasta fuertemente con el clima regulatorio a nivel federal. La administración Trump ha mostrado una postura abiertamente favorable a la IA, con múltiples intentos de aprobar una moratoria nacional sobre las regulaciones estatales en este ámbito. Aunque estos intentos han fracasado, en parte gracias a la presión de los propios funcionarios estatales, la tensión persiste.

Recientemente, el expresidente Trump anunció su intención de aprobar una orden ejecutiva la próxima semana para limitar la capacidad de los estados para regular la IA. En una publicación en Truth Social, afirmó que su objetivo es evitar que la inteligencia artificial sea «DESTRUIDA EN SU INFANCIA», lo que anticipa un choque inminente entre las jurisdicciones estatales y el poder federal sobre el futuro de la regulación tecnológica.

spot_img
Activar Notificaciones OK No gracias