Spanish English French German Italian Portuguese
Marketing Social
InicioIAAltman, de OpenAI, y otros gigantes de la IA respaldan la advertencia...

Altman, de OpenAI, y otros gigantes de la IA respaldan la advertencia sobre el riesgo de «extinción» de la IA avanzada

Abran paso a otra intervención política sobre IA que acapara titulares: Cientos de científicos especializados en IA, académicos, directores ejecutivos de empresas tecnológicas y figuras públicas -desde Sam Altman, director ejecutivo de OpenAI, y Demis Hassabis, director ejecutivo de DeepMind, hasta Geoffrey Hinton, veterano informático especializado en IA, Max Tegmark, del MIT, y Jaan Tallinn, cofundador de Skype, hasta el músico Grimes y el podcaster populista Sam Harris, por nombrar unos pocos- se han sumado a una declaración que insta a prestar atención mundial al riesgo existencial de la IA.

La declaración, alojada en el sitio web de una organización sin ánimo de lucro con sede en San Francisco y financiación privada llamada Centro para la Seguridad de la IA (CAIS), pretende equiparar el riesgo de la IA con los daños existenciales que plantea el apocalipsis nuclear y pide a los responsables políticos que centren su atención en mitigar lo que afirman que es un riesgo de extinción de la IA de nivel «catastrófico».

He aquí su declaración resumida:

Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear.

Según una breve explicación en el sitio web del CAIS, la declaración se ha mantenido «sucinta» porque a sus autores les preocupa evitar que su mensaje sobre «algunos de los riesgos más graves de la IA avanzada» se vea ahogado por el debate sobre otros «riesgos importantes y urgentes de la IA» que, no obstante, dan a entender que se interponen en el debate sobre el riesgo de extinción de la IA.

Sin embargo, en los últimos meses hemos oído hablar en voz alta y en múltiples ocasiones de las mismas preocupaciones, a medida que la publicidad sobre la IA ha ido creciendo gracias al mayor acceso a herramientas de IA generativa como ChatGPT y DALL-E de OpenAI, lo que ha dado lugar a un exceso de titulares sobre el riesgo de IA asesinas «superinteligentes». (Como éste, de principios de mes, en el que Hinton, firmante de la declaración, advertía de la «amenaza existencial» de que la IA tomara el control. O éste, de la semana pasada, en el que Altman pedía una regulación para evitar que la IA destruya a la humanidad).

También está la carta abierta firmada por Elon Musk (y decenas de personas más) en marzo, que pedía una pausa de seis meses en el desarrollo de modelos de IA más potentes que el GPT-4 de OpenAI para dar tiempo a que se diseñen protocolos de seguridad compartidos y se apliquen a la IA avanzada, advirtiendo de los riesgos que plantean «mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable».

Así que, en los últimos meses, ha habido un aluvión de advertencias muy publicitadas sobre riesgos de la IA que aún no existen.

Podría decirse que este bombardeo de titulares histéricos ha desviado la atención de un examen más profundo de los daños existentes. Por ejemplo, el uso gratuito de datos protegidos por derechos de autor para entrenar sistemas de inteligencia artificial sin permiso ni consentimiento (ni pago); o la extracción sistemática de datos personales en línea en violación de la privacidad de las personas; o la falta de transparencia de los gigantes de la inteligencia artificial con respecto a los datos utilizados para entrenar estas herramientas. O, de hecho, defectos como la desinformación («alucinación») y riesgos como el sesgo (discriminación automatizada). Por no hablar del spam inducido por la IA. Y el peaje medioambiental de la energía gastada para entrenar a estos monstruos de la IA.

No deja de ser llamativo que, tras una reunión celebrada la semana pasada entre el primer ministro británico y una serie de importantes ejecutivos de la IA, entre ellos Altman y Hassabis, el gobierno parezca estar cambiando de rumbo en la regulación de la IA, con un repentino interés por el riesgo existencial, según informa The Guardian.

Hablar del riesgo existencial de la IA también distrae la atención de los problemas relacionados con la estructura y el dominio del mercado, como Jenna Burrell, directora de investigación de Data & Society, señalaba en este reciente artículo de Columbia Journalism Review en el que analizaba la cobertura mediática de ChatGPT, y en el que argumentaba que necesitamos dejar de centrarnos en pistas falsas, como la posible «sensibilidad» de la IA, para centrarnos en cómo la IA está concentrando aún más la riqueza y el poder.

Así que, por supuesto, existen claras motivaciones comerciales para que los gigantes de la IA quieran dirigir la atención reguladora hacia un futuro teórico lejano, hablando de un día del juicio final impulsado por la IA, como una táctica para desviar la atención de los legisladores de consideraciones más fundamentales sobre competencia y antimonopolio en el aquí y ahora. (Y la explotación de datos como herramienta para concentrar el poder de mercado no es nada nuevo).

Ciertamente, dice mucho de las estructuras de poder de la IA existentes que los ejecutivos de gigantes de la IA como OpenAI, DeepMind, Stability AI y Anthropic estén tan contentos de unirse y charlar juntos cuando se trata de amplificar públicamente las conversaciones sobre el riesgo existencial de la IA. Y cuánto más reticentes a juntarse para discutir los daños que sus herramientas pueden estar causando ahora mismo.

OpenAI fue un notable no firmante de la mencionada carta abierta (firmada por Musk), pero varios de sus empleados respaldan la declaración del CAIS (mientras que Musk aparentemente no lo hace). Así que la última declaración parece ofrecer una respuesta comercial (no oficial) de OpenAI (y otros) al anterior intento de Musk de secuestrar la narrativa del riesgo existencial de la IA para sus propios intereses (que ya no favorecen que OpenAI lidere la carga de la IA).

En lugar de pedir una pausa en el desarrollo, lo que podría congelar el liderazgo de OpenAI en el campo de la IA generativa, la declaración presiona a los responsables políticos para que se centren en la mitigación del riesgo, y lo hace mientras OpenAI está financiando simultáneamente esfuerzos para dar forma a «procesos democráticos para dirigir la IA», como dijo Altman. Así pues, la empresa se está posicionando activamente (y aplicando la riqueza de sus inversores) para influir en la forma de cualquier futura barrera de mitigación, junto con los actuales esfuerzos de presión en persona dirigidos a los reguladores internacionales. Recientemente, Altman también amenazó públicamente con retirar la herramienta de OpenAI de Europa si no se suavizaba el borrador de la normativa europea sobre IA para excluir su tecnología.

Por otra parte, algunos de los firmantes de la carta anterior simplemente se han alegrado de aprovechar otra oportunidad de publicidad, estampando su nombre en ambas (¡hola Tristan Harris!).

Pero, ¿quién es CAIS? Hay poca información pública sobre la organización que alberga este mensaje. Sin embargo, admite que ejerce presión sobre los responsables políticos. Su página web dice que su misión es «reducir los riesgos a escala social de la IA» y afirma que se dedica a fomentar la investigación y la creación de campo con este fin, incluida la financiación de la investigación, además de tener un papel declarado de defensa de las políticas.

Las preguntas más frecuentes del sitio web ofrecen información limitada sobre quién la respalda económicamente (se dice que se financia con donaciones privadas). En respuesta a la pregunta «¿es el CAIS una organización independiente?», se afirma brevemente que «sirve al interés público»:

El CAIS es una organización sin ánimo de lucro financiada en su totalidad por contribuciones privadas. Nuestras políticas y orientaciones de investigación no están determinadas por donantes individuales, lo que garantiza que nuestro objetivo siga siendo servir al interés público.

Nos hemos puesto en contacto con el CAIS para hacerles preguntas.

En un hilo de Twitter que acompaña al lanzamiento de la declaración, el director del CAIS, Dan Hendrycks, amplía la explicación de la declaración antes mencionada, nombrando «el sesgo sistémico, la desinformación, el uso malicioso, los ciberataques y el armamentismo» como ejemplos de «riesgos importantes y urgentes de la IA… no sólo el riesgo de extinción».

«Todos estos son riesgos importantes que deben abordarse», sugiere también, restando importancia a las preocupaciones de que los responsables políticos tienen un ancho de banda limitado para abordar los daños de la IA argumentando: «Las sociedades pueden gestionar múltiples riesgos a la vez; no es ‘o lo uno o lo otro’, sino ‘sí/y’. Desde la perspectiva de la gestión de riesgos, igual que sería imprudente dar prioridad exclusivamente a los daños actuales, también lo sería ignorarlos».

En el hilo también se atribuye a David Krueger, profesor adjunto de Informática en la Universidad de Cambridge, la idea de tener una declaración de una sola frase sobre el riesgo de la IA y de ayudar «conjuntamente» a su desarrollo.

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La moderación de comentarios está activada. Su comentario podría tardar cierto tiempo en aparecer.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias