Spanish English French German Italian Portuguese
Marketing Social
InicioIAEl organismo antimonopolio del Reino Unido revisará la IA generativa

El organismo antimonopolio del Reino Unido revisará la IA generativa

El organismo de control de la competencia del Reino Unido ha anunciado una repaso inicial de “modelos fundamentales de IA”, como los modelos de lenguaje extendido (LLM) que sustentan ChatGPT de OpenAI y New Bing de Microsoft. Los modelos generativos de IA que potencian las plataformas de arte de IA, como DALL-E o Midjourney de OpenAI, probablemente también se incluirán en el alcance.

La Autoridad de Competencia y Mercados (CMA, por sus siglas en inglés) dijo que su revisión analizará las consideraciones de competencia y protección del consumidor en el desarrollo y uso de modelos fundamentales de IA, con el objetivo de comprender “cómo se están desarrollando los modelos fundamentales y produciendo una evaluación de las condiciones y principios que guiará mejor el desarrollo de modelos básicos y su uso en el futuro”.

Propone publicar la revisión a «principios de septiembre», con una fecha límite del 2 de junio para que las partes interesadas envíen respuestas para informar su trabajo.

“Los modelos básicos, que incluyen grandes modelos de lenguaje e inteligencia artificial generativa (IA), que han surgido en los últimos cinco años, tienen el potencial de transformar gran parte de lo que hacen las personas y las empresas. Para garantizar que la innovación en IA continúe de una manera que beneficie a los consumidores, las empresas y la economía del Reino Unido, el gobierno ha pedido a los reguladores, incluido el [CMA], que estudien cómo se puede respaldar el desarrollo innovador y el despliegue de IA en cinco principios generales: seguridad, protección y solidez; transparencia y explicabilidad apropiadas; justicia; rendición de cuentas y gobernanza; y impugnabilidad y reparación”, escribió la CMA en un comunicado de prensa”.

Se le atribuye al Centro de Investigación de Modelos Básicos del Centro de Inteligencia Artificial Centrado en el Ser Humano de la Universidad de Stanford haber acuñado el término «modelos básicos», en 2021, para referirse a los sistemas de IA que se enfocan en entrenar un modelo en una gran cantidad de datos y adaptarlo a muchas aplicaciones.

“El desarrollo de la IA toca una serie de cuestiones importantes, como la seguridad, los derechos de autor, la privacidad y los derechos humanos, así como la forma en que funcionan los mercados. Muchos de estos problemas están siendo considerados por el gobierno u otros reguladores, por lo que esta revisión inicial se centrará en las preguntas que la CMA está mejor posicionada para abordar: ¿cuáles son las implicaciones probables del desarrollo de modelos básicos de IA para la competencia y la protección del consumidor?» agregó la CMA.

En un comunicado, su CEO, Sarah Cardell, también dijo:

La IA irrumpió en la conciencia pública en los últimos meses, pero ha estado en nuestro radar durante algún tiempo. Es una tecnología que se desarrolla a gran velocidad y tiene el potencial de transformar la forma en que compiten las empresas, así como de impulsar un crecimiento económico sustancial.

Es crucial que los beneficios potenciales de esta tecnología transformadora sean fácilmente accesibles para las empresas y los consumidores del Reino Unido, mientras que las personas permanecen protegidas de problemas como información falsa o engañosa. Nuestro objetivo es ayudar a que esta nueva tecnología de rápida expansión se desarrolle de manera que garantice mercados abiertos y competitivos y una protección eficaz del consumidor.

Específicamente, el regulador de competencia del Reino Unido dijo que su revisión inicial de los modelos fundamentales de IA:

  • examinar cómo podrían evolucionar los mercados competitivos para los modelos de cimientos y su uso
  • explorar qué oportunidades y riesgos podrían traer estos escenarios para la competencia y la protección del consumidor
  • producir principios rectores para apoyar la competencia y proteger a los consumidores a medida que se desarrollan los modelos básicos de IA

Si bien puede verse que el regulador antimonopolio llevará a cabo una revisión de una tecnología emergente en rápido movimiento, la CMA está actuando según instrucciones del gobierno.

Un libro blanco de AI publicado en marzo señaló la preferencia de los ministros de evitar establecer reglas personalizadas (u organismos de supervisión) para regir los usos de la inteligencia artificial en esta etapa. Sin embargo Los ministros dijeron que se espera que los reguladores existentes del Reino Unido, incluida la CMA, cuyo nombre se nombró directamente, emitan una guía para fomentar los usos seguros, justos y responsables de la IA.

La CMA dice que su revisión inicial de los modelos fundamentales de IA está en línea con las instrucciones del libro blanco, donde el gobierno habló sobre los reguladores existentes que realizan un «análisis de riesgo detallado» para estar en condiciones de llevar a cabo posibles ejecuciones, es decir, sobre peligros, aplicaciones injustas e irresponsables de la IA, utilizando sus poderes existentes.

El regulador también señala su misión principal, apoyar mercados abiertos y competitivos, como otra razón para echar un vistazo a la IA generativa ahora.

En particular, el organismo de control de la competencia está listo para obtener poderes adicionales para regular Big Tech en los próximos años, según los planes que el gobierno del primer ministro Rishi Sunak dejó de lado el mes pasado, cuando los ministros dijeron que avanzaría con un reforma ( pero con mucho retraso) dirigida al poder de mercado de los gigantes digitales.

La expectativa es que la Unidad de Mercados Digitales de la CMA, en funcionamiento desde 2021 en la sombra, (finalmente) obtenga poderes legislativos en los próximos años para aplicar reglas proactivas «pro-competencia» que se adaptan a las plataformas que se considera que tienen “estado de mercado estratégico” (SMS). Por lo tanto, podemos especular que, en el futuro, se puede juzgar que los proveedores de poderosos modelos de IA fundamentales tienen SMS, lo que significa que podrían esperar enfrentar reglas personalizadas sobre cómo deben operar frente a rivales y consumidores en el mercado del Reino Unido.

El organismo de control de protección de datos del Reino Unido, el ICO, también tiene el ojo puesto en la IA generativa. Es otro organismo de supervisión existente al que el gobierno le ha encomendado la tarea de prestar especial atención a la IA en el marco de su plan de orientación específica del contexto para dirigir el desarrollo de la tecnología a través de la aplicación de las leyes existentes.

En un entrada del blog el mes pasado, Stephen Almond, director ejecutivo de riesgo regulatorio de ICO, ofreció algunos consejos y una pequeña advertencia para los desarrolladores de IA generativa en lo que respecta al cumplimiento de las normas de protección de datos del Reino Unido. “Las organizaciones que desarrollan o usan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, tomando una protección de datos por diseño y enfoque por defecto,» sugirió. «Esto no es opcional: si está procesando datos personales, es la ley».

Mientras tanto, al otro lado del Canal de la Mancha en la Unión Europea, los legisladores están en el proceso de decidir un conjunto fijo de reglas que probablemente se apliquen a la IA generativa.

Las negociaciones hacia un texto final para el libro de reglas de IA entrante de la UE están en curso, pero actualmente hay un enfoque en cómo regular los modelos fundamentales a través de enmiendas al marco basado en el riesgo para regular los usos de la IA que el bloque publicó en borrador hace más de dos años.

Queda por ver dónde terminarán los colegisladores de la UE en lo que a veces también se denomina IA de propósito general. Pero los parlamentarios están presionando por un enfoque en capas para abordar los problemas de seguridad con modelos fundamentales; la complejidad de las responsabilidades en las cadenas de suministro de IA; y para abordar problemas de contenido específicos (como los derechos de autor) que están asociados con la IA generativa.

Hay que agregar a esto, la ley de protección de datos de la UE que ya se aplica a la IA, por supuesto. Y las investigaciones centradas en la privacidad de modelos como ChatGPT están en marcha en el bloque, incluso en Italia, donde una intervención del organismo de control local llevó a OpenAI a apresurar una serie de divulgaciones y controles de privacidad el mes pasado.

La Junta Europea de Protección de Datos también creó recientemente un grupo de trabajo para apoyar la coordinación entre las diferentes autoridades de protección de datos en las investigaciones del chatbot de IA. Otros investigadores de ChatGPT incluyen al organismo de control de la privacidad de España.

RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La moderación de comentarios está activada. Su comentario podría tardar cierto tiempo en aparecer.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias