Spanish English French German Italian Portuguese
Marketing social
AccueilIAUn organisme antitrust britannique va revoir l'IA générative

Un organisme antitrust britannique va revoir l'IA générative

L'organisme britannique de surveillance de la concurrence a annoncé un révision initiale de « modèles d'IA fondamentaux », tels que les modèles de langage étendu (LLM) qui sous-tendent ChatGPT d'OpenAI et New Bing de Microsoft. Les modèles d'IA générative qui alimentent les plates-formes d'art de l'IA, telles que DALL-E ou Midjourney d'OpenAI, seront probablement également inclus dans le champ d'application.

L'Autorité de la concurrence et des marchés (CMA) a déclaré que son examen portera sur les considérations de concurrence et de protection des consommateurs dans le développement et l'utilisation de modèles fondamentaux d'IA, dans le but de comprendre "comment les modèles fondamentaux et de produire une évaluation des conditions et des principes qui mieux guider le développement des modèles de base et leur utilisation dans le futur ».

Il propose de publier l'examen "début septembre", avec une date limite du 2 juin pour que les parties prenantes soumettent des réponses pour éclairer leur travail.

"Les modèles de base, y compris les grands modèles de langage et l'intelligence artificielle générative (IA), qui ont émergé au cours des cinq dernières années, ont le potentiel de transformer une grande partie de ce que font les gens et les entreprises. Pour garantir que l'innovation en matière d'IA se poursuive d'une manière qui profite aux consommateurs, aux entreprises et à l'économie britannique, le gouvernement a demandé aux régulateurs, y compris le [CMA], d'examiner comment le développement innovant peut être soutenu et le déploiement de l'IA selon cinq principes généraux : la sécurité , sécurité et robustesse ; une transparence et une explicabilité appropriées ; justice; responsabilisation et gouvernance; et la contestabilité et la réparation", a écrit la CMA dans un communiqué de presse."

Le Centre de recherche sur les modèles de base du Centre d'intelligence artificielle centrée sur l'homme de l'Université de Stanford est crédité d'avoir inventé le terme «modèles de base», en 2021, pour désigner les systèmes d'IA qui se concentrent sur la formation d'un modèle sur une grande quantité de données et l'adaptent à de nombreuses applications.

"Le développement de l'IA touche à un certain nombre de questions importantes, telles que la sécurité, le droit d'auteur, la confidentialité et les droits de l'homme, ainsi que le fonctionnement des marchés. Bon nombre de ces questions sont examinées par le gouvernement ou d'autres organismes de réglementation, de sorte que cet examen initial se concentrera sur les questions que l'AMC est la mieux placée pour aborder : quelles sont les implications probables du développement de modèles d'IA de base pour la concurrence ? et la protection des consommateurs ? ajoute le CMA.

Dans un communiqué, sa PDG, Sarah Cardell, a également déclaré :

L'IA a fait irruption dans la conscience publique ces derniers mois, mais elle est sur notre radar depuis un certain temps. Il s'agit d'une technologie en développement rapide qui a le potentiel de transformer la façon dont les entreprises se font concurrence, ainsi que de stimuler une croissance économique substantielle.

Il est crucial que les avantages potentiels de cette technologie transformatrice soient facilement accessibles aux entreprises et aux consommateurs britanniques, tandis que les individus restent protégés contre des problèmes tels que les informations fausses ou trompeuses. Notre objectif est d'aider cette nouvelle technologie en pleine expansion à se développer de manière à garantir des marchés ouverts et concurrentiels et une protection efficace des consommateurs.

Plus précisément, le régulateur britannique de la concurrence a déclaré que son examen initial des modèles fondamentaux d'IA :

  • examiner comment les marchés concurrentiels pour les modèles de fondation et leur utilisation pourraient évoluer
  • explorer les opportunités et les risques que ces scénarios pourraient apporter pour la concurrence et la protection des consommateurs
  • produire des principes directeurs pour soutenir la concurrence et protéger les consommateurs à mesure que des modèles d'IA de base sont développés

Alors que l'on peut voir que le régulateur antitrust procédera à un examen d'une technologie émergente en évolution rapide, la CMA agit sur les instructions du gouvernement.

Un livre blanc sur l'IA publié en mars a noté la préférence des ministres d'éviter d'établir des règles personnalisées (ou des organes de surveillance) pour régir les utilisations de l'IA à ce stade. Cependant, les ministres ont déclaré que les régulateurs britanniques existants, y compris la CMA, dont le nom a été directement nommé, devraient publier des orientations pour encourager des utilisations sûres, équitables et responsables de l'IA.

La CMA affirme que son examen initial des modèles fondamentaux d'IA est conforme aux instructions du livre blanc, où le gouvernement a parlé des régulateurs existants effectuant une "analyse détaillée des risques" pour être en mesure de procéder à des exécutions potentielles. , c'est-à-dire à propos de dangereux , applications déloyales et irresponsables de l'IA, en utilisant ses pouvoirs existants.

Le régulateur souligne également sa mission principale, soutenir des marchés ouverts et concurrentiels, comme une autre raison de jeter un coup d'œil à l'IA générative maintenant.

En particulier, l'organisme de surveillance de la concurrence est sur le point d'obtenir des pouvoirs supplémentaires pour réglementer les Big Tech dans les années à venir, dans le cadre des plans que le gouvernement du Premier ministre Rishi Sunak a mis de côté le mois dernier lorsque les ministres ont déclaré qu'ils allaient aller de l'avant avec une réforme (mais attendue depuis longtemps) visant le marché. pouvoir des géants du numérique.

On s'attend à ce que l'unité des marchés numériques de la CMA, opérant depuis 2021 dans l'ombre, obtienne (enfin) des pouvoirs législatifs dans les années à venir pour appliquer des règles proactives "pro-concurrence" adaptées aux plateformes considérées comme ayant des "marchés stratégiques". statut » (SMS). Nous pouvons donc supposer qu'à l'avenir, les fournisseurs de puissants modèles d'IA fondamentaux pourraient être jugés avoir des SMS, ce qui signifie qu'ils pourraient s'attendre à être confrontés à des règles personnalisées sur la manière dont ils devraient opérer contre leurs rivaux et les consommateurs sur le marché britannique United.

Le chien de garde britannique de la protection des données, l'ICO, a également un œil sur l'IA générative. Il s'agit d'un autre organisme de surveillance existant qui a été chargé par le gouvernement d'accorder une attention particulière à l'IA dans le cadre de son plan d'orientation spécifique au contexte pour orienter le développement de la technologie grâce à l'application des lois existantes.

Dans un article de blog Le mois dernier, Stephen Almond, directeur exécutif des risques réglementaires d'ICO, a offert des conseils et un petit avertissement aux développeurs d'IA générative lorsqu'il s'agit de se conformer aux réglementations britanniques en matière de protection des données. "Les organisations qui développent ou utilisent l'IA générative doivent tenir compte de leurs obligations en matière de protection des données dès le départ, en prenant la protection des données pour mise en page et mise au point par défaut", a-t-il suggéré. "Ce n'est pas facultatif : si vous traitez des données personnelles, c'est la loi."

Pendant ce temps, de l'autre côté de la Manche dans l'Union européenne, les législateurs sont en train de décider d'un ensemble fixe de règles susceptibles de s'appliquer à l'IA générative.

Les négociations en vue d'un texte final pour le règlement de l'UE sur l'IA entrante sont en cours, mais l'accent est actuellement mis sur la manière de réglementer les modèles fondamentaux par le biais d'amendements au cadre basé sur les risques pour la réglementation des utilisations de l'IA que le bloc a publié sous forme de projet il y a plus de deux ans. .

Il reste à voir où les colégislateurs de l'UE aboutiront à ce que l'on appelle aussi parfois l'IA à usage général. Mais les députés font pression pour une approche en couches pour s'attaquer aux problèmes de sécurité avec des modèles fondamentaux ; la complexité des responsabilités dans les chaînes d'approvisionnement en IA ; et pour résoudre des problèmes de contenu spécifiques (tels que le droit d'auteur) associés à l'IA générative.

Ajoutez à cela la loi européenne sur la protection des données qui s'applique déjà à l'IA, bien sûr. Et des enquêtes axées sur la confidentialité de modèles comme ChatGPT sont en cours dans tout le bloc, y compris en Italie, où une intervention du chien de garde local a conduit OpenAI à précipiter une série de divulgations et de contrôles de confidentialité le mois dernier.

Le comité européen de la protection des données a également récemment créé un groupe de travail pour soutenir la coordination entre les différentes autorités de protection des données sur les enquêtes sur les chatbots IA. D'autres chercheurs de ChatGPT incluent le chien de garde de la confidentialité en Espagne.

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci