Spanish English French German Italian Portuguese
Marketing social
AccueilLa technologieIntelligence artificielleGoogle travaillera avec l'Europe sur un "Pacte pour l'intelligence artificielle" provisoire

Google travaillera avec l'Europe sur un "Pacte sur l'Intelligence Artificielle" provisoire

Sundar Pichai, de Google, a accepté de travailler avec les législateurs européens sur ce qui a été appelé un « Pacte pour l'intelligence artificielle », apparemment un ensemble provisoire de normes ou standards volontaires pendant que l’on travaille sur une réglementation formelle de l’application de l’intelligence artificielle.

Pichai a rencontré Thierry Breton, commissaire de l'Union européenne chargé du marché intérieur, qui a publié une déclaration après la conférence d'aujourd'hui disant : « Il n'y a pas de temps à perdre dans le domaine de l'intelligence artificielle. "Il n'y a pas de temps à perdre dans la course à l'IA pour créer un environnement en ligne sécurisé."

Une note d'information publiée par son bureau après la réunion indique également que l'UE souhaite être « proactive » et travailler sur un pacte sur l'IA avant que la législation européenne qui s'appliquera à l'IA ne soit approuvée.

La note ajoute que le bloc souhaite lancer un pacte sur l'IA "auquel participent volontairement tous les principaux agents européens et non européens de l'IA" et avant l'expiration du délai légal de la loi paneuropéenne sur l'IA susmentionnée.

Cependant, à l’heure actuelle, le seul géant technologique à avoir publiquement rejoint l’initiative est Google.

Nous avons contacté Google et la Commission européenne pour les interroger sur cette initiative.

Dans d'autres déclarations publiques, Breton a déclaré:

Nous attendons que la technologie en Europe respecte toutes nos règles en matière de protection des données, de sécurité en ligne et d’intelligence artificielle. En Europe, ce n'est pas une question de choix.
Je suis heureux que Sundar Pichai le reconnaisse et s'engage à respecter toutes les règles de l'UE.
Le RGPD [Règlement Général sur la Protection des Données] est en vigueur. Le DSA [Digital Services Act] et le DMA [Digital Markets Act] sont en cours de mise en œuvre. Les négociations sur la loi sur l’intelligence artificielle touchent à leur phase finale et j’appelle le Parlement européen et le Conseil à adopter le cadre avant la fin de l’année.
Sundar et moi avons convenu que nous ne pouvons pas nous permettre d'attendre que la réglementation sur l'IA soit réellement applicable et de travailler avec tous les développeurs d'IA pour produire volontairement un AI Compact maintenant avant la date limite légale.
Je salue également l'engagement de Sundar à intensifier la lutte contre la désinformation à l'approche des élections européennes.

Bien qu'il n'y ait aucun détail sur ce que pourrait contenir le « pacte sur l'IA », comme pour tout accord d'autorégulation, il n'aurait pas de force juridique, il n'y aurait donc aucun moyen de forcer les développeurs à signer, et aucune conséquence pour ceux qui ne s'y conforment pas. .engagements (volontaires).

Cela pourrait néanmoins constituer un pas vers le type de coopération internationale en matière d’élaboration de normes que plusieurs technologues ont réclamé ces dernières semaines et mois.

L’UE a un précédent lorsqu’il s’agit d’amener les géants de la technologie à s’engager dans l’autorégulation: A établi, sur plusieurs années, une paire d'accords volontaires (également connus sous le nom de Codes) qui ont été signés par plusieurs géants de la technologie (dont Google), s'engageant à améliorer leurs réponses aux signalements de discours de haine en ligne et de diffusion de désinformations préjudiciables. Et même si les deux codes mentionnés n’ont pas résolu les problèmes encore complexes de modération des discours en ligne, ils ont fourni à l’UE un étalon pour mesurer si les plateformes sont ou non à la hauteur de leurs propres revendications – et, parfois, sont utilisés pour infliger une légère amende au public. battre quand ils ne le sont pas.

Plus généralement, l’UE est en avance sur le reste du monde dans l’élaboration de normes numériques et a déjà rédigé des réglementations sur l’intelligence artificielle : elle a proposé il y a deux ans un cadre basé sur les risques pour les applications de l’intelligence artificielle. Cependant, même les meilleurs efforts du bloc sont à la traîne par rapport aux avancées dans ce domaine, qui ont été particulièrement virulentes cette année, après que le chatbot génératif d'IA d'OpenAI, ChatGPT, ait été largement mis à la disposition des utilisateurs du Web et ait attiré l'attention virale.

Actuellement, le projet de loi européenne sur l’intelligence artificielle, proposé en avril 2021, reste un texte législatif vivant entre le Parlement européen et le Conseil, le premier étant récemment convenu d’une série d’amendements qu’il souhaite inclure, dont plusieurs visant l’IA générative.

Les colégislateurs de l'UE devront parvenir à un compromis sur le texte final. Il reste donc à voir quelle sera la forme finale de la réglementation du bloc sur l'IA.

De plus, même si la loi est approuvée avant la fin de l’année, ce qui est le délai le plus optimiste, il faudra au moins un an pour qu’elle s’applique aux développeurs d’IA. Les commissaires européens réclament donc des mesures provisoires.

Plus tôt cette semaine, la vice-présidente Margrethe Vestager, qui dirige la stratégie numérique du bloc, a suggéré que l'UE et les États-Unis étaient disposés à coopérer pour fixer des normes minimales avant que la législation n'entre en vigueur (via Reuters).

S'exprimant après la rencontre avec Google, Vestager a tweeté : «Nous avons besoin de la loi sur l'IA le plus rapidement possible, mais la technologie de l'IA évolue à une vitesse extrême. « Nous avons donc besoin dès maintenant d’un accord volontaire sur des normes universelles pour l’IA. »

Un porte-parole de la Commission a expliqué le commentaire de Vestager : « Lors de la réunion ministérielle du G7 sur le numérique à Takasaki, au Japon, les 29 et 30 avril, le vice-président Vestager a proposé des limites de sécurité convenues au niveau international pour l'IA que les entreprises peuvent volontairement respecter jusqu'à ce que la loi sur l'IA entre en vigueur en l'UE. Cette proposition a été reprise par les dirigeants du G7, qui ont convenu dans leur communiqué de samedi dernier de lancer le « Processus d'Hiroshima sur l'IA », dans le but de concevoir lesdits garde-fous, notamment pour l'IA générative.

Malgré ces expressions soudaines de précipitations de haut niveau, il convient de noter que la réglementation européenne actuelle sur la protection des données, le RGPD, peut et a été appliquée à certaines applications d'IA, notamment ChatGPT, Replika et Clearview AI, pour n'en nommer que trois. Par exemple, une intervention réglementaire dans ChatGPT en Italie fin mars a conduit à la suspension du service, suivie par le développement par OpenAI de nouvelles déclarations et contrôles pour les utilisateurs dans le but de se conformer aux réglementations en matière de confidentialité.

De plus, comme le souligne Breton, les nouveaux DSA et DMA pourraient créer de nouvelles exigences strictes auxquelles les développeurs d'applications d'IA devront se conformer, en fonction de la nature de leur service, dans les mois et les années à venir, à mesure que ces règles commenceront à s'appliquer. aux services numériques, aux plateformes et aux géants de la technologie qui influencent le plus le marché (dans le cas du DMA).

L’UE reste néanmoins convaincue de la nécessité de règles spécifiques fondées sur les risques pour l’IA. Et, apparemment, il est prêt à doubler « l’effet Bruxelles » que sa législation numérique pourrait attirer en annonçant maintenant un pacte provisoire sur l’IA.

Ces dernières semaines et mois, les législateurs américains ont également tourné leur attention vers la question sensible de la meilleure manière de réglementer l’intelligence artificielle. Récemment, une commission sénatoriale a tenu une audition au cours de laquelle Sam Altman, PDG d'OpenAI, a donné son avis sur la manière de réglementer cette technologie.

Google voudra peut-être jouer le rôle inverse et se précipiter pour collaborer avec l’UE sur des normes volontaires. Que la course aux armements pour la réglementation de l’IA commence !

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci