Spanish English French German Italian Portuguese
Marketing social
AccueilLa technologieIntelligence artificielle« Nous, le peuple » pouvons-nous contrôler l'IA ?

« Nous, le peuple » pouvons-nous contrôler l'IA ?

Technologue et chercheur Aviv Ovadia il n'est pas sûr que l'IA générative puisse être gouvernée, mais il estime que le moyen le plus plausible de la contrôler pourrait être de confier à ceux qui seront touchés par l'IA la décision collective sur les moyens de la freiner.

Cela signifie que vous; signifie moi. C'est le pouvoir de grands réseaux de personnes de résoudre les problèmes plus rapidement et plus équitablement qu'un petit groupe de personnes ne le pourrait seul (même, par exemple, à Washington). Il est essentiellement basé sur la sagesse des foules et se produit dans de nombreux domaines, notamment la recherche scientifique, les affaires, la politique et les mouvements sociaux.

À Taïwan, par exemple, des hackers à l'esprit civique ont créé en 2015 une plate-forme, "Virtual Taiwan", qui "rassemble des représentants des secteurs public, privé et social pour discuter de solutions politiques aux problèmes principalement liés à l'économie numérique", comme comme il a expliqué en 2019 par la ministre taïwanaise du numérique Audrey Tang dans le New York Times. Depuis lors, vTaiwan, comme on l'appelle, a abordé des dizaines de problèmes "sur la base d'une combinaison de débats en ligne et de discussions en face à face avec les parties prenantes", écrivait Tang à l'époque.

Une initiative similaire est Examen de l'initiative citoyenne de l'Oregon, qui a été promulguée en 2011 et informe la population électorale de l'État des mesures de vote par le biais d'un « processus délibératif » citoyen. Environ 20 à 25 citoyens représentatifs de l'ensemble de l'électorat de l'Oregon se réunissent pour débattre des mérites d'une initiative ; ils rédigent ensuite collectivement une déclaration sur cette initiative qui est envoyée aux autres électeurs de l'État afin qu'ils puissent prendre des décisions plus éclairées le jour du scrutin.

Les processus dits délibératifs ont également permis de résoudre avec succès des problèmes en Australie (politique de l'eau), au Canada (réforme électorale), au Chili (retraites et soins de santé) et en Argentine (logement, propriété foncière), entre autres.

"Il y a des obstacles pour que cela fonctionne" en matière d'IA, reconnaît Ovadya, une filiale du Berkman Klein Center de Harvard dont les travaux sont de plus en plus axés sur les impacts de l'IA sur la société et la démocratie. "Mais empiriquement, cela a été fait sur tous les continents du monde, à toutes les échelles" et "plus vite nous pouvons mettre en œuvre certaines de ces choses, mieux c'est", dit-il.

Laisser les gens décider quelles sont les directives acceptables concernant l'IA en particulier peut sembler étrange pour certains, mais même les technologues pensent que cela fait partie de la solution. Mira Murati, CTO de l'éminente startup d'intelligence artificielle OpenAI, publier l'heure  Dans une nouvelle interview, "[We are] un petit groupe de personnes et nous avons besoin de beaucoup plus d'informations sur ce système et bien plus qui vont au-delà des technologies, en particulier les régulateurs, les gouvernements et d'autres entités similaires."

Lorsqu'on lui a demandé si Murati craignait que l'implication du gouvernement puisse étouffer l'innovation ou s'il pense qu'il est trop tôt pour que les législateurs et les régulateurs s'impliquent, il a répondu : « Ce n'est pas trop tôt. Il est très important que tout le monde commence à s'impliquer compte tenu de l'impact que ces technologies vont avoir.

Dans le vide réglementaire actuel, OpenAI a adopté une approche autonome pour l'instant, créer des lignes directrices pour l'utilisation sûre de sa technologie et la publication de nouvelles itérations au compte-gouttes, parfois à la frustration du grand public.

Entre-temps, l'Union européenne a élaboré un cadre réglementaire, le Lae de l'IA, qui fait son chemin au Parlement européen et vise à devenir une norme mondiale. La loi attribuerait les applications d'IA à trois catégories de risques : les applications et les systèmes qui créent un « risque inacceptable » ; les « candidatures à haut risque », telles qu'un « outil de numérisation de CV qui classe les candidats à un emploi » qui seraient soumises à des exigences légales spécifiques ; et les applications non explicitement interdites ou classées comme à haut risque qui resteraient largement non réglementées.

Le département américain du commerce a également rédigé un cadre volontaire pour guider les entreprises, mais il n'y a pas de réglementation, rien, en cas de besoin urgent. En plus d'OpenAI, des géants de la technologie comme Microsoft et Google, bien qu'ils aient été brûlés par Versions précédentes de sa propre IA qui ils ont ratéSont concourir publiquement encore une fois pour lancer des produits et des applications compatibles avec l'IA, afin qu'ils ne soient pas laissés pour compte.

Une sorte de World Wide Web Consortium, une organisation internationale créée en 1994 pour établir des normes pour le World Wide Web, aurait apparemment du sens. En fait, dans cette interview de Time, Murati observe que "différentes voix, telles que des philosophes, des spécialistes des sciences sociales, des artistes et des personnes en sciences humaines" doivent s'unir pour répondre aux nombreuses "questions éthiques et philosophiques que nous devons considérer".

Peut-être que l'industrie commencera comme ça, et la soi-disant intelligence collective remplira de nombreux espaces entre les visions généralistes.

Certains nouveaux outils peuvent aider à atteindre cet objectif. Le PDG d'Open AI, Sam Altman, est également co-fondateur, par exemple, d'une société de numérisation de la rétine à Berlin appelée WorldCoin qui veut faciliter l'authentification de l'identité de quelqu'un. Des questions ont été soulevées sur les implications de l'approche biométrique de WorldCoin en matière de confidentialité et de sécurité, mais ses applications potentielles incluent la distribution d'un revenu de base universel mondial, ainsi que l'autonomisation de nouvelles formes de démocratie numérique.

Quoi qu'il en soit, Ovadya estime que le recours à des processus délibératifs impliquant un grand nombre de personnes du monde entier est le moyen de créer des frontières autour de l'IA tout en donnant plus de crédibilité aux acteurs de l'industrie.

"OpenAI reçoit actuellement des critiques de la part de tout le monde", y compris pour son biais libéral perçudit Ovadia. "Il serait utile [pour l'entreprise] d'avoir une réponse vraiment concrète" sur la façon dont elle définit ses politiques futures.

Ovadya vise également Stability.AI, la société d'IA open source dont le PDG Emad Mostaque a suggéré à plusieurs reprises que Stability est plus démocratique qu'OpenAI car il est disponible partout, tandis qu'OpenAI n'est disponible que sur pays maintenant où vous pouvez fournir un "accès sécurisé"

Ovadya déclare : « Emad de Stability dit qu'il « démocratise l'IA ». Bien, Ne serait-il pas agréable d'utiliser des processus démocratiques pour découvrir ce que les gens veulent vraiment ?

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci

Bienvenue sur TRPlane.com

Installer
×