Spanish English French German Italian Portuguese
Marketing social
AccueilIAAltman d'OpenAI et d'autres géants de l'IA soutiennent l'avertissement...

Altman d'OpenAI et d'autres géants de l'IA soutiennent l'avertissement sur le risque « d'extinction » de l'IA avancée

Faites place à une autre intervention politique en matière d’IA qui fait la une des journaux : Des centaines de scientifiques en IA, d'universitaires, de PDG d'entreprises technologiques et de personnalités publiques -de Sam Altman, PDG d'OpenAI, et Demis Hassabis, PDG de DeepMind, à Geoffrey Hinton, informaticien chevronné en IA, Max Tegmark du MIT et Jaan Tallinn, co-fondateur de Skype, au musicien Grimes et au podcasteur populiste Sam Harris, pour n'en nommer que quelques-uns- se sont joints à une déclaration appelant à une attention mondiale sur le risque existentiel de l’IA.

La déclaration, hébergée sur le site Web d'une organisation à but non lucratif à financement privé basée à San Francisco appelée Center for AI Safety (CAIS), cherche à assimiler le risque de l'IA aux dommages existentiels posés par l'apocalypse nucléaire et appelle les décideurs politiques à se concentrer. leur attention sur l’atténuation de ce qu’ils disent être un risque « catastrophique » d’extinction de l’IA.

Voici sa déclaration récapitulative :

Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale, aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire.

Selon une brève explication publiée sur le site Web du CAIS, la déclaration est restée « succincte » parce que ses auteurs craignent que leur message sur « certains des risques les plus graves de l'IA avancée » ne soit noyé dans un débat sur d'autres. et risques urgents de l’IA », ce qui implique cependant qu’ils font obstacle au débat sur le risque d’extinction de l’IA.

Cependant, ces derniers mois, nous avons entendu les mêmes préoccupations haut et fort, à mesure que le battage médiatique autour de l'IA s'est accru grâce à un meilleur accès aux outils d'IA générative tels que ChatGPT et DALL-E d'OpenAI, ce qui a donné lieu à une surabondance de gros titres sur le risque. d’IA tueuses « superintelligentes ». (Comme celui-ci, du début du mois, dans lequel Hinton, signataire de la déclaration, mettait en garde contre la « menace existentielle » d'une prise de contrôle de l'IA. Ou celui-ci, de la semaine dernière, dans lequel Altman appelait à une réglementation pour empêcher IA de détruire l'humanité).

Il y a aussi la lettre ouverte signée par Elon Musk (et des dizaines d'autres) en mars, qui appelait à une pause de six mois dans le développement de modèles d'IA plus puissants que le GPT-4 d'OpenAI pour laisser le temps à la conception de protocoles de sécurité partagée. normes et s’appliquent à l’IA avancée, mettant en garde contre les risques posés par « des esprits numériques de plus en plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».

Ainsi, ces derniers mois, il y a eu une vague d’avertissements très médiatisés sur les risques de l’IA qui n’existent pas encore.

Ce bombardement de gros titres hystériques a sans doute détourné l’attention d’un examen plus approfondi des dégâts existants. Par exemple, l’utilisation gratuite de données protégées par le droit d’auteur pour entraîner des systèmes d’intelligence artificielle sans autorisation ni consentement (ou paiement) ; ou l'extraction systématique de données personnelles en ligne en violation de la vie privée des personnes ; ou encore le manque de transparence de la part des géants de l’intelligence artificielle concernant les données utilisées pour entraîner ces outils. Ou encore des défauts comme la désinformation (« hallucination ») et des risques comme les préjugés (discrimination automatisée). Sans parler du spam induit par l’IA. Et le bilan environnemental de l’énergie dépensée pour entraîner ces monstres IA.

Il est frappant de constater qu'à la suite d'une réunion la semaine dernière entre le Premier ministre britannique et un certain nombre de hauts dirigeants de l'IA, dont Altman et Hassabis, le gouvernement semble changer de cap en matière de réglementation de l'IA, avec un intérêt soudain pour le risque existentiel, selon The Gardien.

Parler du risque existentiel de l’IA détourne également l’attention des questions liées à la structure et à la domination du marché., comme l'a souligné Jenna Burrell, directrice de recherche chez Data & Society, dans ce récent article de la Columbia Journalism Review dans lequel elle analysait la couverture médiatique de ChatGPT, et dans lequel elle affirmait que nous devons arrêter de nous concentrer sur les fausses pistes, telles que l'éventuelle « La « sensibilité » de l’IA, pour se concentrer sur la façon dont l’IA concentre davantage la richesse et le pouvoir.

Alors, bien sûr, il existe des motivations commerciales claires pour lesquelles les géants de l’IA veulent diriger l’attention des régulateurs vers un avenir théorique lointain, parlant d’un jour apocalyptique alimenté par l’IA, comme une tactique pour détourner l’attention des décideurs politiques d’une concurrence plus fondamentale et considérations antitrust ici et maintenant. (Et l’exploitation des données comme outil pour concentrer le pouvoir de marché n’a rien de nouveau.)

Le fait que les dirigeants de géants de l’IA comme OpenAI, DeepMind, Stability AI et Anthropic soient si heureux de se réunir et de discuter ensemble lorsqu’il s’agit d’amplifier publiquement les conversations sur le risque existentiel de l’IA en dit long sur les structures de pouvoir existantes de l’IA. Et combien plus réticents à se réunir pour discuter des dégâts que leurs outils pourraient causer en ce moment.

OpenAI était un non-signataire notable de la lettre ouverte susmentionnée (signée par Musk), mais plusieurs de ses employés soutiennent la déclaration du CAIS (alors que Musk ne le fait apparemment pas). Ainsi, la dernière déclaration semble offrir une réponse commerciale (non officielle) d'OpenAI (et d'autres) à la tentative précédente de Musk de détourner le récit du risque existentiel de l'IA pour ses propres intérêts (qui ne favorisent plus OpenAI en tête de l'IA).

Plutôt que d'appeler à une pause dans le développement, qui pourrait geler le leadership d'OpenAI dans le domaine de l'IA générative, la déclaration fait pression sur les décideurs politiques pour qu'ils se concentrent sur l'atténuation des risques, et ce, alors qu'OpenAI finance simultanément des efforts visant à façonner « des processus démocratiques pour diriger l'IA ». », comme le dit Altman. L’entreprise se positionne donc activement (et utilise la richesse de ses investisseurs) pour influencer la forme des futures barrières d’atténuation, parallèlement aux efforts actuels de lobbying en personne auprès des régulateurs internationaux. Récemment, Altman a également menacé publiquement de retirer l'outil OpenAI d'Europe si le projet de règlement européen sur l'IA n'était pas assoupli pour exclure sa technologie.

D’un autre côté, certains des signataires de la lettre ci-dessus ont simplement profité d’une nouvelle opportunité publicitaire en apposant leur nom sur les deux (bonjour Tristan Harris !).

Mais qui est CAIS? Il existe peu d’informations publiques sur l’organisation qui héberge ce message. Il admet toutefois qu’il exerce une pression sur les décideurs politiques. Son site Web indique que sa mission est de « réduire les risques sociétaux de l’IA » et déclare qu’elle se consacre à promouvoir la recherche et le développement de terrains à cette fin, y compris en finançant la recherche, ainsi qu’en jouant un rôle déclaré de plaidoyer politique.

La FAQ du site Web offre des informations limitées sur ceux qui le soutiennent financièrement (il serait financé par des dons privés). À la question « Le PCSRA est-il un organisme indépendant ? », il est brièvement indiqué qu'il « sert l'intérêt public » :

CAIS est une organisation à but non lucratif financée entièrement par des contributions privées. Nos politiques et nos orientations de recherche ne sont pas déterminées par des donateurs individuels, ce qui garantit que notre objectif reste de servir l'intérêt public.

Nous avons contacté le PCSRA pour poser des questions.

Dans un fil Twitter accompagnant la publication de la déclaration, le directeur du CAIS, Dan Hendrycks, développe l'explication de la déclaration susmentionnée, citant « les préjugés systémiques, la désinformation, l'utilisation malveillante, les cyberattaques et la militarisation » comme exemples de « risques importants et urgents liés à l'IA… non juste le risque d’extinction.

"Ce sont tous des risques importants qui doivent être pris en compte", suggère également, minimisant les inquiétudes selon lesquelles les décideurs politiques disposent d’une marge de manœuvre limitée pour remédier aux méfaits de l’IA en arguant : « Les sociétés peuvent gérer plusieurs risques à la fois ; Il ne s’agit pas de « soit/ou », mais de « oui/et ». « Du point de vue de la gestion des risques, tout comme il serait imprudent de prioriser uniquement les préjudices actuels, il serait également imprudent de les ignorer. »

Le fil de discussion attribue également à David Krueger, professeur agrégé d'informatique à l'Université de Cambridge, l'idée de rédiger une déclaration en une phrase sur le risque de l'IA et d'aider "conjointement" son développement.

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci