Spanish English French German Italian Portuguese
Marketing social
AccueilLa technologieIntelligence artificielleAnthropique à la recherche d'une IA meilleure et compréhensible

Anthropique à la recherche d'une IA meilleure et compréhensible

Il y a moins d'un an, en 2021, Anthropique a été fondée par l'ancien vice-président de la recherche pour OpenAI, Dario Amodei, avec l'intention de mener des recherches dans l'intérêt public pour rendre l'IA plus fiable et plus explicable. Son financement de 124 millions de dollars était incroyable à l'époque, mais rien n'aurait pu prévoir l'entreprise. lèverait 580 millions de dollars moins d'un an plus tard.

"Avec cette collecte de fonds, nous allons explorer les propriétés de mise à l'échelle prévisibles des systèmes d'apprentissage automatique, tout en examinant de plus près les manières imprévisibles dont les capacités et les problèmes de sécurité peuvent émerger à mesure que le système se développe", a déclaré Amodei.

Sa sœur Daniela, avec qui il a cofondé la société d'utilité publique, a déclaré qu'après la création de l'entreprise, "nous nous concentrons sur la garantie que Anthropique avoir la culture et la gouvernance nécessaires pour continuer à explorer et à développer de manière responsable des systèmes d'IA sécurisés au fur et à mesure de notre croissance. ”

Encore une fois le mot clé : la croissance. Parce que c'est la catégorie du problème qui a initialement motivé Anthropique: Comment mieux comprendre les modèles d'IA de plus en plus utilisés dans les industries à mesure qu'ils dépassent notre capacité à expliquer leur logique et leurs résultats.

La société a déjà publié plusieurs articles examinant, par exemple, la rétro-ingénierie du comportement des modèles de langage pour comprendre pourquoi et comment ils produisent les résultats. Quelque chose comme GPT-3, probablement le modèle de langage le plus connu qui existe, est certainement impressionnant, mais il y a quelque chose d'inquiétant dans le fait que son fonctionnement interne est essentiellement un mystère même pour ses créateurs.

Comme l'annonce de financement elle-même l'explique :

Le but de cette recherche est de développer les composants techniques nécessaires pour construire des modèles à grande échelle qui ont de meilleures garanties implicites et nécessitent moins d'interventions post-formation, ainsi que de développer les outils nécessaires pour approfondir ces modèles afin de s'assurer que le les garanties fonctionnent vraiment. .

Si vous ne comprenez pas le fonctionnement d'un système d'IA, vous ne pouvez réagir que lorsqu'il fait quelque chose de mal, par exemple, s'il affiche un fait face à un biais de reconnaissance ou a tendance à dessiner ou à décrire les hommes lorsqu'on lui demande sur les médecins et les PDG. Ce comportement est intégré au modèle et la solution consiste à filtrer vos résultats au lieu de vous empêcher d'avoir ces mauvaises "idées" en premier lieu.

C'est une sorte de changement fondamental de forme dans lequel l'IA est construite et comprise, et en tant que telle nécessite de gros cerveaux et de gros ordinateurs, qui ne sont pas bon marché. Il ne fait aucun doute que 124 millions de dollars était un bon début, mais apparemment, les premiers résultats étaient suffisamment prometteurs pour que Sam Bankman-Fried dirige ce nouveau tour de table, aux côtés de Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn et le Center for Emerging Risk. Recherche (CERR).

Il est intéressant de ne voir aucun des investisseurs technologiques habituels dans ce groupe, mais bien sûr, Anthropic n'est pas il a comme objectif profit, qui est un facteur décisif pour les investisseurs en capital-risque.

Le dernier Les enquêtes anthropiques peuvent être suivies ici.

S'INSCRIT

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci