Spanish English French German Italian Portuguese
Marketing social
AccueilGuide de lectureIA : résumé des principaux concepts

IA : résumé des principaux concepts

L'IA est présente dans apparemment tous les aspects de la vie moderne, de la musique et des médias aux affaires et à la productivité, même les relations personnelles. Il se passe tellement de choses qu'il peut être difficile de suivre, alors voici un bref aperçu des concepts, des derniers grands développements aux termes et entreprises que vous devez connaître pour rester à jour dans ce domaine en évolution rapide.

Pour commencer, nous devons tous être sur la même longueur d'onde : qu'est-ce que l'IA ?

La intelligence artificielle, également appelé Machine Learning (ML), est un type de système logiciel basé sur des réseaux de neurones, une technique qui a en fait été lancée il y a des décennies mais qui a récemment prospéré grâce à de nouvelles ressources informatiques puissantes. L'IA a permis une reconnaissance efficace de la parole et des images, ainsi que la capacité de générer des images et de la voix synthétiques, et les chercheurs travaillent dur pour permettre à une IA de naviguer sur le Web, de faire des réservations, de modifier des recettes, etc.

Ce guide IA est divisé en trois parties qui peuvent être lues dans n'importe quel ordre :

  • Premier, les concepts fondamentaux qu'il faut connaître, dont les plus importants récemment.
  • Puis, un aperçu des principaux acteurs de l'IA et de leur importance.
  • Et enfin, une liste organisée des titres et développements récents.

AI 101

Réseaux de neurones artificiels d'apprentissage en profondeur qui forment la forme du cerveau humain. Le réseau de neurones gère les données en entrée et donne le résultat en sortie

L'une des choses intéressantes à propos de l'IA est que si les concepts de base remontent à plus de 50 ans, peu d'entre eux étaient familiers même aux techniciens avant très récemment. Si vous avez le sentiment d'être perdu, ne vous inquiétez pas, presque tout le monde l'est.

Et un autre concept à valoriser : bien qu'on l'appelle « intelligence artificielle », ce terme est un peu trompeur. Il n'y a pas de définition unique de l'intelligence, mais ce que font ces systèmes est certainement plus proche des calculatrices que du cerveau. L'entrée et la sortie de cette calculatrice sont beaucoup plus flexibles. On pourrait considérer l'intelligence artificielle comme une simulation artificielle : c'est de l'intelligence d'imitation.

Cela étant dit, ce sont des termes de base que l'on retrouve dans toute discussion sur l'IA.

Réseau neuronal

Notre cerveau est constitué en grande partie de cellules interconnectées appelées neurones, qui se rassemblent pour former des réseaux complexes qui exécutent des tâches et stockent des informations. Des tentatives ont été faites pour recréer cet incroyable système dans les logiciels depuis les années 60, mais la puissance de traitement requise n'était largement disponible qu'il y a 15 à 20 ans, lorsque les GPU ont permis aux réseaux de neurones définis numériquement de prospérer. Au fond, c'est juste beaucoup de points et de lignes : les points sont des données, et les lignes sont des relations statistiques entre ces valeurs. Tout comme dans le cerveau, cela peut créer un système polyvalent qui prend rapidement les entrées, les transmet à travers le réseau et produit des sorties. Ce système est appelé modèle.

Modèle

El modèle est la collection réelle de code qui accepte l'entrée et renvoie la sortie. La similitude de la terminologie avec un modèle statistique ou un système de modélisation qui simule un processus naturel complexe n'est pas fortuite. Dans l'IA, le modèle peut faire référence à un système entier comme ChatGPT, ou à peu près n'importe quelle construction d'IA ou d'apprentissage automatique, indépendamment de ce qu'il fait ou produit. Les modèles sont disponibles en différentes tailles, ce qui signifie à la fois la quantité d'espace de stockage qu'ils occupent et la puissance de calcul dont ils ont besoin pour fonctionner. Et ceux-ci dépendent de la façon dont le modèle est formé.

Préparation / Entraînement

Pour créer un modèle d'IA, les réseaux de neurones qui forment la base du système sont exposés à une grande quantité d'informations dans ce qu'on appelle ensemble de données ou corpus. Ce faisant, ces réseaux géants créent une représentation statistique de ces données. Ce processus de formation est la partie la plus intensive en calcul, ce qui signifie qu'il prend des semaines ou des mois (il peut durer aussi longtemps que nécessaire) sur d'énormes réseaux d'ordinateurs puissants. La raison en est que non seulement les réseaux sont complexes, mais que les ensembles de données peuvent être extrêmement volumineux : des milliards de mots ou d'images qui doivent être analysés et représentés dans le modèle statistique géant. D'autre part, une fois le modèle cuit, il peut être beaucoup plus petit et moins exigeant lors de son utilisation, ce processus est appelé inférence.

Inférence

Lorsque le modèle fait réellement son travail, nous l'appelons inférence, largement au sens traditionnel du terme : tirer une conclusion en raisonnant sur les preuves disponibles. Bien sûr, il ne s'agit pas exactement de "raisonner", mais plutôt de relier statistiquement les points dans les données que vous avez ingérées et de prédire le point suivant. Par exemple, dire "Compléter la séquence suivante : rouge, orange, jaune..." trouverait que ces mots correspondent au début d'une liste qu'il a ingérée, les couleurs de l'arc-en-ciel, et en déduire l'élément suivant jusqu'à ce qu'il ait produit le reste de cette liste. . L'inférence est généralement beaucoup moins coûteuse en calcul que la formation : c'est comme si vous regardiez un catalogue de cartes au lieu de l'assembler. Les gros modèles doivent toujours fonctionner sur des supercalculateurs et des GPU, mais les plus petits peuvent fonctionner sur un smartphone ou quelque chose d'encore plus simple.

IA générative

Tout le monde parle d'IA générative, et ce terme générique désigne simplement un modèle d'IA qui produit un résultat original, comme une image ou un texte. Certaines IA résument, certaines réarrangent, certaines identifient, etc., mais une IA qui génère réellement quelque chose (qu'elle "croie" ou non est discutable) est particulièrement populaire en ce moment. N'oubliez pas que ce n'est pas parce qu'une IA a généré quelque chose que c'est correct, ou même qu'elle reflète la réalité. Il n'existait tout simplement pas avant que vous ne le demandiez, comme une histoire ou une peinture.


termes actuels

Au-delà des bases, ce sont les termes d'IA les plus pertinents à la mi-2023.

Grand modèle de langage (LLM)

La forme d'IA la plus influente et la plus polyvalente disponible aujourd'hui, les grands modèles linguistiques sont formés sur presque tout le texte qui compose le Web et une grande partie de la littérature de langue anglaise. L'ingestion de tout cela se traduit par un modèle de base massif. Les LLM peuvent converser et répondre aux questions en langage naturel et imiter une variété de styles et de types de documents écrits, comme l'ont démontré ChatGPT, Claude et LLaMa. Bien que ces modèles soient indéniablement impressionnants, il convient de noter qu'ils sont toujours des moteurs de reconnaissance de formes, et lorsqu'ils répondent, c'est une tentative de compléter un modèle que vous avez identifié, que ce modèle reflète ou non la réalité. Les LLM hallucinent souvent dans leurs réponses, ce sur quoi nous reviendrons sous peu.

Modèle de base

La formation d'un énorme modèle à partir de zéro sur de grands ensembles de données est coûteuse et complexe, vous ne voulez donc pas avoir à le faire plus que nécessaire. Les modèles de base sont les plus grands à partir de zéro qui nécessitent des superordinateurs pour fonctionner, mais peuvent être réduits pour tenir dans des conteneurs plus petits, ce qui réduit généralement le nombre de paramètres. Vous pouvez les considérer comme le total des points avec lesquels le modèle doit fonctionner, et de nos jours, cela peut se chiffrer en millions, en milliards, voire en billions.

Réglage fin du modèle

Un modèle de base comme GPT-4 est intelligent, mais il est aussi généraliste de par sa conception : il a tout absorbé, de Dickens à Wittgenstein en passant par les règles de Donjons et Dragons, mais rien de tout cela n'est utile si vous voulez qu'il vous aide à rédiger une lettre de motivation pour un programme. . Heureusement, les modèles peuvent être affinés en leur donnant un peu de formation supplémentaire à l'aide d'un ensemble de données spécialisé, disons quelques milliers de demandes d'emploi qui traînent. Cela donne au modèle une bien meilleure idée de la façon d'aider dans ce domaine sans jeter les connaissances générales qu'il a acquises à partir du reste de vos données d'entraînement.

L'apprentissage par renforcement à partir de la rétroaction humaine, ou RLHF, est un type particulier de réglage fin dont vous entendez beaucoup parler : il utilise les données des humains qui interagissent avec le LLM pour améliorer leurs compétences en communication.

Diffusion

La génération d'images peut se faire de plusieurs façons, mais la plus réussie jusqu'à présent est la diffusion, qui est la technique au cœur de Stable Diffusion, Midjourney et d'autres IA génératives populaires. Les modèles de diffusion sont formés en leur montrant des images qui sont progressivement dégradées en ajoutant du bruit numérique jusqu'à ce qu'il ne reste plus rien de l'original. En observant cela, les modèles de diffusion apprennent également à faire l'inverse, ajoutant progressivement des détails au bruit pur pour former une image arbitrairement définie. Nous commençons déjà à aller au-delà de cela pour l'imagerie, mais la technique est fiable et relativement bien comprise, alors ne vous attendez pas à ce qu'elle disparaisse de sitôt.

hallucination

À l'origine, il s'agissait d'un problème de certaines images de formation glissant dans un exutoire sans rapport, comme des bâtiments qui semblaient être faits de chiens en raison d'une surprédominance de chiens sur le plateau de formation. On dit maintenant qu'une IA est hallucinant quand, parce que vous avez des données insuffisantes ou contradictoires dans votre ensemble d'entraînement, vous inventez quelque chose.

Il peut s'agir d'un actif ou d'un passif ; une IA à qui l'on demande de créer de l'art original ou même dérivé hallucine sa production ; on peut dire à un LLM d'écrire un poème d'amour dans le style de Yogi Berra, et il le fera avec plaisir, bien qu'une telle chose n'existe nulle part dans son ensemble de données. Mais cela peut être un problème lorsqu'une réponse factuelle est souhaitée ; les modèles présenteront avec confiance une réponse à moitié réelle, à moitié hallucinante. À l'heure actuelle, il n'y a pas de moyen facile de dire qui est quoi, sauf vérifier par vous-même, car le modèle lui-même ne sait pas vraiment ce qui est «vrai» ou «faux», il essaie seulement de compléter un modèle du mieux qu'il peut.

Intelligence Artificielle Forte, AIF, (Intelligence Artificielle Générale, AGI)

L'Intelligence Générale Artificielle, ou IA forte, n'est pas vraiment un concept bien défini, mais l'explication la plus simple est qu'il s'agit d'une intelligence suffisamment puissante non seulement pour faire ce que les gens font, mais pour apprendre et s'améliorer comme nous. Certains craignent que ce cycle d'apprentissage, d'intégration de ces idées, puis d'apprentissage et de croissance plus rapide ne se perpétue et aboutisse à un système super intelligent impossible à maîtriser ou à contrôler. Certains ont même proposé de retarder ou de limiter les recherches pour éviter cette éventualité.

C'est une idée terrifiante, bien sûr, et des films comme "The Matrix" et "Terminator" ont exploré ce qui pourrait arriver si l'IA devenait incontrôlable et tentait d'éliminer ou d'asservir l'humanité. Mais ces histoires ne sont pas basées sur la réalité. L'apparence d'intelligence que nous voyons dans des choses comme ChatGPT est un acte impressionnant, mais il a peu de choses en commun avec le raisonnement abstrait et l'activité dynamique multi-domaine que nous associons à l'intelligence "réelle". Bien qu'il soit presque impossible de prédire comment les choses vont progresser, il peut être utile de considérer l'AGI comme quelque chose comme un voyage spatial interstellaire : nous comprenons tous le concept et y travaillons apparemment, mais en même temps, nous sommes incroyablement loin d'y parvenir. quelque chose comme ça. Et en raison des immenses ressources et des percées scientifiques fondamentales requises, personne n'y arrivera soudainement par accident !

C'est intéressant de penser à AGI, mais ça ne sert à rien de demander des ennuis quand, comme le soulignent les commentateurs, l'IA présente déjà aujourd'hui des menaces réelles et conséquentes malgré ses limites, et en grande partie à cause d'elles. Personne ne veut de Skynet, mais vous n'avez pas besoin d'une super intelligence armée d'armes nucléaires pour faire de vrais dégâts : les gens perdent leur emploi et tombent dans le piège des canulars aujourd'hui. Si nous ne pouvons pas résoudre ces problèmes, quelle chance avons-nous contre un T-1000 ?


Principaux acteurs de l'IA

OpenAI

Écran d'accueil ChatGPT

S'il y a un nom familier dans l'IA, c'est bien celui-là. OpenAI a commencé, comme son nom l'indique, comme une organisation qui avait pour but de mener des recherches et de fournir les résultats de manière plus ou moins ouverte. Depuis lors, elle s'est restructurée en une entreprise à but lucratif plus traditionnelle qui donne accès à ses avancées dans les modèles de langage comme ChatGPT via des API et des applications. Elle est dirigée par Sam Altman, un milliardaire technotopien qui a néanmoins mis en garde contre les risques que l'IA pourrait présenter. OpenAI est le leader reconnu du LLM, mais mène également des recherches dans d'autres domaines.

Microsoft

Sans surprise, Microsoft a fait une bonne part du travail de recherche sur l'IA, mais comme d'autres entreprises, il a plus ou moins échoué à transformer ses expériences en produits majeurs. Sa décision la plus intelligente a été d'investir rapidement dans OpenAI, ce qui lui a valu un partenariat exclusif à long terme avec la société, qui alimente désormais son agent conversationnel Bing. Bien que ses propres contributions soient mineures et moins immédiatement applicables, la société a une présence considérable dans la recherche.

Google

Connu pour ses "voyages vers nulle part", Google a en quelque sorte raté le coche sur l'IA même si ses chercheurs ont littéralement inventé la technique qui a conduit directement à l'explosion actuelle de l'IA : le transformateur. Il travaille maintenant dur sur ses propres LLM et d'autres agents, mais il rattrape clairement son retard après avoir passé la plupart de son temps et de son argent au cours de la dernière décennie à pousser le concept obsolète "d'assistant virtuel" de l'IA. Le PDG Sundar Pichai a déclaré à plusieurs reprises que l'entreprise s'aligne fermement sur l'IA en matière de recherche et de productivité.

Anthropique

Après qu'OpenAI se soit éloigné de l'open source, les frères et sœurs Dario et Daniela Amodei ont quitté le groupe pour créer Anthropic, avec l'intention de jouer le rôle d'une organisation de recherche sur l'IA ouverte et éthiquement considérée. Avec la somme d'argent dont ils disposent, ils sont un sérieux rival d'OpenAI même si leurs modèles, comme Claude, ne sont pas encore aussi populaires ou connus.

Stabilité

Controversé mais inévitable, Stability représente l'école open-source, faites ce que vous voulez, de la mise en œuvre de l'IA, surveillant tout sur Internet et rendant les modèles d'IA génératifs qu'il forme librement disponibles si vous avez le matériel pour l'exécuter. Ceci est tout à fait conforme à la philosophie "l'information veut être libre", mais cela a également accéléré des projets éthiquement douteux comme la génération d'images pornographiques et l'utilisation de la propriété intellectuelle sans consentement (parfois en même temps).

Elon Musk

Pour ne pas être en reste, Musk a exprimé ouvertement ses craintes concernant l'IA incontrôlable, ainsi que quelques raisins aigres après avoir contribué à OpenAI au début et être allé dans une direction qu'il n'aimait pas. Bien que Musk ne soit pas un expert sur ce sujet, comme d'habitude, ses bouffonneries et ses commentaires suscitent de nombreuses réponses (il était l'un des signataires de la lettre susmentionnée "pause AI") et il tente de créer sa propre équipe d'enquête.

S'INSCRIT

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci