Spanish English French German Italian Portuguese
Marketing social
AccueilIALes plus grandes questions de l'IA nécessitent une approche interdisciplinaire

Les plus grandes questions de l'IA nécessitent une approche interdisciplinaire

Quand Elon Musk a annoncé l'équipe derrière sa nouvelle société d'intelligence artificielle xIA, dont la mission est censée « comprendre la vraie nature de l’univers », a souligné l’importance cruciale de répondre aux préoccupations existentielles concernant les promesses et les dangers de l’IA.

Que la société nouvellement créée puisse réellement aligner son comportement pour réduire les risques potentiels de la technologie, ou si son seul objectif est d'acquérir un avantage sur OpenAI, sa création soulève d'importantes questions sur la manière dont les entreprises devraient réellement répondre aux préoccupations concernant l'IA. Spécifiquement:

  1. Qui en interne, en particulier dans les grandes entreprises modèles, se pose réellement des questions sur les impacts à court et à long terme de la technologie qu'ils développent ?
  2. Abordent-ils les problèmes avec la bonne perspective et la bonne expérience ?
  3. Arrivent-ils à concilier de manière adéquate les considérations technologiques avec les enjeux sociaux, moraux et épistémologiques ?

Jusqu'à présent, on pouvait l'imaginer comme deux pièces. Dans l’un d’eux, avec des personnes qui réfléchissent profondément à l’éthique (« Qu’est-ce qui est bien et qu’est-ce qui ne va pas ? »), à l’ontologie (« Qu’est-ce qu’il y a réellement ? ») et à l’épistémologie (« Que savons-nous vraiment ? »). De l’autre, les gens qui font des algorithmes, des codes et des mathématiques.

Cette combinaison n’est pas si discordante dans le contexte de la façon dont les entreprises devraient penser l’IA. Les enjeux liés à l’impact de l’IA sont existentiels et les entreprises doivent prendre un engagement authentique, à la hauteur de ces risques.

L’IA éthique nécessite une compréhension approfondie de ce qui existe, de ce que nous voulons, de ce que nous pensons savoir et de la manière dont l’intelligence se développe.

Cela signifie donner aux équipes de direction les moyens adéquats pour analyser les conséquences de la technologie qu’elles développent, ce qui va au-delà de l’expertise naturelle des ingénieurs qui écrivent du code et mettent en œuvre des API.

L’IA n’est pas un défi exclusivement informatique, neuroscientifique ou d’optimisation. C'est un défi humain. Pour y remédier, nous devons adopter une version durable d’une « réunion des esprits sur l’IA », d’une portée équivalente à La Rencontre Interdisciplinaire Oppenheimer dans le désert du Nouveau-Mexique au début des années 1940.

La collision du désir humain avec les conséquences involontaires de l’IA aboutit à ce que les chercheurs appellent le « problème d’alignement », décrit par les experts en Brian Christian extrait du livre "Le problème de l'alignement". Essentiellement, les machines ont tendance à mal interpréter nos instructions les plus complètes, et nous, en tant que leurs maîtres supposés, avons de piètres résultats pour leur faire comprendre pleinement ce que nous pensons vouloir qu'elles fassent.

Le résultat net : les algorithmes peuvent promouvoir les préjugés et la désinformation et donc corroder le tissu de notre société. Dans un scénario à long terme plus dystopique, ils peuvent prendre la décision"tour perfide» et les algorithmes auxquels nous avons cédé trop de contrôle sur le fonctionnement de notre civilisation nous surpassent tous.

Contrairement au défi lancé par Oppenheimer, qui était scientifique, l’IA éthique nécessite une compréhension approfondie de ce qui existe, de ce que nous voulons, de ce que nous pensons savoir et de la manière dont l’intelligence se développe. Il s’agit d’une tâche certes de nature analytique, mais pas strictement scientifique. Cela nécessite une approche intégrative ancrée dans la pensée critique des sciences humaines et des sciences.

Les penseurs de différents domaines doivent, plus que jamais, travailler en étroite collaboration. L’équipe idéale pour une entreprise cherchant à faire cela pourrait vraiment être :

  • Responsable de l'IA et de l'éthique des données : Cette personne aborderait les problématiques à court et à long terme liées aux données et à l'IA, y compris, sans toutefois s'y limiter, l'articulation et l'adoption de principes d'éthique des données, le développement d'architectures de référence pour leur utilisation éthique, les droits des citoyens quant à la manière de consommer leurs données. données et utilisées par l’IA, ainsi que des protocoles pour façonner et contrôler correctement le comportement de l’IA. Celui-ci devrait être distinct du directeur de la technologie, dont le rôle est en grande partie d'exécuter un plan technologique plutôt que d'en traiter les implications. Il s'agit d'un poste de haut niveau au sein du personnel du PDG qui comble le fossé de communication entre les décideurs internes et les régulateurs. On ne peut pas séparer un éthicien des données d’un éthicien en chef de l’IA : les données sont la condition préalable et le carburant de l’IA. L’IA elle-même génère de nouvelles données.
  • Architecte philosophe en chef : Ce rôle répondrait aux préoccupations existentielles à long terme en mettant l’accent principalement sur le « problème d’alignement » : comment définir les mesures de protection, les politiques, les portes dérobées et les coupe-circuit afin que l’IA s’aligne aussi étroitement que possible sur les besoins et les objectifs humains. .
  • Neuroscientifique en chef : Cette personne aborderait des questions cruciales sur la sensibilité et la manière dont l'intelligence se développe au sein des modèles d'IA, quels modèles de cognition humaine sont les plus pertinents et utiles pour le développement de l'IA, et ce que l'IA peut nous apprendre sur la cognition humaine.

Fondamentalement, pour transformer le résultat de l'équipe de rêve en une technologie responsable et efficace, nous avons besoin de technologues capables de traduire les concepts abstraits et les questions posées par « Les Trois » en logiciels fonctionnels. Comme pour tous les groupes technologiques travaillant, cela dépend de la vision d’ensemble du chef de produit/concepteur.

Une nouvelle génération de leaders de produits inventifs à l’ère de « l’ère de l’IA » doit évoluer confortablement à travers de nouvelles couches d’infrastructures technologiques qui englobent l’infrastructure de modèle pour l’IA, ainsi que de nouveaux services pour des choses comme le réglage et le développement de modèles brevetés. Ils doivent être suffisamment inventifs pour imaginer et concevoir des flux de travail « Human in the Loop » afin de mettre en œuvre des protections, des portes dérobées et des coupe-circuit comme prescrit par l'architecte philosophe en chef. Ils doivent avoir la capacité d'un ingénieur de la Renaissance pour traduire les politiques et les protocoles du responsable de l'IA et de l'éthique des données en systèmes qui fonctionnent. Ils doivent apprécier les efforts du neuroscientifique en chef pour passer des machines aux esprits et discerner de manière adéquate les résultats susceptibles de conduire à une IA plus intelligente et plus responsable.

Considérons OpenAI comme l'un des premiers exemples d'une entreprise modèle fondamentale, extrêmement influente et bien développée, aux prises avec ce défi de personnel : elle a un le scientifique en chef (qui est également son co-fondateur), un responsable de la politique mondiale est notre valeur principale. Conseiller général.

Cependant, sans les trois postes décrits ci-dessus dans les postes de direction, les plus grandes questions concernant les implications de leur technologie restent sans réponse. Si Sam Altman est inquiet Pour aborder le traitement et la coordination de la superintelligence de manière large et réfléchie, la construction d’un alignement holistique est un bon point de départ.

Nous devons construire un avenir plus responsable, dans lequel les entreprises seront des gestionnaires de confiance des données des individus et où l'innovation basée sur l'IA sera synonyme de bien. Dans le passé, les équipes juridiques ont ouvert la voie sur des questions telles que la confidentialité, mais les plus brillants reconnaissent qu’ils ne peuvent pas résoudre seuls les problèmes d’utilisation éthique des données à l’ère de l’IA.

Apporter des perspectives différentes et larges là où les décisions sont prises est le seul moyen de mettre les données éthiques et l’intelligence artificielle au service de l’épanouissement humain, tout en gardant les machines à leur place.

S'INSCRIT

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci