Spanish English French German Italian Portuguese
Marketing social
AccueilLa technologieIntelligence artificielleL'IA peut-elle commettre une diffamation ?

L'IA peut-elle commettre une diffamation ?

Le nouveau jouet le plus en vogue du monde de la technologie pourrait se retrouver en difficulté juridique car la tendance de l'IA à inventer des articles de presse et des événements se heurte aux lois sur la diffamation. Un modèle d'IA comme ChatGPT peut-il commettre une diffamation ? Comme beaucoup de choses liées à la technologie, elle est inconnue et sans précédent, mais les défis juridiques à venir pourraient changer cela.

La diffamation est généralement définie comme la publication ou la diffusion de déclarations nuisibles et fausses à propos de quelqu'un. Il s'agit d'un territoire juridique complexe et nuancé qui diffère également considérablement d'une juridiction à l'autre : une affaire de diffamation aux États-Unis est très différente d'une affaire au Royaume-Uni ou en Espagne.

L'IA générative a déjà soulevé de nombreuses questions juridiques sans réponse, telles que la question de savoir si l'utilisation de matériel protégé par le droit d'auteur équivaut à un usage loyal ou à une violation. Mais jusqu'à il y a un an, ni les images ni les modèles d'IA générant du texte n'étaient assez bons pour produire quelque chose qui serait confondu avec la réalité, donc les questions sur les fausses déclarations étaient purement académiques.

Ce n'est plus le cas maintenant : le grand modèle de langage derrière ChatGPT et Bing Chat est un artiste opérant à grande échelle, et son intégration avec des produits grand public comme les moteurs de recherche (et de plus en plus avec à peu près tout le reste) pourrait faire passer le système d'un échec expérience à une expérience massive.

Alors que se passe-t-il lorsque l'outil/la plateforme écrit qu'un fonctionnaire a été accusé dans une affaire d'inconduite ou qu'un professeur d'université a été accusé de harcèlement sexuel ?

Il y a un an, sans intégrations étendues et avec un langage plutôt boiteux, peu de gens diraient que de telles fausses affirmations pouvaient être prises au sérieux. Mais aujourd'hui, ces modèles répondent aux questions avec confiance et conviction sur des plateformes grand public largement accessibles, même lorsque ces réponses sont des hallucinations ou faussement attribuées à des articles inexistants. Ils attribuent de faux énoncés à de vrais éléments, ou de vrais énoncés à des éléments inventés, ou tous faux.

En raison de la nature du fonctionnement de ces modèles, ils ne savent pas ou ne se soucient pas si quelque chose est vrai, seulement que cela semble vrai. C'est un problème lorsque vous l'utilisez pour faire vos devoirs, bien sûr, mais lorsqu'il vous accuse d'un crime que vous n'avez pas commis, cela peut aussi bien être de la diffamation à ce stade.

C'est ce qu'a affirmé Brian Hood, le maire de Hepburn Shire en Australie, lorsqu'il a appris qu'il avait été reconnu coupable par ChatGPT dans un scandale de corruption vieux de 20 ans. Le scandale était réel et le Hood était impliqué. Mais c'est lui qui est allé voir les autorités à ce sujet et n'a jamais été accusé d'aucun crime, comme le rapportent Reuters transmis par leurs avocats.

Maintenant, il est clair que cette déclaration est fausse et porte incontestablement atteinte à la réputation de Hood. Mais qui a fait la déclaration ? Est-ce OpenAI qui a développé le logiciel ? Est-ce Microsoft, qui l'a licencié et l'a implémenté sous Bing ? Est-ce le logiciel lui-même, agissant comme un système automatisé ? Si oui, qui est chargé d'inciter ce système à créer la déclaration ? Est-ce que faire une telle déclaration dans un tel cadre revient à la « publier », ou s'agit-il plutôt d'une conversation entre deux personnes ? Dans ce cas, cela équivaudrait-il à de la diffamation ? OpenAI ou ChatGPT « savaient-ils » que cette information était fausse et comment définit-on la négligence dans un tel cas ? Un modèle d'IA peut-il manifester de la malveillance ? Cela dépend-il de la loi, du cas, du juge ?

Ce sont toutes des questions ouvertes car la technologie à laquelle elles se réfèrent n'existait pas il y a un an, encore moins lorsque les lois et les précédents qui définissent légalement la diffamation ont été établis. Bien qu'il puisse sembler idiot de poursuivre un chatbot pour avoir dit quelque chose de faux, les chatbots ne sont plus ce qu'ils étaient. Avec certaines des plus grandes entreprises du monde les vantant comme la prochaine génération de recherche d'informations, remplaçant les moteurs de recherche, ils ne sont plus des jouets mais des outils régulièrement utilisés par des millions de personnes.

Hood a envoyé une lettre à OpenAI leur demandant de faire quelque chose à ce sujet ; il n'est pas vraiment clair ce que vous pouvez faire, ou êtes tenu de faire, ou toute autre action que vous pouvez prendre, en vertu de la loi australienne ou américaine. Mais dans une autre affaire récente, un professeur de droit a été accusé de harcèlement sexuel par un chatbot citant un article fictif du Washington Post. Et de telles fausses allégations potentiellement nuisibles sont probablement plus courantes que nous ne le pensons : elles deviennent maintenant suffisamment graves et dommageables pour justifier d'informer les personnes impliquées.

Ce n'est que le début de ce drame juridique, et même les avocats et les experts en IA n'ont aucune idée de comment cela va se dérouler. Mais si des entreprises comme OpenAI et Microsoft (sans parler de toutes les autres grandes entreprises technologiques et de quelques centaines de startups) s'attendent à ce que leurs systèmes soient pris au sérieux en tant que sources d'informations, elles ne peuvent éviter les conséquences de ces affirmations. Ils peuvent suggérer des recettes et planifier des voyages comme points de départ, mais les gens s'attendent à ce que les entreprises veillent à ce que ces plateformes soient une source de vérité.

Ces déclarations troublantes se transformeront-elles en véritables poursuites ? Ces poursuites seront-elles résolues avant que l'industrie ne change à nouveau ? Et tout cela sera discuté par voie législative entre les juridictions où les affaires sont portées ? Ce sont sur le point d'être quelques mois intéressants (ou plus probablement des années) alors que des experts juridiques et technologiques tentent de s'attaquer à la cible de cette industrie en évolution rapide.

S'INSCRIT

Laisser une réponse

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

La modération des commentaires est activée. Votre commentaire peut mettre un certain temps à apparaître.

Ce site utilise Akismet pour réduire les spams. Découvrez comment vos données de commentaire sont traitées.

ABONNEZ-VOUS SUR TRPLANE.COM

Publier sur TRPlane.com

Si vous avez une histoire intéressante sur la transformation, l'informatique, le numérique, etc. qui peut être trouvée sur TRPlane.com, veuillez nous l'envoyer et nous la partagerons avec toute la communauté.

PLUS DE PUBLICATIONS

Activer les notifications OK Non merci