Spanish English French German Italian Portuguese
marketing social
InícioTecnologiaInteligência artificialAI pode cometer difamação?

AI pode cometer difamação?

O novo brinquedo mais quente do mundo da tecnologia pode ter problemas legais, já que a tendência da IA ​​de inventar artigos de notícias e eventos colide com as leis de difamação. Um modelo de IA como o ChatGPT pode cometer difamação? Como muitas coisas relacionadas à tecnologia, ela é desconhecida e sem precedentes, mas os próximos desafios legais podem mudar isso.

A difamação é amplamente definida como postar ou dizer declarações prejudiciais e falsas sobre alguém. É um território legal complexo e cheio de nuances que também difere amplamente entre as jurisdições: um caso de difamação nos EUA é muito diferente de um no Reino Unido ou na Espanha.

A IA generativa já produziu inúmeras questões legais sem resposta, como se o uso de material protegido por direitos autorais equivale a uso justo ou violação. Mas até um ano atrás, nem as imagens nem os modelos de IA geradores de texto eram bons o suficiente para produzir algo que pudesse ser confundido com a realidade, então as questões sobre deturpações eram puramente acadêmicas.

Não é assim agora: o grande modelo de linguagem por trás do ChatGPT e do Bing Chat é um artista que opera em grande escala, e sua integração com produtos convencionais, como mecanismos de pesquisa (e cada vez mais com quase todo o resto), pode-se dizer que elevou o sistema de um fracasso experimento para um experimento massivo.

Então, o que acontece quando a ferramenta/plataforma escreve que um funcionário do governo foi acusado em um caso de má conduta ou que um professor universitário foi acusado de assédio sexual?

Há um ano, sem integrações extensas e com uma linguagem um tanto esfarrapada, poucos diriam que tais alegações falsas poderiam ser levadas a sério. Hoje, porém, esses modelos respondem a perguntas com confiança e convicção em plataformas de consumo amplamente acessíveis, mesmo quando essas respostas são alucinações ou falsamente atribuídas a artigos inexistentes. Eles atribuem declarações falsas a itens reais, ou declarações verdadeiras a itens inventados, ou todas falsas.

Devido à natureza de como esses modelos funcionam, eles não sabem ou se importam se algo é verdade, apenas se parece verdadeiro. Isso é um problema quando você o usa para fazer sua lição de casa, claro, mas quando ele o acusa de um crime que você não cometeu, pode muito bem ser difamação neste momento.

Essa é a alegação de Brian Hood, prefeito de Hepburn Shire, na Austrália, quando foi informado de que foi considerado culpado pelo ChatGPT em um escândalo de suborno de 20 anos. O escândalo era real e o Capuz estava envolvido. Mas foi ele quem procurou as autoridades e nunca foi acusado de nenhum crime, como relatórios da Reuters veiculados por seus advogados.

Agora, está claro que esta declaração é falsa e inquestionavelmente prejudicial à reputação de Hood. Mas quem fez a declaração? É a OpenAI, que desenvolveu o software? É a Microsoft, que licenciou e implementou no Bing? É o próprio software, agindo como um sistema automatizado? Em caso afirmativo, quem é responsável por solicitar que o sistema crie a instrução? Fazer tal afirmação em tal cenário constitui "publicá-la" ou é mais como uma conversa entre duas pessoas? Nesse caso, seria calúnia? OpenAI ou ChatGPT "sabiam" que essa informação era falsa e como definimos negligência nesse caso? Um modelo de IA pode exibir malícia? Depende da lei, do caso, do juiz?

Todas essas são questões em aberto porque a tecnologia a que se referem não existia há um ano, muito menos quando foram estabelecidas as leis e precedentes que definem legalmente a difamação. Embora possa parecer bobagem processar um chatbot por dizer algo falso, os chatbots não são mais o que costumavam ser. Com algumas das maiores empresas do mundo divulgando-os como a próxima geração de recuperação de informações, substituindo os mecanismos de busca, eles não são mais brinquedos, mas ferramentas usadas regularmente por milhões de pessoas.

Hood enviou uma carta à OpenAI pedindo-lhes que fizessem algo a respeito; não está muito claro o que você pode fazer, ou é obrigado a fazer, ou qualquer outra ação que possa tomar, pela lei australiana ou americana. Mas em outro caso recente, um professor de direito foi acusado de assédio sexual por um chatbot citando um artigo fictício do Washington Post. E essas alegações falsas potencialmente prejudiciais são provavelmente mais comuns do que pensamos: agora estão se tornando sérias e prejudiciais o suficiente para justificar a informação das pessoas envolvidas.

Este é apenas o começo desse drama jurídico, e até mesmo advogados e especialistas em IA não têm ideia de como isso vai acontecer. Mas se empresas como OpenAI e Microsoft (para não mencionar todas as outras grandes empresas de tecnologia e algumas centenas de startups) esperam que seus sistemas sejam levados a sério como fontes de informação, elas não podem evitar as consequências dessas reivindicações. Eles podem sugerir receitas e planejamento de viagens como pontos de partida, mas as pessoas esperam que as empresas garantam que essas plataformas sejam uma fonte de verdade.

Essas declarações preocupantes se transformarão em ações judiciais reais? Esses processos serão resolvidos antes que a indústria mude novamente? E tudo isso será discutido por legislação entre as jurisdições onde os casos são instaurados? Serão alguns meses interessantes (ou anos mais prováveis) enquanto especialistas jurídicos e tecnológicos tentam atingir o alvo dessa indústria em rápida evolução.

RELACIONADO

Deixe uma resposta

Por favor, digite seu comentário!
Por favor insira seu nome aqui

A moderação de comentários está ativada. Seu comentário pode demorar algum tempo para aparecer.

Este site usa o Akismet para reduzir o spam. Saiba como seus dados de comentário são processados.

INSCREVA-SE NO TRPLANE.COM

Publicar no TRPlane.com

Se você tiver alguma história interessante sobre transformação, TI, digital, etc. com um lugar no TRPlane.com, envie para nós e compartilharemos com toda a Comunidade.

MAIS PUBLICAÇÕES

Ativar notificações OK Sem gracias