Spanish English French German Italian Portuguese
marketing social
InícioIAAs maiores questões da IA ​​exigem uma abordagem interdisciplinar

As maiores questões da IA ​​exigem uma abordagem interdisciplinar

Quando Elon Musk anunciou a equipe por trás de sua nova empresa de inteligência artificial xAI, cuja missão é supostamente “compreender a verdadeira natureza do universo”, sublinhou a importância crítica de responder às preocupações existenciais sobre as promessas e perigos da IA.

Se a empresa recém-formada consegue realmente alinhar o seu comportamento para reduzir os riscos potenciais da tecnologia, ou se o seu único objetivo é obter uma vantagem sobre a OpenAI, a sua formação levanta questões importantes sobre como as empresas devem realmente responder às preocupações sobre a IA. Especificamente:

  1. Quem internamente, especialmente em empresas modelo de maior dimensão, está realmente a fazer perguntas sobre os impactos a curto e a longo prazo da tecnologia que estão a construir?
  2. Eles estão abordando os problemas com a perspectiva e a experiência corretas?
  3. Estão equilibrando adequadamente as considerações tecnológicas com as questões sociais, morais e epistemológicas?

Pode ser imaginado, até agora, como dois quartos. Num deles, com pessoas que pensam profundamente sobre ética (“O que é certo e o que é errado?”), ontologia (“O que realmente existe?”) e epistemologia (“O que realmente sabemos?”). Do outro, pessoas que fazem algoritmos, códigos e matemática.

Esta combinação não é tão desarmoniosa no contexto de como as empresas deveriam pensar sobre a IA. Os riscos no impacto da IA ​​são existenciais e as empresas devem assumir um compromisso autêntico digno desses riscos.

A IA ética requer uma compreensão profunda do que existe, do que queremos, do que pensamos que sabemos e de como a inteligência se desenvolve.

Isto significa equipar as equipas de liderança para que estejam adequadamente equipadas para analisar as consequências da tecnologia que estão a construir, o que vai além da experiência natural dos engenheiros que escrevem códigos e aplicam APIs.

A IA não é um desafio exclusivo de computação, neurociência ou otimização. É um desafio humano. Para enfrentá-lo, devemos adotar uma versão duradoura de um “encontro de mentes sobre IA”, equivalente em escopo ao O Encontro Interdisciplinar Oppenheimer no deserto do Novo México no início da década de 1940.

A colisão do desejo humano com as consequências não intencionais da IA ​​resulta no que os pesquisadores chamam de “problema de alinhamento”, descrito por especialistas em Brian Christian do livro "O problema do alinhamento". Essencialmente, as máquinas têm uma maneira de interpretar mal as nossas instruções mais completas, e nós, como seus supostos mestres, temos um histórico fraco de fazê-las compreender completamente o que pensamos que queremos que elas façam.

O resultado líquido: os algoritmos podem promover preconceitos e desinformação e, portanto, corroer a estrutura da nossa sociedade. Num cenário mais distópico de longo prazo, eles podem tomar a decisão”virada traiçoeira”E os algoritmos aos quais cedemos demasiado controlo sobre o funcionamento da nossa civilização ultrapassam-nos a todos.

Ao contrário do desafio de Oppenheimer, que era um cientista, a IA ética requer uma compreensão profunda do que existe, do que queremos, do que pensamos que sabemos e de como a inteligência se desenvolve. Esta é uma tarefa certamente de natureza analítica, embora não estritamente científica. Requer uma abordagem integrativa enraizada no pensamento crítico tanto das humanidades como das ciências.

Pensadores de diferentes áreas precisam de trabalhar em estreita colaboração, agora mais do que nunca. A equipe ideal para uma empresa que busca fazer isso poderia realmente ser:

  • Chefe de IA e Ética de Dados: Esta pessoa abordaria questões de curto e longo prazo relacionadas com dados e IA, incluindo, mas não se limitando a, a articulação e adoção de princípios de ética de dados, o desenvolvimento de arquiteturas de referência para a sua utilização ética, os direitos dos cidadãos relativamente à forma como consomem os seus dados e usados ​​pela IA, e protocolos para moldar e controlar adequadamente o comportamento da IA. Este deve ser separado do diretor de tecnologia, cujo papel é, em grande parte, executar um plano tecnológico, em vez de abordar as suas implicações. É uma posição de alto nível na equipe do CEO que preenche a lacuna de comunicação entre os tomadores de decisão internos e os reguladores. Você não pode separar um especialista em ética de dados de um especialista em ética em IA: os dados são a pré-condição e o combustível para a IA. A própria IA gera novos dados.
  • Arquiteto Filósofo Chefe: Esta função abordaria preocupações existenciais de longo prazo com foco principal no “Problema de Alinhamento”: como definir salvaguardas, políticas, backdoors e kill switches para que a IA se alinhe o mais próximo possível com as necessidades e objetivos humanos. .
  • Neurocientista Chefe: Esta pessoa abordaria questões críticas sobre a senciência e como a inteligência se desenvolve dentro dos modelos de IA, quais modelos de cognição humana são mais relevantes e úteis para o desenvolvimento da IA ​​e o que a IA pode nos ensinar sobre a cognição humana.

Fundamentalmente, para transformar o resultado do time dos sonhos em tecnologia responsável e eficaz, precisamos de tecnólogos que possam traduzir conceitos abstratos e questões colocadas pelos “Três” em software funcional. Tal como acontece com todos os grupos de tecnologia em atividade, isso depende da visão geral do líder/designer do produto.

Uma nova geração de líderes de produtos inventivos na “Era da IA” deve mover-se confortavelmente através de novas camadas de infra-estruturas tecnológicas que abrangem a infra-estrutura modelo para IA, bem como novos serviços para coisas como ajuste e desenvolvimento de modelos. Eles devem ser criativos o suficiente para imaginar e projetar fluxos de trabalho “Human in the Loop” para implementar salvaguardas, backdoors e interruptores de interrupção, conforme prescrito pelo arquiteto-filósofo-chefe. Eles precisam ter a capacidade de um engenheiro renascentista para traduzir as políticas e protocolos do chefe de IA e de ética de dados em sistemas que funcionem. Eles precisam apreciar os esforços do neurocientista-chefe para se movimentar entre máquinas e mentes e discernir adequadamente as descobertas com potencial para levar a uma IA mais inteligente e responsável.

Vejamos a OpenAI como um dos primeiros exemplos de uma empresa modelo fundamental, extremamente influente e bem desenvolvida que luta com este desafio de pessoal: eles têm um o cientista-chefe (que também é seu cofundador), um chefe de política global e um Conselheiro geral.

No entanto, sem as três posições descritas acima em posições de liderança executiva, as maiores questões em torno das implicações da sua tecnologia permanecem sem resposta. Se Sam Altman for preocupado Em termos de abordagem do tratamento e coordenação da superinteligência de uma forma ampla e ponderada, construir um alinhamento holístico é um bom ponto de partida.

Precisamos de construir um futuro mais responsável, onde as empresas sejam administradoras de confiança dos dados das pessoas e onde a inovação impulsionada pela IA seja sinónimo de bem. No passado, as equipas jurídicas foram pioneiras em questões como a privacidade, mas os mais brilhantes reconhecem que não podem resolver sozinhos os problemas da utilização ética de dados na era da IA.

Trazer perspectivas diferentes e amplas para o local onde as decisões são tomadas é a única forma de obter dados éticos e inteligência artificial ao serviço do florescimento humano, mantendo ao mesmo tempo as máquinas no seu lugar.

RELACIONADO

INSCREVA-SE NO TRPLANE.COM

Publicar no TRPlane.com

Se você tiver alguma história interessante sobre transformação, TI, digital, etc. com um lugar no TRPlane.com, envie para nós e compartilharemos com toda a Comunidade.

MAIS PUBLICAÇÕES

Ativar notificações OK Sem gracias