Spanish English French German Italian Portuguese
marketing social
InícioIAAltman da OpenAI e outros gigantes da IA ​​apoiam o aviso...

Altman da OpenAI e outros gigantes da IA ​​voltam a alertar sobre o risco de 'extinção' da IA ​​avançada

Abram caminho para outra intervenção política de IA que chama a atenção: Centenas de cientistas de IA, acadêmicos, CEOs de tecnologia e figuras públicas -de Sam Altman, CEO da OpenAI, e Demis Hassabis, CEO da DeepMind, a Geoffrey Hinton, veterano cientista da computação em IA, Max Tegmark do MIT e Jaan Tallinn, cofundador do Skype, ao músico Grimes e ao podcaster populista Sam Harris, para citar um pouco- aderiram a uma declaração pedindo atenção global ao risco existencial da IA.

A declaração, hospedada no site de uma organização sem fins lucrativos com sede em São Francisco e financiada de forma privada, chamada Center for AI Safety (CAIS), pretende equiparar o risco da IA ​​aos danos existenciais causados ​​pelo apocalipse e apela aos legisladores para que concentrem a atenção. em mitigar o que eles dizem ser um risco de extinção de IA de nível “catastrófico”.

Aqui está sua declaração resumida:

A mitigação do risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos sociais, como pandemias e guerra nuclear.

De acordo com uma breve explicação no site do CAIS, a declaração foi mantida “sucinta” porque os seus autores temem que a sua mensagem sobre “alguns dos riscos mais graves da IA ​​avançada” seja abafada pelo debate sobre outros. Riscos de IA” que, no entanto, sugerem que atrapalham o debate sobre o risco de extinção da IA.

No entanto, nos últimos meses, ouvimos as mesmas preocupações em voz alta várias vezes, à medida que o hype da IA ​​​​cresceu graças ao aumento do acesso a ferramentas generativas de IA, como ChatGPT e DALL-E da OpenAI, o que levou a um excesso de manchetes sobre o risco de IAs assassinas “superinteligentes”. (Como este, do início deste mês, em que Hinton, signatário da declaração, alertou sobre a "ameaça existencial" da tomada de controle da IA. Ou este, da semana passada, em que Altman pediu regulamentação para impedir que a IA destruindo a humanidade).

Há também a carta aberta assinada por Elon Musk (e dezenas de outros) em março, que pedia uma pausa de seis meses no desenvolvimento de modelos de IA mais poderosos que o GPT-4 da OpenAI para dar tempo para que os protocolos fossem projetados e compartilhados. padrões de segurança e aplicados à IA avançada, alertando para os riscos representados por “mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – pode compreender, prever ou controlar de forma confiável”.

Assim, nos últimos meses, tem havido uma enxurrada de avisos altamente divulgados sobre os riscos da IA ​​que ainda não existem.

Indiscutivelmente, esta enxurrada de manchetes histéricas desviou a atenção de um exame mais profundo dos danos existentes. Por exemplo, a utilização gratuita de dados protegidos por direitos de autor para treinar sistemas de inteligência artificial sem permissão ou consentimento (ou pagamento); o a extração sistemática de dados pessoais online, violando a privacidade dos indivíduos; ou a falta de transparência dos gigantes da inteligência artificial em relação aos dados utilizados para treinar essas ferramentas. Ou, de facto, falhas como a desinformação (“alucinação”) e riscos como o preconceito (discriminação automatizada). Sem mencionar o spam induzido por IA. E o custo ambiental da energia gasta para treinar esses monstros de IA.

Não é surpreendente que, após uma reunião na semana passada entre o primeiro-ministro britânico e vários altos executivos da IA, incluindo Altman e Hassabis, o governo pareça estar a mudar o rumo da regulamentação da IA, com um súbito interesse no risco existencial, relata o The Guardião.

Falar de risco existencial na IA também desvia a atenção das questões de estrutura e domínio do mercado., como Jenna Burrell, diretora de pesquisa da Data & Society, apontou neste artigo recente da Columbia Journalism Review analisando a cobertura da mídia sobre o ChatGPT, argumentando que precisamos parar de nos concentrar em pistas falsas, como a possível "Sensibilidade de IA, para nos concentrar em como A IA está concentrando ainda mais riqueza e poder.

Então, é claro, há motivações comerciais claras para os gigantes da IA ​​quererem direcionar a atenção regulatória para um futuro distante teórico, falando sobre um dia do juízo final alimentado pela IA, como uma manobra para desviar a atenção dos legisladores de uma concorrência mais fundamental e considerações antitruste aqui e agora. (E a exploração de dados como ferramenta para concentrar o poder de mercado não é novidade.)

Certamente diz muito sobre as estruturas de poder existentes da IA ​​​​que os executivos de gigantes da IA ​​​​como OpenAI, DeepMind, Stability AI e Anthropic estejam tão felizes em se unir e conversar quando se trata de amplificar publicamente as conversas sobre o risco existencial da IA. E quanto mais relutantes em se reunirem para discutir os danos que suas ferramentas podem estar causando neste momento.

A OpenAI foi um notável não signatário da carta aberta acima mencionada (assinada por Musk), mas vários de seus funcionários apoiam a declaração do CAIS (enquanto Musk aparentemente não o faz). Portanto, a última declaração parece oferecer uma resposta comercial (não oficial) da OpenAI (e outros) à tentativa anterior de Musk de sequestrar a narrativa de risco existencial da IA ​​​​para seus próprios interesses (que não favorecem mais a OpenAI liderando o ataque pela IA).

Em vez de apelar a uma pausa no desenvolvimento, que poderia congelar a liderança da OpenAI no campo da IA ​​generativa, a declaração pressiona os decisores políticos a concentrarem-se na mitigação de riscos, e fá-lo enquanto a OpenAI financia simultaneamente esforços para moldar "processos democráticos para executar a IA". como disse Altman. Assim, a empresa está a posicionar-se ativamente (e a aplicar a riqueza dos seus investidores) para influenciar a forma de quaisquer futuras barreiras de mitigação, juntamente com esforços contínuos de lobbying presencial dirigidos aos reguladores internacionais. Altman também ameaçou recentemente publicamente remover a ferramenta OpenAI da Europa se o projecto de regulamento europeu sobre IA não fosse diluído para excluir a sua tecnologia.

Por outro lado, alguns dos signatários da carta acima simplesmente ficaram felizes em aproveitar outra oportunidade de publicidade, carimbando os seus nomes em ambos (olá, Tristan Harris!).

Mas quem é CAIS? Há pouca informação pública sobre a organização que hospeda esta mensagem. No entanto, ele admite que isso pressiona os decisores políticos. O seu website afirma que a sua missão é “reduzir os riscos da IA ​​à escala social” e afirma que se dedica a promover a investigação e a criação de campos para este fim, incluindo o financiamento da investigação, bem como a ter um papel declarado na defesa de políticas.

As perguntas frequentes do site oferecem informações limitadas sobre quem o apoia financeiramente (supostamente financiado por doações privadas). Em resposta à questão “O CAIS é uma organização independente?”, afirma-se sucintamente que “serve o interesse público”:

O CAIS é uma organização sem fins lucrativos financiada inteiramente por contribuições privadas. As nossas políticas e orientações de investigação não são determinadas por doadores individuais, garantindo que o nosso objectivo continua a servir o interesse público.

Entramos em contato com o CAIS para tirar dúvidas.

Em um tópico no Twitter que acompanha a divulgação da declaração, o diretor do CAIS, Dan Hendrycks, expande a explicação da declaração mencionada acima, nomeando "preconceito sistêmico, desinformação, uso malicioso, ataques cibernéticos e armamento" como exemplos de "riscos importantes e urgentes de IA... não apenas os risco de extinção”.

“Todos esses são riscos importantes que precisam ser abordados”ele também sugere, minimizando as preocupações de que os legisladores tenham largura de banda limitada para lidar com os danos da IA, argumentando: “As sociedades podem gerir vários riscos ao mesmo tempo; não é 'ou/ou', mas 'sim/e'. Do ponto de vista da gestão de riscos, assim como seria imprudente priorizar exclusivamente os danos atuais, também seria imprudente ignorá-los.”

O tópico também credita a David Krueger, professor assistente de ciência da computação na Universidade de Cambridge, a ideia de ter uma declaração de uma frase sobre o risco da IA ​​​​e ajudar “conjuntamente” em seu desenvolvimento.

RELACIONADO

Deixe uma resposta

Por favor, digite seu comentário!
Por favor insira seu nome aqui

A moderação de comentários está ativada. Seu comentário pode demorar algum tempo para aparecer.

Este site usa o Akismet para reduzir o spam. Saiba como seus dados de comentário são processados.

INSCREVA-SE NO TRPLANE.COM

Publicar no TRPlane.com

Se você tiver alguma história interessante sobre transformação, TI, digital, etc. com um lugar no TRPlane.com, envie para nós e compartilharemos com toda a Comunidade.

MAIS PUBLICAÇÕES

Ativar notificações OK Sem gracias