Spanish English French German Italian Portuguese
marketing social
InícioTecnologiaInteligência artificialPodemos 'nós, o povo', manter a IA sob controle?

Podemos 'nós, o povo', manter a IA sob controle?

tecnólogo e pesquisador Aviv Ovádia ele não tem certeza de que a IA generativa possa ser governada, mas acredita que o meio mais plausível de mantê-la sob controle pode ser confiar àqueles que serão afetados pela IA a decisão coletiva sobre as formas de contê-la.

Isso significa você; significa eu. É o poder de grandes redes de pessoas para resolver problemas de forma mais rápida e igualitária do que um pequeno grupo de pessoas sozinho (mesmo, por exemplo, em Washington). Baseia-se essencialmente na sabedoria das multidões e está acontecendo em muitos campos, incluindo pesquisa científica, negócios, política e movimentos sociais.

Em Taiwan, por exemplo, hackers cívicos formaram uma plataforma, “Virtual Taiwan”, em 2015, que “reúne representantes dos setores público, privado e social para discutir soluções de políticas para problemas relacionados principalmente à economia digital”, como como ELE explicou em 2019 pela ministra digital de Taiwan Audrey Tang no New York Times. Desde então, o vTaiwan, como é conhecido, abordou dezenas de questões "com base em uma combinação de debate online e discussões face a face com as partes interessadas", escreveu Tang na época.

Uma iniciativa semelhante é Revisão da Iniciativa dos Cidadãos de Oregon, que foi sancionada em 2011 e informa a população votante do estado sobre as medidas eleitorais por meio de um "processo deliberativo" conduzido pelos cidadãos. Aproximadamente 20 a 25 cidadãos que representam todo o eleitorado do Oregon se reúnem para debater os méritos de uma iniciativa; eles então escrevem coletivamente uma declaração sobre essa iniciativa que é enviada a outros eleitores no estado para que possam tomar decisões mais informadas no dia da eleição.

Os chamados processos deliberativos também ajudaram a resolver problemas na Austrália (política de água), Canadá (reforma eleitoral), Chile (pensões e assistência médica) e Argentina (moradia, propriedade da terra), entre outros lugares.

“Existem obstáculos para fazer isso funcionar” quando se trata de IA, reconhece Ovadya, uma afiliada do Berkman Klein Center de Harvard, cujo trabalho está cada vez mais focado nos impactos da IA ​​na sociedade e na democracia. “Mas, empiricamente, isso foi feito em todos os continentes do mundo, em todas as escalas” e “quanto mais rápido pudermos implementar algumas dessas coisas, melhor”, diz ele.

Deixar as pessoas decidirem quais são as diretrizes aceitáveis ​​em relação à IA em particular pode parecer estranho para alguns, mas até mesmo os tecnólogos acreditam que isso faz parte da solução. Mira Murati, CTO da proeminente startup de inteligência artificial OpenAI, tempo de publicação  Em uma nova entrevista, "[Somos] um pequeno grupo de pessoas e precisamos de muito mais contribuições para este sistema e muito mais que vá além das tecnologias, especificamente reguladores, governos e outras entidades similares".

Questionado se Murati teme que o envolvimento do governo possa sufocar a inovação ou se ele acha que é muito cedo para legisladores e reguladores se envolverem, ele respondeu: “Não é muito cedo. É muito importante que todos comecem a se envolver pelo impacto que essas tecnologias vão ter.”

No vácuo regulatório atual, a OpenAI adotou uma abordagem autônoma por enquanto, criando diretrizes pelo uso seguro de sua tecnologia e pelo lançamento de novas iterações aos poucos, às vezes para a frustração do público em geral.

Entretanto, a União Europeia tem vindo a elaborar um quadro regulamentar, o AI's Lae, que está tramitando no Parlamento Europeu e pretende se tornar um padrão global. A lei atribuiria aplicativos de IA a três categorias de risco: aplicativos e sistemas que criam "risco inaceitável"; "aplicações de alto risco", como uma "ferramenta de digitalização de currículos que classifica os candidatos a empregos" que estariam sujeitas a requisitos legais específicos; e aplicativos não explicitamente proibidos ou classificados como de alto risco que permaneceriam amplamente não regulamentados.

O Departamento de Comércio dos EUA também escreveu uma estrutura voluntária para orientar as empresas, mas não há regulamentos, nada, quando necessário com urgência. Além da OpenAI, gigantes da tecnologia como Microsoft e Google, apesar de queimados por Versões prévias de sua própria IA que eles falharam, estão competindo publicamente novamente para lançar produtos e aplicativos habilitados para IA, para que não fiquem para trás.

Uma espécie de World Wide Web Consortium, uma organização internacional criada em 1994 para definir padrões para a World Wide Web, aparentemente faria sentido. De fato, naquela entrevista à Time, Murati observa que "diferentes vozes, como filósofos, cientistas sociais, artistas e pessoas das ciências humanas" devem se unir para responder às muitas "questões éticas e filosóficas que devemos considerar".

Talvez a indústria comece assim, e a chamada inteligência coletiva preencha muitos dos espaços entre as visões generalistas.

Algumas novas ferramentas podem ajudar a atingir esse objetivo. O CEO da Open AI, Sam Altman, também é cofundador, por exemplo, de uma empresa de escaneamento de retina em Berlim chamada WorldCoin, que deseja facilitar a autenticação da identidade de alguém. Questões foram levantadas sobre as implicações de privacidade e segurança da abordagem biométrica da WorldCoin, mas suas aplicações potenciais incluem a distribuição de uma renda básica universal global, bem como capacitar novas formas de democracia digital.

De qualquer forma, Ovadya acredita que recorrer a processos deliberativos envolvendo um grande número de pessoas de todo o mundo é a maneira de criar limites em torno da IA ​​e, ao mesmo tempo, dar mais credibilidade aos participantes do setor.

“OpenAI está recebendo algumas críticas agora de todos”, inclusive por sua viés liberal percebidodiz Ovadia. “Seria útil [para a empresa] ter uma resposta realmente concreta” sobre como ela define suas políticas futuras.

A Ovadya também aponta para a Stability.AI, a empresa de IA de código aberto cujo CEO Emad Mostaque sugeriu repetidamente que a Stability é mais democrática do que a OpenAI porque está disponível em todos os lugares, enquanto a OpenAI está disponível apenas em países agora mesmo, onde você pode fornecer "acesso seguro"

Diz Ovadya: “Emad, da Stability, diz que está 'democratizando a IA'. Bom, Não seria bom usar processos democráticos para descobrir o que as pessoas realmente querem?

RELACIONADO

Deixe uma resposta

Por favor, digite seu comentário!
Por favor insira seu nome aqui

A moderação de comentários está ativada. Seu comentário pode demorar algum tempo para aparecer.

Este site usa o Akismet para reduzir o spam. Saiba como seus dados de comentário são processados.

INSCREVA-SE NO TRPLANE.COM

Publicar no TRPlane.com

Se você tiver alguma história interessante sobre transformação, TI, digital, etc. com um lugar no TRPlane.com, envie para nós e compartilharemos com toda a Comunidade.

MAIS PUBLICAÇÕES

Ativar notificações OK Sem gracias