Spanish English French German Italian Portuguese
marketing social
InícioGuia de leituraIA: resumo dos principais conceitos

IA: resumo dos principais conceitos

A IA está presente em aparentemente todos os aspectos da vida moderna, desde música e mídia até negócios e produtividade, até mesmo relacionamentos pessoais. Há tanta coisa acontecendo que pode ser difícil acompanhar, então aqui está uma breve visão geral dos conceitos, desde os últimos grandes desenvolvimentos até os termos e empresas que você precisa saber para se manter atualizado neste campo em rápida mudança.

Para começar, todos precisamos estar na mesma página: o que é IA?

La Inteligencia artificial, também chamado de Machine Learning (ML), é um tipo de sistema de software baseado em redes neurais, uma técnica que foi pioneira décadas atrás, mas recentemente floresceu graças a novos e poderosos recursos de computação. A IA permitiu o reconhecimento eficaz de fala e imagem, bem como a capacidade de gerar imagens e voz sintéticas, e os pesquisadores estão trabalhando duro para possibilitar que uma IA navegue na web, faça reservas, modifique receitas e muito mais.

Este guia de IA é dividido em três partes que podem ser lidas em qualquer ordem:

  • Primeiro, os conceitos fundamentais que precisam ser conhecidos, incluindo os mais importantes recentemente.
  • Depois, uma visão geral dos principais players de IA e por que eles são importantes.
  • E por ultimo, uma lista com curadoria de manchetes e desenvolvimentos recentes.

AI 101

Redes neurais artificiais de aprendizado profundo que formam a forma do cérebro humano. A rede neural manipula os dados na entrada e fornece o resultado na saída

Uma das coisas interessantes sobre a IA é que, embora os conceitos básicos remontem a mais de 50 anos, poucos deles eram familiares até para os técnicos antes, muito recentemente. Se você tem a sensação de estar perdido, não se preocupe, quase todo mundo está.

E outro conceito a valorizar: embora se chame "inteligência artificial", esse termo é um pouco enganador. Não existe uma definição única de inteligência, mas o que esses sistemas fazem está definitivamente mais próximo das calculadoras do que do cérebro. A entrada e saída desta calculadora é muito mais flexível. Você pode pensar na inteligência artificial como uma simulação artificial: é uma inteligência de imitação.

Com isso dito, esses são termos básicos encontrados em qualquer discussão sobre IA.

Rede neural

Nossos cérebros são feitos em grande parte de células interconectadas chamadas neurônios, que se juntam para formar redes complexas que executam tarefas e armazenam informações. Tentativas foram feitas para recriar esse sistema incrível em software desde a década de 60, mas o poder de processamento necessário não estava amplamente disponível até 15 a 20 anos atrás, quando as GPUs permitiram o florescimento de redes neurais definidas digitalmente. No fundo, são apenas muitos pontos e linhas: os pontos são dados e as linhas são relações estatísticas entre esses valores. Assim como no cérebro, isso pode criar um sistema versátil que recebe entrada rapidamente, passa pela rede e produz saída. Este sistema é chamado Modelo.

Modelo

El Modelo é a coleção real de código que aceita entrada e retorna saída. A semelhança na terminologia com um modelo estatístico ou sistema de modelagem que simula um processo natural complexo não é acidental. Em IA, o modelo pode se referir a um sistema inteiro como ChatGPT, ou praticamente qualquer IA ou construção de aprendizado de máquina, independentemente do que ele faz ou produz. Os modelos vêm em vários tamanhos, o que significa tanto a quantidade de espaço de armazenamento que ocupam quanto o poder computacional de que precisam para funcionar. E isso depende de como o modelo é treinado.

Preparação / Treinamento

Para criar um modelo de IA, as redes neurais que formam a base do sistema são expostas a uma grande quantidade de informações no que é chamado conjunto de dados ou corpus. Ao fazer isso, essas redes gigantes criam uma representação estatística desses dados. Esse processo de treinamento é a parte mais computacionalmente intensiva, o que significa que leva semanas ou meses (pode durar o tempo que for necessário) em enormes matrizes de computadores de alta potência. A razão para isso é que não apenas as redes são complexas, mas os conjuntos de dados podem ser extremamente grandes: bilhões de palavras ou imagens que precisam ser analisadas e representadas no modelo estatístico gigante. Por outro lado, uma vez terminado o cozimento do modelo, ele pode ser muito menor e menos exigente na hora de usar, esse processo é chamado de inferência.

Inferência

Quando o modelo está realmente fazendo seu trabalho, nós o chamamos inferência, em grande parte no sentido tradicional da palavra: tirar uma conclusão raciocinando sobre as evidências disponíveis. Claro, não é exatamente "raciocinar", mas sim conectar estatisticamente os pontos nos dados que você ingeriu e realmente prever o próximo ponto. Por exemplo, dizer "Complete a seguinte sequência: vermelho, laranja, amarelo..." descobriria que essas palavras correspondem ao início de uma lista que ingeriu, as cores do arco-íris e inferiria o próximo elemento até que tivesse produziu o resto dessa lista. A inferência geralmente é muito menos dispendiosa computacionalmente do que o treinamento: pense nisso como olhar para um catálogo de cartões em vez de montá-lo. Os modelos grandes ainda precisam rodar em supercomputadores e GPUs, mas os menores podem rodar em um smartphone ou algo ainda mais simples.

IA generativa

Todo mundo fala sobre IA generativa, e esse termo amplo significa apenas um modelo de IA que produz um resultado original, como uma imagem ou texto. Alguns AI resumem, alguns reorganizam, alguns identificam, etc., mas um AI que realmente gera algo (se "acredita" ou não é discutível) é especialmente popular agora. Não se esqueça de que só porque uma IA gerou algo, isso não significa que seja correto ou mesmo que reflita a realidade. Simplesmente não existia antes de você pedir, como uma história ou uma pintura.


termos atuais

Além do básico, esses são os termos de IA mais relevantes em meados de 2023.

Modelo de Linguagem Grande (LLM)

A forma mais influente e versátil de AI disponível hoje, grandes modelos de linguagem são treinados em quase todo o texto que compõe a web e grande parte da literatura em língua inglesa. A ingestão de tudo isso resulta em um modelo básico massivo. Os LLMs podem conversar e responder a perguntas em linguagem natural e imitar uma variedade de estilos e tipos de documentos escritos, conforme demonstrado por ChatGPT, Claude e LLaMa. Embora esses modelos sejam inegavelmente impressionantes, deve-se notar que eles ainda são mecanismos de reconhecimento de padrões e, quando respondem, é uma tentativa de completar um padrão que você identificou, quer esse padrão reflita ou não a realidade. Os LLMs costumam ter alucinações em suas respostas, das quais falaremos em breve.

Modelo Fundamental

Treinar um modelo enorme do zero em grandes conjuntos de dados é caro e complexo, então você não quer ter que fazer isso mais do que o necessário. Os modelos básicos são os maiores do zero que precisam de supercomputadores para funcionar, mas podem ser reduzidos para caber em contêineres menores, geralmente reduzindo o número de parâmetros. Você pode pensar neles como o total de pontos com os quais o modelo tem que trabalhar, e hoje em dia pode estar na casa dos milhões, bilhões ou até trilhões.

Ajuste fino do modelo

Um modelo básico como o GPT-4 é inteligente, mas também generalista por design: absorveu tudo, de Dickens a Wittgenstein e as regras de Dungeons & Dragons, mas nada disso é útil se você quiser ajudar a escrever uma carta de apresentação para um currículo . Felizmente, os modelos podem ser ajustados dando-lhes um pouco de treinamento adicional usando um conjunto de dados especializado, digamos, alguns milhares de formulários de emprego por aí. Isso dá ao modelo uma ideia muito melhor de como ajudar nesse domínio sem jogar fora o conhecimento geral que ele acumulou do restante de seus dados de treinamento.

O aprendizado por reforço com feedback humano, ou RLHF, é um tipo especial de ajuste fino sobre o qual você ouve muito: ele usa dados de humanos interagindo com o LLM para melhorar suas habilidades de comunicação.

Transmissão

A geração de imagens pode ser feita de várias maneiras, mas a mais bem-sucedida até agora é a difusão, que é a técnica central da Stable Diffusion, Midjourney e outras IAs generativas populares. Os modelos de difusão são treinados mostrando-lhes imagens que são gradualmente degradadas pela adição de ruído digital até que nada do original permaneça. Ao observar isso, os modelos de difusão também aprendem a fazer o inverso, adicionando gradualmente detalhes ao ruído puro para formar uma imagem definida arbitrariamente. Já estamos começando a ir além disso para imagens, mas a técnica é confiável e relativamente bem compreendida, então não espere que ela desapareça tão cedo.

alucinação

Originalmente, esse era um problema de certas imagens no treinamento deslizando para uma saída não relacionada, como edifícios que pareciam feitos de cachorros devido a uma prevalência excessiva de cães no set de treinamento. Agora, diz-se que uma IA é alucinante quando, porque você tem dados insuficientes ou conflitantes em seu conjunto de treinamento, você simplesmente inventa algo.

Isso pode ser um ativo ou um passivo; uma IA solicitada a criar arte original ou mesmo derivada está alucinando sua produção; um LLM pode ser instruído a escrever um poema de amor no estilo de Yogi Berra, e ele o fará com prazer - apesar de tal coisa não existir em nenhum lugar de seu conjunto de dados. Mas pode ser um problema quando se deseja uma resposta factual; os modelos apresentarão com confiança uma resposta que é metade real, metade alucinação. No momento, não há uma maneira fácil de dizer qual é qual, exceto verificando você mesmo, porque o modelo em si não sabe o que é “verdadeiro” ou “falso”, ele está apenas tentando completar um padrão da melhor maneira possível.

Inteligência Artificial Forte, AIF, (Inteligência Geral Artificial, AGI)

La Inteligencia Artificial General, o IA fuerte, no es realmente un concepto bien definido, pero la explicación más simple es que es una inteligencia que es lo suficientemente poderosa no solo para hacer lo que la gente hace, sino para aprender y mejorar como lo hacemos nós. Alguns temem que esse ciclo de aprendizado, integrando essas ideias e aprendendo e crescendo mais rápido, se autoperpetue e resulte em um sistema superinteligente impossível de restringir ou controlar. Alguns até propuseram atrasar ou limitar a pesquisa para evitar essa possibilidade.

É uma ideia assustadora, com certeza, e filmes como "The Matrix" e "Terminator" exploraram o que poderia acontecer se a IA saísse do controle e tentasse eliminar ou escravizar a humanidade. Mas essas histórias não são baseadas na realidade. A aparência de inteligência que vemos em coisas como ChatGPT é um ato impressionante, mas tem pouco em comum com o raciocínio abstrato e a atividade multidomínio dinâmica que associamos à inteligência "real". Embora seja quase impossível prever como as coisas irão progredir, pode ser útil pensar na AGI como algo como uma viagem espacial interestelar: todos nós entendemos o conceito e aparentemente estamos trabalhando para isso, mas ao mesmo tempo estamos incrivelmente longe de alcançá-lo. qualquer coisa assim. E por causa dos imensos recursos e descobertas científicas fundamentais necessárias, ninguém o fará de repente por acidente!

É interessante pensar na AGI, mas não adianta pedir para ter problemas quando, como apontam os comentaristas, a IA já apresenta ameaças reais e consequentes hoje, apesar de suas limitações e, na verdade, em grande parte por causa delas. Ninguém quer a Skynet, mas você não precisa de uma superinteligência com armas nucleares para causar danos reais: as pessoas estão perdendo seus empregos e caindo em fraudes hoje. Se não conseguirmos resolver esses problemas, que chance temos contra um T-1000?


Principais players em IA

OpenAI

Tela de boas-vindas do ChatGPT

Se existe um nome familiar na IA, é este. A OpenAI começou, como o próprio nome sugere, como uma organização que pretendia realizar pesquisas e fornecer os resultados de forma mais ou menos aberta. Desde então, reestruturou-se como uma empresa com fins lucrativos mais tradicional que fornece acesso aos seus avanços em modelos de linguagem como o ChatGPT por meio de APIs e aplicativos. É chefiado por Sam Altman, um bilionário tecnotópico que, no entanto, alertou sobre os riscos que a IA pode apresentar. A OpenAI é líder reconhecida em LLM, mas também realiza pesquisas em outras áreas.

Microsoft

Sem surpresa, a Microsoft fez uma boa parte do trabalho na pesquisa de IA, mas, como outras empresas, falhou mais ou menos em transformar seus experimentos em produtos importantes. Sua jogada mais inteligente foi investir rapidamente na OpenAI, ganhando uma parceria exclusiva de longo prazo com a empresa, que agora capacita seu agente de conversação Bing. Embora suas próprias contribuições sejam menores e menos imediatamente aplicáveis, a empresa tem uma presença considerável em pesquisa.

Google

Conhecido por suas "viagens para lugar nenhum", o Google de alguma forma perdeu o barco na IA, embora seus pesquisadores tenham literalmente inventado a técnica que levou diretamente à atual explosão da IA: o transformador. Ele agora está trabalhando duro em seus próprios LLMs e outros agentes, mas está claramente recuperando o atraso depois de gastar a maior parte de seu tempo e dinheiro na última década promovendo o conceito ultrapassado de "assistente virtual" de IA. O CEO Sundar Pichai disse repetidamente que a empresa está se alinhando firmemente com a IA em pesquisa e produtividade.

Antrópico

Depois que a OpenAI se afastou do código aberto, os irmãos Dario e Daniela Amodei deixaram o grupo para iniciar a Anthropic, com a intenção de desempenhar o papel de uma organização de pesquisa de IA aberta e eticamente considerada. Com a quantidade de dinheiro que têm em mãos, eles são um sério rival do OpenAI, mesmo que seus modelos, como Claude, ainda não sejam tão populares ou conhecidos.

Estabilidade

Controverso, mas inevitável, Stability representa a escola de implementação de IA de código aberto e faça o que quiser, vasculhando tudo na Internet e tornando os modelos de IA generativos que treina disponíveis gratuitamente se você tiver o hardware para executá-lo. Isso está muito de acordo com a filosofia “a informação quer ser livre”, mas também acelerou projetos eticamente duvidosos, como gerar imagens pornográficas e usar propriedade intelectual sem consentimento (às vezes ao mesmo tempo).

Elon Musk

Para não ficar de fora, Musk foi sincero sobre seus medos em relação à IA descontrolada, bem como algumas uvas verdes depois que ele contribuiu para o OpenAI no início e foi em uma direção que não gostou. Embora Musk não seja especialista neste assunto, como sempre, suas travessuras e comentários provocam respostas generalizadas (ele foi um dos signatários da mencionada carta de "pausa de IA") e ele está tentando iniciar sua própria equipe de investigação.

RELACIONADO

INSCREVA-SE NO TRPLANE.COM

Publicar no TRPlane.com

Se você tiver alguma história interessante sobre transformação, TI, digital, etc. com um lugar no TRPlane.com, envie para nós e compartilharemos com toda a Comunidade.

MAIS PUBLICAÇÕES

Ativar notificações OK Sem gracias