Lorem ipsum dolor sit amet consectetur adipisicing elit. Vero voluptate

Obrigado por entrar em contato, nossa equipe entrará em contato. Fique atento aos meios de comunicações informados

Relógio antigo

14 | Novembro

Thomas Shepherd

Inteligência Artificial - Como tudo começou?

Multiagentes de IA

Seu novo time 24/7, sem contratar ninguém.

Fale com nossos especialistas

A inteligência artificial está em cada vez mais lugares. Vemos chatbots sendo usados para interagir com clientes, processos sendo automatizados, dados analisados em volumes antes impensáveis e até mesmo IA sendo usada para otimizar linhas de código. Com a grande popularização da IA generativa, que trouxe ferramentas como GPT, Gemini e DeepSeek para o centro das atenções e acessíveis ao público geral, a sensação é de uma revolução que aconteceu da noite para o dia.

Está cada vez mais difícil detectar o que é ou não feito por um humano. Mas essa revolução não aconteceu de repente. A tecnologia que hoje parece mágica é o resultado de mais de 70 anos de ideias, teorias ousadas, becos sem saída e uma longa batalha entre diferentes visões sobre como uma máquina poderia "pensar". Para entender os caminhos que a tecnologia pode seguir, é útil compreender como chegamos até aqui.

Afinal, a pergunta que impulsionou esse campo não mudou desde 1950: "as máquinas podem pensar?".

O ponto de partida: o jogo da imitação

A origem prática da inteligência artificial remonta a 1943, quando Warren McCulloch e Walter Pitts criaram o modelo computacional de redes neurais, a descoberta que serve de base para todo o funcionamento da IA atual. No entanto, um dos principais destacados quando se fala da história dessa tecnologia é o do matemático britânico Alan Turing. Em 1950, muito antes de o termo "inteligência artificial" sequer existir, ele publicou um artigo que começava com aquela pergunta simples e perturbadora.

Para evitar o debate filosófico do que "pensar" realmente significa, ele propôs um experimento prático: o "jogo da imitação", hoje conhecido como o Teste de Turing.

A ideia de Alan era colocar um interrogador humano em uma sala de conversa por texto com outros dois participantes em outra sala. Desses dois outros participantes, um é um homem, o outro é uma mulher. O interrogador precisa descobrir quem é quem. Alan, então, propôs a variação: e se trocássemos um dos participantes por uma máquina?

Se o interrogador, após uma conversa, não conseguisse distinguir com segurança a máquina do humano, poderíamos concluir que a máquina era, para todos os efeitos, "inteligente".

Alan foi além. Ele previu que, em 50 anos (por volta dos anos 2000), os computadores teriam capacidade de armazenamento suficiente para que interrogadores não tivessem mais de 70% de chance de acertar o teste após cinco minutos de perguntas. Ele também antecipou o conceito de aprendizado de máquina, sugerindo que sistemas deveriam ser criados para aprender com os dados, como um "cérebro da criança" com "muitas folhas em branco".

Saiba mais sobre o aprendizado de máquina aqui.

O nascimento de um novo campo

Curiosamente, o termo que define nossa era não veio de Alan Turing. Ele foi cunhado em 1955, por John McCarthy, em uma proposta para um workshop de verão no Dartmouth College.

John, que inicialmente chamava o campo de automata studies (estudo de máquinas automáticas), percebeu que o nome não atraía atenção. Ele precisava de algo mais chamativo para conseguir financiamento e despertar a ambição científica. A escolha foi "inteligência artificial".

Nas palavras da jornalista Karen Hao, foi uma jogada de marketing. E funcionou. O novo termo deu identidade a uma disciplina nascente e passou a atrair recursos e prestígio. O workshop, realizado em 1956, é geralmente considerado a data oficial de nascimento do campo emergente da IA. Ali, em Dartmouth, nascia também o ciclo de promessas que acompanharia a IA por décadas.

Mas os pesquisadores logo se depararam com um problema fundamental: como exatamente se define inteligência e como podemos replicá-la em um computador?

Essa pergunta dividiu o campo em duas grandes escolas de pensamento, uma batalha que definiria o destino da IA por 50 anos.

Duas visões: simbolistas vs. conexionistas

A disputa era sobre a alma da própria IA.

1. Os simbolistas (A IA das regras)

O primeiro grupo, o dos simbolistas, acreditava que a inteligência vem do conhecimento.

Para eles, um cérebro artificial deveria ser construído codificando representações simbólicas do mundo. Em suma: se pudéssemos ensinar a uma máquina um gigantesco livro de regras sobre como o mundo funciona, ela poderia usar a lógica para deduzir respostas. Essa abordagem gerou os "sistemas especialistas" dos anos 80, como o DENDRAL, que automatizava o processo de tomada de decisão de químicos.

O exemplo mais famoso dessa abordagem foi o ELIZA, um chatbot criado em 1965 que simulava um psicoterapeuta usando regras simples. Ele basicamente repetia o que o usuário dizia em forma de pergunta.

"ELIZA: Tem algo incomodando você?

VOCÊ: Os homens são todos iguais.

ELIZA: Qual é a conexão, você supõe?

VOCÊ: Eles estão sempre nos incomodando por uma coisa ou outra.

ELIZA: Você consegue pensar em um exemplo específico?

VOCÊ: Bem, meu namorado me fez vir aqui.

ELIZA: É importante para você que seu namorado tenha feito você vir aqui?

VOCÊ: Ele diz que estou deprimida na maior parte do tempo.

ELIZA: Lamento saber que você está deprimida.

VOCÊ: É verdade. Eu estou infeliz."

O criador do chatbot ELIZA, Joseph Weizenbaum, ficou surpreso ao ver que os usuários atribuíam emoções semelhantes às humanas ao programa, levantando questões éticas sobre a interação.

2. Os conexionistas (a IA que aprende)

O outro grupo, o dos conexionistas, tinha uma ideia que hoje nos é muito mais familiar. Eles acreditavam que a inteligência vem do aprendizado, assim como o cérebro humano.

Em vez de regras, eles queriam construir sistemas que imitassem as conexões do cérebro, as redes neurais (partindo da teoria de Warren McCulloch e Walter Pitts, em 1943).

Saiba mais sobre as redes neurais aqui.

O pioneiro dessa visão foi Frank Rosenblatt, que em 1957 desenvolveu o Perceptron, uma rede neural inicial que "cometeria erros, mas ficaria mais inteligente na medida em que ganhasse experiência".

Era uma ideia revolucionária e estava 50 anos à frente de seu tempo. A abordagem conexionista tinha um problema fatal: exigia um poder computacional que não existia e, mais importante, volumes gigantescos de dados para "treinar" a rede. Nenhum dos dois estava disponível na época.

O "inverno da IA"

Com o tempo, a abordagem simbolista (como o ELIZA) mostrou-se limitada. Ela não conseguia lidar com a complexidade e as nuances do mundo real. A abordagem conexionista (como o Perceptron) era, na prática, inviável.

Devel News

Fique por dentro das novidades no mundo da tecnologia em suas tardes de quinta-feira com nossa newsletter.

Inscreva-se gratuitamente

As grandes promessas feitas na conferência de Dartmouth não se cumpriram.

Críticos começaram a aparecer. O filósofo Hubert Dreyfus publicou um estudo em 1965, argumentando que a mente humana opera de forma fundamentalmente diferente dos computadores. Em 1973, o matemático James Lighthill apresentou um relatório crítico apontando que a IA falhava em replicar a intuição humana e só funcionava em situações controladas, longe de alcançar os objetivos prometidos.

O resultado foi imediato: o financiamento desapareceu. A pesquisa em IA foi "congelada". Esse período de menor interesse e investimento ficou conhecido como o "inverno da IA".

O renascimento

O que tirou a IA do "inverno"? Duas coisas: jogos e a explosão da internet.

Os jogos sempre foram um campo de testes ideal para a IA, por serem ambientes complexos, mas com regras claras.

Em 1997, o Deep Blue da IBM derrotou o então campeão mundial de xadrez Garry Kasparov. No entanto, o verdadeiro avanço nas duas décadas seguintes aconteceu longe dos tabuleiros de xadrez e de forma mais silenciosa, com a construção dos alicerces algorítmicos e da infraestrutura da IA moderna. No mesmo ano de 1997, foi apresentada a LSTM (Long Short-Term Memory), um tipo de rede neural recorrente projetada para superar limitações na captura de dependências de longo prazo em dados. Pouco depois, em 1998, pesquisadores como Yann LeCun aplicaram com sucesso o algoritmo de retropropagação a redes neurais de múltiplas camadas para o reconhecimento de dígitos escritos à mão. O público, por sua vez, teve um primeiro contato com a IA em produtos de consumo, como o Furby, o primeiro animal de pelúcia robótico de sucesso comercial, que "aprendia" a linguagem ao interagir com o usuário.

A pesquisa sobre interação social também avançou; em 2000, Cynthia Breazeal, do MIT, desenvolveu o Kismet, um robô projetado para interagir com humanos usando sinais emocionais e sociais. O campo estava se especializando, mas foi em 2006 que Geoffrey Hinton publicou um artigo fundamental descrevendo como as redes neurais poderiam ser treinadas de forma mais eficaz, reacendendo o interesse no que hoje chamamos de aprendizado profundo.

Para o aprendizado profundo funcionar, ele precisava de duas coisas que os "conexionistas" dos anos 60 não tinham: dados e poder computacional. A parte dos dados começou a ser resolvida em 2007, quando Fei-Fei Li e sua equipe iniciaram o projeto ImageNet, um banco de dados gigantesco de milhões de imagens anotadas, projetado para apoiar o desenvolvimento de software de reconhecimento de objetos visuais. A parte do poder computacional teve seu momento em 2009, quando pesquisadores, incluindo Andrew Ng, publicaram um artigo demonstrando que as GPUs (unidades de processamento gráfico) poderiam superar massivamente as CPUs para tarefas de aprendizado profundo.

Em 2011, o Watson da IBM derrotou campeões humanos no Jeopardy, demonstrando uma capacidade impressionante de processar e interpretar a linguagem natural. O ponto de virada definitivo para a pesquisa veio em 2012. Primeiro, um experimento de Jeff Dean e Andrew Ng com uma rede neural massiva em vídeos do YouTube demonstrou o aprendizado não supervisionado, quando um neurônio aprendeu a reconhecer imagens de gatos por conta própria. Segundo, a AlexNet, uma rede neural convolucional da equipe de Geoffrey Hinton, alcançou resultados inovadores no desafio ImageNet, provando que as redes neurais convolucionais poderiam superar os métodos tradicionais de visão computacional.

Esse foi o período que solidificou o aprendizado profundo como a abordagem dominante. O cenário estava pronto para a próxima fase: em 2015, a OpenAI foi fundada. E em 2016, o AlphaGo do Google DeepMind usou essas técnicas de aprendizado profundo para derrotar Lee Sedol, o campeão mundial de Go, um jogo considerado muito mais complexo que o xadrez.

O que, de fato, mudou entre 1997 e 2016?

A explosão da internet, das redes sociais e das GPUs (unidades de processamento gráfico) foram os fatores que mudaram completamente o cenário. De repente, os conexionistas tinham exatamente o que lhes faltava nos anos 50:

  • Dados Massivos: A internet forneceu bilhões de imagens e textos para treinar as redes.
  • Poder Computacional: As GPUs, originalmente feitas para jogos, mostraram-se perfeitas para os cálculos que as redes neurais exigem.

A ideia rejeitada de Frank Rosenblatt estava finalmente pronta para o mundo.

A revolução “transformer” e a IA generativa

O último pilar da revolução atual foi erguido em 2017. Pesquisadores do Google apresentaram a arquitetura “transformer”, uma rede neural capaz de captar o contexto de uma frase, olhando para o todo em vez de palavra por palavra. O artigo tinha um título que definiria a próxima década: "Attention is All You Need" ("Atenção é tudo de que você precisa").

Foi aí que a OpenAI, então uma organização menor, viu um potencial que ia muito além da tradução. Eles pegaram a ideia do transformer e a treinaram com mais de sete mil livros (de um dataset chamado BooksCorpus), forçando a máquina a "condensar conhecimento sobre o mundo" para gerar texto convincente.

A consequência disso foi o GPT-1 (Generative Pre-trained Transformer) em 2018 e, posteriormente, o GPT-3 em 2020, com 175 bilhões de parâmetros.

O futuro em construção

Se as décadas anteriores construíram os alicerces, o período a partir de 2021 marcou a explosão pública da IA, movida principalmente pelos avanços em modelos generativos. O lançamento do GPT-3.5 pela OpenAI em 2022, que se tornou a base do popular ChatGPT, foi o momento em que o "Jogo da Imitação" de Turing foi apresentado ao público em massa. Outras ferramentas de IA também foram desenvolvidas, como a Claude, da empresa Anthropic, o Gemini, da empresa Google, e a DeepSeek.

A evolução tecnológica tornou-se multitarefa e multimodal. O Google lançou o MUM (Multitask Unified Model), projetado para compreender e gerar linguagem em 75 idiomas, analisando texto, imagens e vídeos simultaneamente. Paralelamente, a IA avançava em aplicações físicas: a Tesla lançou o Full Self-Driving (FSD) Beta, um sistema avançado de assistência ao motorista que utiliza aprendizado profundo para navegar em cenários de direção complexos.

O ano de 2024 demonstrou uma aceleração sem precedentes. Entre as notícias, estavam:

  • O Google lançou o Gemini 1.5 em beta, um modelo de linguagem avançado capaz de lidar com comprimentos de contexto de até 1 milhão de tokens.
  • A OpenAI anunciou o Sora, um modelo de texto para vídeo capaz de gerar clipes dinâmicos de até um minuto.

A IA também se aprofundou na ciência. Em maio de 2024, o Google DeepMind revelou uma nova extensão do AlphaFold que ajuda a identificar câncer e doenças genéticas. Em 2025, foi possível observar o avanço da IA agêntica e o lançamento de modelos generativos mais robustos, como o Veo 3 e o Nano Banana do Google, para geração de vídeos e geração e edição de imagens, respectivamente, ambos com alto padrão de realismo.

A jornada da IA, das previsões de Turing ao "inverno" e ao renascimento com os Transformers, mostra que a tecnologia atual é uma evolução de muitas décadas.

Como afirmam pesquisadores, a história da IA ainda está por ser construída de forma rigorosa. O que vemos hoje é mais um capítulo dessa longa busca para entender se, como e até que ponto as máquinas podem pensar como humanos.

Seu parceiro de negócios

Gostaria de ter soluções de IA aumentando a produtividade do seu negócio?

Fale com nossos especialistas

Referências: A história da inteligência artificial | IBMInteligência artificial: máquinas podem pensar? Os 70 anos de história que resultaram nos dias atuais - BBC News Brasil

Post atualizado em 05 de Janeiro de 2026

Compartilhe: