Ao rever os 80 anos de desenvolvimento da IA, estas 5 lições históricas são dignas de serem aprendidas.

Autor: Gil Press

Compilado por: Felix, PANews

No dia 9 de julho de 2025, a Nvidia tornou-se a primeira empresa listada a alcançar uma capitalização de mercado de 4 trilhões de dólares. Para onde irão a Nvidia e o volátil campo da IA a seguir?

Apesar de prever ser difícil, há uma grande quantidade de dados disponíveis. Pelo menos ajuda a entender porque as previsões anteriores não se concretizaram, assim como em que aspectos, de que forma e por quais razões não se realizaram. Esta é a história.

Quais lições podem ser aprendidas ao longo dos 80 anos de desenvolvimento da inteligência artificial (IA)? Durante este período, os investimentos financeiros oscilaram, os métodos de pesquisa e desenvolvimento foram variados, e o público alternou entre a curiosidade, a ansiedade e a empolgação.

A história da IA começou em dezembro de 1943, quando o neurofisiologista Warren S. McCulloch e o lógico Walter Pitts publicaram um artigo sobre lógica matemática. No artigo "Cálculo lógico de conceitos inatos na atividade neural", eles especularam sobre redes de neurônios idealizadas e simplificadas, e como elas realizam operações lógicas simples ao transmitir ou não pulsos.

Na época, Ralph Lillie, que estava a criar o campo da química organizacional, descreveu o trabalho de McCulloch e Pitts como a atribuição de ‘realidade’ a ‘modelos lógicos e matemáticos’ na ausência de ‘fatos experimentais’. Mais tarde, quando as hipóteses do artigo não conseguiram passar pela verificação empírica, Jerome Lettvin do MIT apontou que, embora os campos da neurologia e neurobiologia ignorassem este artigo, ele inspirou “aqueles que estavam destinados a se tornar parte da nova área (agora chamada de IA) de entusiastas.”

Na verdade, os trabalhos de McCulloch e Pitts inspiraram o "conexionalismo", uma variante específica da IA que hoje domina, sendo atualmente chamada de "aprendizado profundo", que recentemente foi renomeada como "IA". Embora essa abordagem não tenha nenhuma relação com a maneira como o cérebro realmente funciona, o método de análise estatística que sustenta essa variante de IA — "redes neurais artificiais" — é frequentemente descrito por profissionais e comentaristas de IA como "imitação do cérebro". Autoridades e principais profissionais de IA, como Demis Hassabis, afirmaram em 2017 que a descrição fictícia de McCulloch e Pitts sobre o funcionamento do cérebro e pesquisas semelhantes "continuam a fundamentar a pesquisa contemporânea em aprendizado profundo".

Lição Um**: É preciso ter cuidado para não confundir engenharia com ciência, ciência com especulação, e ciência com artigos repletos de símbolos matemáticos e fórmulas. O mais importante é resistir à tentação da ilusão de que "somos como deuses", ou seja, a crença de que os humanos são indistinguíveis das máquinas e que os humanos podem criar máquinas que se comportem como humanos.**

Essa arrogância teimosa e generalizada tem sido, nos últimos 80 anos, um catalisador para a bolha tecnológica e o entusiasmo cíclico da IA.

Isto faz-me lembrar a ideia da IA geral (AGI), ou seja, máquinas que em breve terão inteligência semelhante à humana ou até mesmo superinteligência.

Em 1957, o pioneiro da IA, Herbert Simon, afirmou: "Hoje em dia, já existem máquinas que podem pensar, aprender e criar." Ele também previu que em dez anos os computadores se tornariam campeões de xadrez. Em 1970, outro pioneiro da IA, Marvin Minsky, declarou com confiança: "Dentro de três a oito anos, teremos uma máquina com inteligência comparável à de um ser humano... uma vez que os computadores dominem a situação, pode ser que nunca mais consigamos recuperá-la. Nós dependeremos de seus dons para viver. Se tivermos sorte, eles podem decidir nos tratar como animais de estimação."

A expectativa em torno do surgimento da IA geral é extraordinária, podendo até influenciar os gastos e políticas do governo. Em 1981, o Japão alocou 850 milhões de dólares para o projeto de quinta geração de computadores, com o objetivo de desenvolver máquinas que pensassem como os humanos. Em resposta, a Agência de Projetos de Pesquisa Avançada de Defesa dos EUA, após um longo período de "inverno da IA", planejou, em 1983, reembolsar a pesquisa em IA, com o intuito de desenvolver máquinas que pudessem "ver, ouvir, falar e pensar como os humanos".

Governos esclarecidos em todo o mundo levaram cerca de dez anos e dezenas de bilhões de dólares para não apenas ter uma compreensão clara da Inteligência Artificial Geral (AGI), mas também reconhecer as limitações da Inteligência Artificial tradicional. Mas, em 2012, o conexionismo finalmente superou outras vertentes da IA, e uma nova onda de previsões sobre a iminente chegada da Inteligência Artificial Geral varreu o mundo. A OpenAI declarou em 2023 que a IA superinteligente - "a invenção mais influente da história da humanidade" - pode chegar dentro desta década e "pode levar à perda de poder da humanidade, ou até mesmo à extinção da humanidade."

Lição** Dois: Cuidado com aquelas novas coisas brilhantes e atraentes, é necessário examiná-las de forma cuidadosa, cautelosa e sábia. Elas podem não ser muito diferentes das várias suposições anteriores sobre quando as máquinas poderão ter uma inteligência semelhante à humana.**

Um dos "pais" do deep learning, Yann LeCun, afirmou: "Para que as máquinas aprendam de forma eficiente como os humanos e os animais, ainda nos faltam algumas coisas essenciais, só que atualmente não sabemos o que são."

Durante anos, a Inteligência Artificial Geral (AGI) tem sido anunciada como "iminente", tudo isso devido ao "erro do primeiro passo". Yehoshua Bar-Hillel, um dos pioneiros da tradução automática, foi uma das primeiras pessoas a discutir as limitações da inteligência das máquinas, apontando que muitas pessoas acreditam que, se alguém demonstrar que um computador pode realizar uma tarefa que até recentemente era considerada impossível, mesmo que o faça muito mal, basta um desenvolvimento técnico adicional para que ele a realize perfeitamente. Há uma crença generalizada de que, com paciência, será possível alcançar esse objetivo. No entanto, Bar-Hillel já alertava na metade da década de 1950 que a realidade não era assim, e a realidade tem se provado repetidamente o contrário.

Lição três: A distância de não conseguir fazer algo para fazer mal geralmente é muito menor do que a distância de fazer mal para fazer muito bem.

Na década de 1950 e 1960, devido ao aumento da velocidade de processamento dos semicondutores que impulsionavam os computadores, muitas pessoas caíram na "falácia do primeiro passo". À medida que o hardware se desenvolvia anualmente ao longo da trajetória ascendente confiável da "Lei de Moore", acreditava-se amplamente que a inteligência das máquinas também se desenvolveria em sincronia com o hardware.

No entanto, além da melhoria contínua do desempenho do hardware, o desenvolvimento da IA entrou em uma nova fase, introduzindo dois novos elementos: software e coleta de dados. Desde meados da década de 1960, os sistemas especialistas (nota: um sistema de programa de computador inteligente) passaram a focar na aquisição e programação do conhecimento do mundo real, especialmente o conhecimento de especialistas em campos específicos, bem como suas regras de experiência (métodos heurísticos). Os sistemas especialistas tornaram-se cada vez mais populares e, na década de 1980, estimava-se que dois terços das empresas da lista Fortune 500 aplicavam essa tecnologia em suas atividades comerciais diárias.

No entanto, no início da década de 90, essa onda de IA entrou em colapso. Muitas startups de IA fecharam, e grandes empresas congelaram ou cancelaram seus projetos de IA. Já em 1983, o pioneiro dos sistemas especialistas Ed Feigenbaum apontou o "gargalo crítico" que levou à sua extinção: a expansão do processo de aquisição de conhecimento, "que é um processo muito trabalhoso, demorado e caro."

Os sistemas especialistas também enfrentam o desafio da acumulação de conhecimento. A necessidade de adicionar e atualizar regras torna-os difíceis de manter e caros. Eles também expõem as falhas das máquinas de pensamento em comparação com a inteligência humana. Elas são "fracas", cometendo erros absurdos diante de entradas incomuns, incapazes de transferir seu conhecimento especializado para novos domínios e carecendo de compreensão do mundo ao seu redor. Em um nível fundamental, elas não conseguem aprender como os humanos a partir de exemplos, experiências e do ambiente.

Lição Quatro: O sucesso inicial, ou seja, a ampla adoção por empresas e instituições governamentais, bem como um grande investimento público e privado, mesmo após dez ou quinze anos, pode não ser suficiente para criar uma "nova indústria" duradoura. As bolhas costumam estourar.**

Em meio a altos e baixos, especulações e frustrações, duas abordagens de desenvolvimento de IA diametralmente opostas têm disputado a atenção da academia, de investidores públicos e privados, e da mídia. Durante mais de quarenta anos, a abordagem de IA simbólica baseada em regras tem dominado. No entanto, o conexionismo, impulsionado por análises estatísticas e baseado em exemplos, como outra abordagem principal de IA, também teve um breve período de destaque e foi muito procurado no final da década de 1950 e no final da década de 1980.

Antes do renascimento do conexionismo em 2012, a pesquisa e o desenvolvimento de IA eram principalmente impulsionados pela academia. A academia é caracterizada pela prevalência de dogmas (o que se chama de "ciência convencional"), e sempre houve uma escolha dicotômica entre IA simbolista e conexionista. Em 2019, Geoffrey Hinton, em seu discurso do Prêmio Turing, passou a maior parte do tempo falando sobre as dificuldades que ele e alguns poucos entusiastas do aprendizado profundo enfrentaram nas mãos dos acadêmicos de IA e aprendizado de máquina convencionais. Hinton também desmereceu deliberadamente o aprendizado por reforço e o trabalho de seus colegas na DeepMind.

Apenas alguns anos depois, em 2023, a DeepMind assumiu os negócios de IA da Google (Hinton também saiu de lá), principalmente em resposta ao sucesso da OpenAI, que também incorporou o aprendizado por reforço como um componente do seu desenvolvimento de IA. Os dois pioneiros do aprendizado por reforço, Andrew Barto e Richard Sutton, receberam o Prêmio Turing em 2025.

No entanto, atualmente não há sinais de que, seja a DeepMind ou a OpenAI, ou mesmo as numerosas empresas "unicórnio" dedicadas à inteligência artificial geral (AGI), seu foco esteja além do paradigma dos grandes modelos de linguagem que atualmente prevalece. Desde 2012, o foco do desenvolvimento da IA mudou do meio acadêmico para o setor privado; no entanto, todo o campo ainda se apega a uma única direção de pesquisa.

Lição Cinco: Não coloque todos os "ovos" de IA no mesmo "cesto".

Sem dúvida, Jensen Huang é um CEO excecional, e a Nvidia é uma empresa excecional. Há mais de dez anos, quando a oportunidade da IA surgiu de repente, a Nvidia rapidamente aproveitou essa oportunidade, pois a capacidade de processamento paralelo de seus chips (originalmente projetados para renderizar jogos de vídeo de forma eficiente) é muito adequada para cálculos de aprendizagem profunda. Jensen Huang mantém-se sempre alerta, ele disse aos funcionários: "A nossa empresa está a apenas 30 dias da falência."

Além de manter a vigilância (lembram-se da Intel?), as lições aprendidas ao longo dos 80 anos de desenvolvimento da IA podem também ajudar a NVIDIA a navegar com segurança pelas oscilações dos próximos 30 dias ou 30 anos.

Leitura adicional: uma visão geral das 10 empresas e modelos de IA que definem a atual revolução da IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)