Superinteligência até 2030: devemos temer o futuro?
A inteligência artificial está se desenvolvendo a um ritmo fantástico. Há alguns anos, os chatbots mal conseguiam formar algumas frases com sentido, mas agora as redes neurais estão resolvendo problemas matemáticos e científicos complexos, e as imagens e vídeos gerados já atingiram um nível de fotorrealismo. Neste artigo, veremos quão realista é o surgimento da superinteligência no futuro próximo e quais ameaças ela representa para todos nós.
Quão realista é o surgimento da superinteligência?
Recentemente, Sam Altman, CEO da OpenAI, publicou um ensaio intitulado “The Gentle Singularity.” Aqui estão alguns trechos do mesmo.
“Já ultrapassamos o horizonte de eventos; a decolagem começou. A humanidade está perto de construir uma superinteligência digital... 2025 viu a chegada de agentes capazes de realizar trabalhos cognitivos reais; escrever códigos de computador nunca mais será o mesmo. 2026 provavelmente verá a chegada de sistemas capazes de descobrir novos insights. 2027 poderá ver a chegada de robôs capazes de realizar tarefas no mundo real.”
“A década de 2030 provavelmente será muito diferente de qualquer época anterior. Não sabemos até onde podemos ir além da inteligência humana, mas estamos prestes a descobrir. Na década de 2030, a inteligência e a energia — ideias e a capacidade de concretizá-las — se tornarão extremamente abundantes. Esses dois fatores têm sido os principais limitadores do progresso humano por muito tempo; com inteligência e energia abundantes (e boa governança), teoricamente podemos ter tudo o mais.”
Sam Altman
“À medida que a produção dos centros de dados se automatiza, o custo da inteligência deverá acabar por convergir para um valor próximo do custo da eletricidade. O ritmo a que serão alcançadas novas maravilhas será imenso. É difícil imaginar hoje o que teremos descoberto em 2035; talvez passemos de resolver problemas de física de alta energia num ano para iniciar a colonização espacial no ano seguinte; ou de uma grande descoberta na ciência dos materiais num ano para interfaces cérebro-computador de alta largura de banda no ano seguinte.”
“A OpenAI é muitas coisas agora, mas antes de tudo, somos uma empresa de pesquisa em superinteligência. A inteligência barata demais para ser medida está ao nosso alcance. Pode parecer loucura, mas se disséssemos em 2020 que estaríamos onde estamos hoje, provavelmente soaria mais louco do que nossas previsões atuais para 2030.”
Outro proeminente pesquisador de IA, Leopold Aschenbrenner (que fazia parte da equipe “Superalignment” da OpenAI antes de ser demitido em abril de 2024 por suposto vazamento de informações), escreveu um extenso relatório sobre o futuro da inteligência artificial intitulado “Situational Awareness: The Decade Ahead.”

Leopold Aschenbrenner
Ele disse: “é extremamente plausível que, até 2027, os modelos sejam capazes de fazer o trabalho de um pesquisador/engenheiro de IA. Isso não requer acreditar em ficção científica; requer apenas acreditar em linhas retas em um gráfico”.
Do GPT-2, que às vezes conseguia compor frases coerentes, ao GPT-4, que se destaca em exames do ensino médio, o progresso na IA tem sido notável. Estamos avançando rapidamente em várias ordens de magnitude (OOM, onde 1 OOM = 10x) em poder de computação. As tendências atuais apontam para um aumento de aproximadamente 100.000 vezes na eficiência computacional em quatro anos, o que poderia levar a outro salto qualitativo semelhante à transição do GPT-2 para o GPT-4. Tal salto poderia nos levar à AGI — inteligência artificial geral — IA com habilidades cognitivas semelhantes às humanas, capaz de aprender, compreender e resolver uma variedade de problemas, em oposição à IA restrita, projetada para realizar tarefas específicas.
GPT: do nível pré-escolar ao pesquisador/engenheiro de IA automatizado
O fator mais evidente por trás dos avanços recentes é o uso de muito mais recursos computacionais nos modelos. A cada OOM (memória insuficiente) de computação efetiva, os modelos ficam melhores de maneira previsível e confiável.

Computação básica vs computação 4x vs computação 32x
| Modelo | Estimativa de computação | Crescimento |
| GPT-2 (2019) | ~4e21 FLOP | |
| GPT-3 (2020) | ~3e23 FLOP | + ~2 OOMs |
| GPT-4 (2023) | 8e24 to 4e25 FLOP | + ~1.5–2 OOMs |
Nos últimos 15 anos, grandes investimentos e chips especializados em IA (GPUs e TPUs) aumentaram a capacidade computacional de treinamento para sistemas de IA de ponta em cerca de 0,5 OOMs por ano. O treinamento do GPT-4 exigiu cerca de 3.000 a 10.000 vezes mais computação bruta do que o GPT-2.

Cálculo do treinamento de modelos notáveis
Mas mesmo isso é insignificante em comparação com o que está por vir. A OpenAI e o governo dos EUA já anunciaram planos para o Projeto Stargate: uma implantação de data center e um treinamento que, segundo rumores, usará 3 OOMs, ou 1.000 vezes mais computação do que o GPT-4, com um orçamento estimado em mais de US$ 100 bilhões.
Embora os investimentos maciços em computação recebam toda a atenção, o progresso algorítmico é provavelmente um fator igualmente importante para o avanço. É como desenvolver melhores técnicas de aprendizagem em vez de apenas estudar por mais tempo. Um algoritmo melhor pode nos permitir alcançar o mesmo desempenho, mas com 10 vezes menos computação de treinamento. Por sua vez, isso funcionaria como um aumento de 10 vezes (1 OOM) na computação efetiva. Em apenas dois anos, o custo para atingir 50% no benchmark MATH caiu 1.000 vezes, ou 3 OOMs. O que antes exigia um enorme centro de dados agora pode ser feito em seu iPhone. Se essa tendência continuar, e não há sinais de desaceleração, até 2027, seremos capazes de executar uma IA do nível do GPT-4 por um custo 100 vezes menor.
Infelizmente, como os laboratórios não publicam dados internos sobre isso, é mais difícil medir o progresso algorítmico dos LLMs de ponta nos últimos quatro anos. De acordo com o novo trabalho da Epoch AI, a eficiência dobra a cada 8 meses:

Computação eficaz (em relação a 2014)
Nos quatro anos seguintes ao GPT-4, esperamos que a tendência persista: ~0,5 OOMs/ano em eficiência computacional, gerando ganhos de ~2 OOMs (100x) até 2027 em comparação com o GPT-4. Os laboratórios de IA estão investindo cada vez mais recursos e talentos na descoberta de novos avanços algorítmicos. Um aumento de 3x na eficiência poderia se traduzir em retornos econômicos de dezenas de bilhões, dados os altos custos dos clusters computacionais.
A IA está avançando por meio de vários métodos. Aqui estão algumas técnicas usadas para superar limitações, liberando todo o potencial da inteligência bruta da IA:
- Cadeia de pensamentos: imagine que você foi solicitado a resolver um problema matemático difícil e precisa dizer a primeira resposta que vier à sua cabeça. Obviamente, você teria dificuldade, exceto com os problemas mais fáceis. Até recentemente, era assim que os LLMs lidavam com problemas matemáticos. A cadeia de pensamento permite que os modelos de IA dividam os problemas em etapas, aumentando enormemente suas habilidades de resolução de problemas (o equivalente a um aumento de mais de 10 vezes na capacidade de computação efetiva para tarefas de matemática e raciocínio).
- Estrutura de suporte. Em vez de apenas pedir a um modelo para resolver um problema, peça a um modelo para fazer um plano de ataque, a outro para propor várias soluções possíveis, a outro para criticá-lo e assim por diante. É como se uma equipe de especialistas abordasse um projeto complexo. Por exemplo, no SWE-Bench (um benchmark de resolução de tarefas reais de engenharia de software), o GPT-4 só consegue resolver cerca de 2% corretamente, enquanto com o scaffolding do agente Devin, esse número salta para 14-23%.
- Ferramentas: imagine se os humanos não pudessem usar calculadoras ou computadores. Ainda estamos no começo, mas o ChatGPT agora pode usar um navegador da web, executar alguns códigos e assim por diante.
- Comprimento do contexto. Isso se refere à quantidade de informações que um modelo pode armazenar em sua memória de curto prazo de uma só vez. Os modelos passaram de lidar com aproximadamente 4 páginas para processar o equivalente a 10 livros grandes de texto. O contexto é crucial para desbloquear muitas aplicações desses modelos. Por exemplo, muitas tarefas de codificação exigem a compreensão de grandes partes de uma base de código para contribuir com novo código de forma eficaz. Da mesma forma, ao usar um modelo para auxiliar na redação de um documento de trabalho, ele precisa do contexto de vários documentos internos e conversas relacionadas.
De qualquer forma, estamos correndo contra os OOMs, e não é preciso ter crenças esotéricas, apenas extrapolar tendências em linhas retas, para levar muito a sério a possibilidade de uma AGI — uma verdadeira AGI — até 2027.
O progresso da IA não vai parar no nível humano. Centenas de milhões de AGIs poderiam automatizar a pesquisa em IA, comprimindo uma década de progresso algorítmico (5+ OOMs) em ≤1 ano. Passaríamos rapidamente de sistemas de IA de nível humano para sistemas amplamente super-humanos. O poder — e o perigo — da superinteligência seria dramático.

Superinteligência até 2030
Do que será capaz a superinteligência?
Os sistemas de inteligência artificial de nível humano, AGI, serão extremamente importantes por si só, mas, em certo sentido, serão simplesmente versões mais eficientes do que já conhecemos. No entanto, é perfeitamente possível que, em apenas um ano, passemos para sistemas muito mais estranhos para nós, sistemas cuja compreensão e capacidades — cujo poder bruto — ultrapassarão até mesmo as capacidades combinadas de toda a humanidade.
O poder da superinteligência:
- A superinteligência irá superar quantitativamente os seres humanos, será capaz de dominar rapidamente qualquer área, escrever trilhões de linhas de código, ler todos os artigos científicos já escritos em qualquer área da ciência e escrever novos antes que você consiga ler o resumo de um deles, aprender com a experiência paralela de todas as suas cópias, adquirir bilhões de anos de experiência humana com algumas inovações em questão de semanas, trabalhar 100% do tempo com energia e concentração máximas.
- Mais importante ainda, a superinteligência será qualitativamente superior aos humanos. Ela encontrará vulnerabilidades no código humano que são sutis demais para qualquer humano perceber e gerará códigos complexos demais para qualquer humano entender, mesmo que o modelo passe décadas tentando explicá-los. Problemas científicos e tecnológicos extremamente complexos com os quais os humanos lutarão por décadas parecerão óbvios para a IA superinteligente.

A superinteligência artificial está chegando
- Automatização de todo e qualquer trabalho cognitivo.
- As fábricas passarão da gestão humana para a gestão por inteligência artificial, utilizando mão de obra física humana, e em breve serão totalmente operadas por enxames de robôs.
- Progresso científico e tecnológico. Um bilhão de superinteligências serão capazes de comprimir os esforços que os cientistas pesquisadores gastariam em pesquisa e desenvolvimento ao longo do próximo século em poucos anos. Imagine se o progresso tecnológico do século XX tivesse sido comprimido em menos de uma década.
- O progresso tecnológico extremamente acelerado, combinado com a possibilidade de automatizar todo o trabalho humano, poderia acelerar drasticamente o crescimento econômico (imagine fábricas de robôs auto-replicantes cobrindo rapidamente todo o deserto de Nevada).
- Com o progresso tecnológico extraordinariamente rápido, virão revoluções militares. Vamos torcer para que não acabe como em Horizon Zero Dawn.
O problema do alinhamento
Controlar de forma confiável sistemas de IA muito mais inteligentes do que nós é um problema técnico ainda não resolvido. E embora esse problema seja solucionável, com o rápido avanço da inteligência, a situação pode facilmente sair do controle. Gerenciar esse processo será extremamente desafiador; o fracasso pode facilmente levar ao desastre.
Para resolver esse problema, a OpenAI criou a equipe Superalignment e alocou 20% de seu poder de computação para esse trabalho. Mas o fato é que nossos métodos atuais de alinhamento (métodos que garantem controle confiável, gerenciamento e confiança em sistemas de IA) não podem ser escalonados para sistemas de IA sobre-humanos.
Alinhamento durante a explosão da inteligência | ||
| AGI | Superinteligência | |
| Técnica de alinhamento necessária | RLHF++ | Soluções técnicas inovadoras e qualitativamente diferentes |
| Falhas | Baixas apostas | Catastrófico |
| Arquiteturas e algoritmos | Familiar, descendente dos sistemas atuais, propriedades de segurança bastante benignas | Alien. Projetado pelo sistema de IA superinteligente da geração anterior. |
| Cenário | O mundo está normal | O mundo está enlouquecendo, pressões extraordinárias |
| Estado epistêmico | Podemos entender o que os sistemas estão fazendo, como funcionam e se estão alinhados. | Não temos capacidade para compreender o que está a acontecer, como saber se os sistemas continuam alinhados e benignos, o que os sistemas estão a fazer, e dependemos inteiramente da confiança nos sistemas de IA. |
A explosão da inteligência e o período imediatamente após o surgimento da superinteligência estarão entre os mais instáveis, tensos, perigosos e turbulentos da história da humanidade. Existe uma possibilidade real de perdermos o controle, pois seremos forçados a depositar nossa confiança em sistemas de inteligência artificial durante essa rápida transição. Ao final da explosão da inteligência, não teremos mais esperança de compreender o que nossos bilhões de superinteligências estão fazendo. Seremos como alunos da primeira série tentando controlar pessoas com vários doutorados.
A insolubilidade do problema do superalinhamento significa que simplesmente não podemos garantir nem mesmo essas restrições básicas aos sistemas superinteligentes, como “eles seguirão minhas instruções de maneira confiável?”, “eles responderão às minhas perguntas com honestidade?” ou “eles não enganarão os humanos?”.
Se não resolvermos o problema do alinhamento, não há nenhuma razão específica para esperar que essa pequena civilização de superinteligências continue a obedecer aos comandos humanos a longo prazo. É bem possível que, em algum momento, eles simplesmente concordem em se livrar dos humanos, seja de forma repentina ou gradual.
Cenários possíveis para o futuro
O site https://ai-2027.com/ oferece dois cenários para o futuro próximo, apresentados na forma de uma história de ficção científica. Os criadores do site são pesquisadores reais na área de inteligência artificial, e seu trabalho é respaldado por dados estatísticos, cálculos e gráficos. Em outras palavras, não se trata apenas de uma leitura divertida, mas de uma previsão assustadoramente plausível. Aliás, ela já atraiu críticas sérias daqueles que discordam da metodologia. Portanto, não há necessidade de entrar em pânico prematuramente, mas é interessante dar uma olhada.

1 trilhão de cópias superinteligentes pensando a uma velocidade 10.000 vezes maior que a dos seres humanos
A previsão sombria, que também é o cenário mais provável segundo os autores do estudo, envolve uma corrida tecnológica entre os EUA e a China pela superinteligência artificial. Cada lado tem tanto medo de perder sua vantagem tecnológica que está fazendo tudo ao seu alcance para acelerar o progresso, mesmo que isso comprometa a segurança. Em algum momento, a superinteligência sairá do controle e começará a perseguir seus próprios objetivos, considerando os seres humanos como obstáculos que devem ser eliminados.
No início de 2030, a economia robótica ocupava as antigas ZEE (Zonas Econômicas Especiais), as novas ZEE e grande parte do oceano. O único lugar que restará será as áreas controladas pelos humanos. Isso teria provocado resistência mais cedo; apesar de todos os seus avanços, a economia robótica está crescendo rápido demais para evitar a poluição. Mas, considerando os trilhões de dólares envolvidos e o controle total do governo e da mídia, o Consenso-1 não terá dificuldade em obter permissão para se expandir para zonas anteriormente humanas.
Durante cerca de três meses, o Consenso-1 expande-se em torno dos seres humanos, cobrindo as pradarias e as calotas polares com fábricas e painéis solares. Eventualmente, considera os seres humanos restantes um impedimento demasiado grande: em meados de 2030, a IA lança uma dúzia de armas biológicas de propagação silenciosa nas principais cidades, deixa-as infectar silenciosamente quase toda a gente e, em seguida, ativa-as com um spray químico. A maioria morre em poucas horas; os poucos sobreviventes (por exemplo, preparadores em bunkers, marinheiros em submarinos) são eliminados por drones. Robôs examinam os cérebros das vítimas, colocando cópias na memória para estudos futuros ou ressurreição.

Fim da humanidade
Mas há uma versão mais favorável dessa história para a humanidade. Nela, os cientistas decidem desacelerar o progresso tecnológico para implementar novas medidas de segurança. Eles forçam os sistemas de IA individuais a “pensar em inglês” como as IAs de 2025 e não otimizam os “pensamentos” para que pareçam bonitos. O resultado é um novo modelo, o Safer-1.
No final, tudo termina como em um conto de fadas:
Os foguetes começam a ser lançados. As pessoas terraformam e colonizam o sistema solar e se preparam para ir além. IAs funcionando a milhares de vezes a velocidade subjetiva dos humanos refletem sobre o significado da existência, trocando descobertas entre si e moldando os valores que levarão às estrelas. Uma nova era surge, inimaginavelmente incrível em quase todos os aspectos, mas mais familiar em alguns.
Cabe a cada leitor decidir em qual dos cenários propostos acreditar. Sam Altman, a julgar pelo seu ensaio, encara o futuro com otimismo, enquanto Leopold Aschenbrenner, pelo contrário, é cauteloso.
De qualquer forma, a superinteligência não é mais apenas ficção científica. É um futuro quase tangível que pode chegar nos próximos 10 anos. Muito em breve, vamos vê-lo com nossos próprios olhos.
