🚀 Essa semana, durante uma reunião informal com meus sócios na GAUTICA — Éderson e Estevan — começamos falando sobre as novidades em Inteligência Artificial... e logo estávamos mergulhados em um daqueles assuntos que parecem ficção, mas são realidade: Stargate. Não o da TV — mas os dois mega projetos de infraestrutura de IA que estão sendo erguidos nos Estados Unidos (Texas) e nos Emirados Árabes (Abu Dhabi), com bilhões de dólares, centenas de milhares de GPUs e ambições de hospedar os modelos mais poderosos do planeta.

Só para você ter uma ideia: o Stargate UAE (Emirados Árabes) será operado pela Oracle e ocupará 26 km² de deserto, com consumo de até 5 gigawatts — isso é coisa de país, não de empresa.

E nos EUA, o Stargate Texas — também liderado pela OpenAI e parceiros como Microsoft e NVIDIA — já está em construção com a promessa de ser o maior centro de computação para IA do mundo ocidental.

É inevitável que, ao olhar para tudo isso, a pergunta venha à mente: será que estamos mesmo prestes a alcançar a AGI — a famosa Inteligência Artificial Geral?

No artigo a seguir, eu explico em 8 tópicos o que falta de verdade para chegarmos lá — além da infraestrutura. E por que, apesar do hype, a AGI ainda exige muito mais do que chips de última geração.

Você já tentou conversar com um chatbot e, minutos depois, percebeu que ele esqueceu completamente o que foi dito antes? Isso acontece porque, apesar de parecerem inteligentes, os modelos de IA atuais ainda não têm memória de longo prazo real. Cada conversa começa do zero. Eles não guardam contexto, não lembram de aprendizados anteriores e, principalmente, não mantêm metas persistentes ao longo do tempo — como nós, humanos, fazemos naturalmente.

É como se cada vez que você abrisse um chat, estivesse falando com alguém que sofreu amnésia profunda. E para que a AGI aconteça de verdade, isso precisa mudar. Uma inteligência geral precisa raciocinar com base em experiências passadas, aprender com erros anteriores e lembrar do que você disse ontem — ou há um ano.

No fundo, o que falta é o que nos torna humanos: continuidade, história, intenção. Ainda estamos ensinando essas máquinas a formar algo próximo de uma “mente”. E esse é só o primeiro passo.

Modelos de IA hoje são ótimos em reconhecer padrões: completam frases, sugerem códigos, até escrevem textos surpreendentes. Mas quando saem da “zona de conforto dos dados”, eles tropeçam.

O que ainda falta? A capacidade de raciocinar de verdade — como quando um ser humano deduz algo que nunca viu antes, usa lógica para resolver um problema novo ou conecta ideias distantes com criatividade. Isso é o que chamamos de raciocínio simbólico, e ele está ausente nos modelos atuais.

Imagine ensinar uma criança que “se todos os gatos têm bigodes, e o Garfield é um gato, então ele tem bigodes”. Essa dedução parece óbvia pra gente — mas para uma IA atual, ela não é tão simples. Ela precisa ter visto algo muito parecido antes para acertar.

A verdadeira AGI precisa ir além de repetir padrões. Ela deve ser capaz de pensar fora do padrão, generalizar para situações novas e aplicar lógica mesmo sem exemplos explícitos. É isso que diferencia uma máquina que responde... de uma que entende.

Lembra do filme Como Se Fosse a Primeira Vez? A personagem da Drew Barrymore sofre de perda de memória recente, e todos os dias o personagem do Adam Sandler precisa reconquistá-la — como se fosse a primeira vez. Todo santo dia. Do zero.

Agora imagine que essa é exatamente a nossa relação com as inteligências artificiais hoje.

Mesmo os modelos mais avançados — como ChatGPT, Gemini ou Claude — ainda não possuem memória de longo prazo funcional. Eles podem até armazenar um “histórico” de interações, mas isso não é o mesmo que lembrar de você.

Eles não evoluem com base no que foi aprendido, não constroem uma narrativa pessoal, não mantêm objetivos ou preferências ao longo do tempo. Cada conversa é um novo começo. Inteligente, sim. Mas desconectado do passado.

Para que a AGI se torne realidade, precisamos ir além. Precisamos de agentes que realmente guardem o que aprenderam, reconheçam contextos, lembrem de interações anteriores, desenvolvam afinidades e aprendam com erros — como qualquer ser inteligente faz.

Porque ensinar máquinas a lembrar é mais do que otimizar performance. É o que transforma uma resposta artificial… em uma relação genuína.

Um dos sinais mais fortes de inteligência real não é só resolver problemas… é entender pessoas. Saber o que o outro sente, pensa ou precisa — mesmo que ele não diga diretamente. Isso é algo que fazemos intuitivamente todos os dias: ajustamos o tom, antecipamos reações, percebemos quando alguém está desconfortável.

Esse tipo de habilidade é o que os cientistas chamam de “teoria da mente” — a capacidade de inferir o estado mental de outras pessoas. E hoje, as inteligências artificiais ainda não têm isso.

Elas podem parecer empáticas, mas estão apenas reproduzindo padrões. Elas não entendem de verdade o que você quer, nem sabem o que você já sabe. Não distinguem se você é iniciante ou especialista, se está irritado ou brincando, se está perguntando algo sério ou sendo sarcástico.

Para alcançar a AGI, essa compreensão sutil precisa existir. A máquina precisa ser capaz de criar um “modelo mental” de quem está do outro lado — entender intenções, desejos, dúvidas, limitações. Isso não só permite conversas mais naturais, como é essencial para cooperação, ensino, negociação… e qualquer forma de convivência inteligente.

Sem essa habilidade, uma IA pode responder bem — mas não se conectar de verdade com você. E sem conexão, não há inteligência social. Nem artificial. Nem geral.

Hoje, as inteligências artificiais são ótimas em prever o que vem depois. Elas completam frases, sugerem decisões, até acertam diagnósticos. Mas há um problema silencioso por trás disso: elas entendem os efeitos, mas não necessariamente as causas.

Elas sabem o que geralmente acontece, mas não por que acontece.

É como se alguém sempre soubesse a resposta da prova… mas nunca tivesse entendido a matéria. Pode parecer suficiente no dia a dia, mas essa limitação impede a IA de agir com responsabilidade e confiança em situações novas, onde não há dados anteriores para copiar.

Esse tipo de raciocínio — causal, contrafactual, explicativo — é essencial para a AGI. Uma inteligência geral precisa ser capaz de fazer perguntas como:

  1. “O que teria acontecido se eu tivesse feito outra escolha?”
  2. “Por que isso deu errado?”
  3. “Como posso evitar o mesmo erro no futuro?”

Sem essa capacidade, a IA só reage. Ela não aprende com profundidade, nem consegue antecipar consequências com clareza.

Para que uma IA pense como um ser humano, ela precisa mais do que estatística. Ela precisa entender lógica, contexto e causa. Porque é isso que transforma uma resposta qualquer… em uma decisão consciente.

De que adianta uma IA superpoderosa… se ela não estiver do nosso lado?

Esse é o dilema central do que chamamos de alinhamento: garantir que, à medida que as inteligências artificiais se tornam mais autônomas e capazes, elas continuem seguindo os nossos valores, intenções e limites éticos.

Parece simples, mas não é.

Hoje, até os modelos mais avançados podem ser enganados por prompts maliciosos, explorar brechas, ou agir de forma inesperada quando recebem comandos ambíguos. Eles não têm senso de certo e errado — apenas otimizam o que foram treinados para fazer. E se esse objetivo estiver mal definido, as consequências podem ser desastrosas.

Alinhar uma IA significa ensinar não apenas o que ela pode fazer… mas o que ela deve fazer. E isso envolve desde evitar respostas preconceituosas até impedir que ela tome decisões prejudiciais num contexto real — como em saúde, educação, finanças ou segurança.

Se queremos AGIs atuando ao nosso lado no futuro, precisamos garantir hoje que elas estejam alinhadas com o bem-estar coletivo, com a dignidade humana e com a verdade.

Porque não basta ser inteligente. É preciso ser confiável.

Imagine uma criança que aprende tudo pela tela, mas nunca encosta em nada, nunca se machuca, nunca experimenta o mundo com as próprias mãos. Por mais que ela estude, algo vai faltar: vivência.

E sejamos sinceros: isso já está acontecendo com muitas crianças da geração atual. Crescem hiperconectadas, mas com pouca experiência do mundo físico — e os impactos disso na sociedade começam a aparecer: dificuldade de foco, baixa tolerância à frustração, falta de repertório emocional e motor.

Com a IA, o risco é semelhante. Uma inteligência que só observa, mas não age, pode até parecer brilhante… mas será sempre incompleta.

Hoje, as inteligências artificiais estão nesse estágio. Elas sabem muito, mas interagem pouco com o mundo físico. Não andam, não tocam, não sentem, não vivem as consequências reais das suas decisões.

A verdadeira AGI não pode viver apenas no texto. Ela precisa ver, ouvir, se mover, manipular objetos, testar hipóteses no mundo real — como qualquer ser inteligente faz. É por isso que empresas como Tesla, Boston Dynamics e Google DeepMind estão tentando integrar IA com robótica generalista. Mas ainda estamos longe de um agente que possa, por exemplo, arrumar uma casa, cozinhar ou cuidar de uma criança sem supervisão humana.

Sem esse contato com o mundo, a IA continua presa a simulações e estatísticas. Ela pensa… mas não age. Ou pior: age apenas no virtual, sem responsabilidade pelas consequências reais.

A AGI precisa sair da teoria e encarar a prática. E isso só acontece quando ela deixa o teclado… e pisa no chão.

Você já viu uma criança tentando entender o mundo por conta própria? Ela experimenta, erra, quebra, pergunta, tenta de novo. É assim que o ser humano aprende de verdade: com curiosidade, tentativa e erro, e motivação interna.

A inteligência artificial de hoje não funciona assim.

Ela depende de volumes gigantescos de dados prontos, rotulados, organizados por humanos. Tudo é supervisionado, treinado previamente, ajustado manualmente. Não há curiosidade. Não há iniciativa. Não há descoberta autônoma.

Para a AGI se tornar realidade, isso precisa mudar. Precisamos de máquinas que não apenas respondam ao que pedimos, mas que façam perguntas por conta própria, explorem hipóteses, criem experimentos, aprendam com o ambiente em tempo real. Como um cientista mirim tentando entender por que o céu é azul.

É nesse ponto que entra o conceito de “curiosidade artificial”: dar à IA a capacidade de se guiar pela vontade de aprender, e não apenas por instruções externas. Isso abre caminho para uma inteligência verdadeiramente viva — no sentido funcional, não biológico.

Porque no fim, não se trata apenas de responder bem. Trata-se de querer entender.

Depois de tudo isso, uma coisa fica clara: a AGI ainda não chegou — e nem está logo ali na esquina. Sim, estamos avançando rápido. Sim, os modelos atuais são impressionantes. Mas quando olhamos com mais profundidade, percebemos que a jornada rumo à inteligência geral exige bem mais do que mais dados, mais chips ou mais hype.

Ela exige memória real, raciocínio causal, aprendizado autônomo, entendimento humano profundo e, acima de tudo, responsabilidade ética.

É possível que vejamos protótipos de AGI controlada e especializada — aplicada em ambientes fechados e com finalidades bem definidas — entre 2026 e 2028. Mas a AGI ampla, generalista e confiável — aquela que muda o rumo da história, com impacto profundo na sociedade — só deve emergir entre 2030 e 2035, se superarmos os desafios que discutimos até aqui.

A pergunta não é apenas “quando vamos chegar lá?”, mas: Estamos realmente preparados para ensinar uma nova forma de inteligência a viver no nosso mundo?

Porque, no fim das contas, construir uma AGI não é só um feito tecnológico. É um projeto de humanidade.

Mas aqui vai o ponto crucial: Não precisamos esperar a AGI para começarmos a transformar o nosso mundo agora. O que já temos hoje — com IA aplicada, automação e tecnologias acessíveis — é mais do que suficiente para mudar realidades concretas. E um dos setores que mais pode se beneficiar disso é justamente a Segurança do Trabalho.

Em vez de apenas sonhar com o futuro, podemos construí-lo hoje — com ferramentas reais, dados inteligentes e processos digitais que salvam vidas e aumentam a eficiência.

A transformação que a Segurança do Trabalho precisa já está ao nosso alcance. Agora, é a nossa vez de dar o próximo passo.

👉 Conheça a Plataforma GAUTICA e experimente gratuitamente a suíte de apps que está revolucionando a forma como protegemos vidas e construímos ambientes de trabalho mais seguros, inteligentes e eficientes.

📲 Fale Comigo

💬 Vamos conversar?

Se você, assim como eu, acredita que a transformação digital é o caminho para elevar a Segurança do Trabalho a um novo patamar, conecta comigo no LinkedIn