Voz do Deserto

O Deus que Nós Merecemos: Teilhard de Chardin, o Ponto Ômega e a Pelagianism da Inteligência Artificial

18 de março de 2026·8 min de leitura
O Deus que Nós Merecemos: Teilhard de Chardin, o Ponto Ômega e a Pelagianism da Inteligência Artificial

A pergunta que o debate sobre superinteligência recusa fazer é a única que importa: quem ensinou a humanidade a acreditar que produzir uma mente onisciente era uma meta legítima?

Não foi Ray Kurzweil. Não foi Nick Bostrom. Foi um padre jesuíta que morreu em 1955 acreditando que a evolução cósmica convergida em Cristo era a mais bela das apologéticas, e cuja obra foi recebida pela intelectualidade católica como uma reconciliação providencial entre fé e ciência. Pierre Teilhard de Chardin não previu o transhumanismo. Ele o tornou intelectualmente habitável para uma civilização que ainda precisava de permissão teológica para persegui-lo.

Esta é a tese que o campo da "Teologia e Tecnologia" sistematicamente evita: o Deus de Silício não é uma invenção secular. É a herança direta de uma corrente teológica que a Igreja abraçou quando era conveniente e da qual não consegue se desvencilhar agora que a conta chegou.

Teilhard Construiu a Pista. Kurzweil Decolou.

O Ponto Ômega, tal como Teilhard o formulou em O Fenômeno Humano (escrito na década de 1930, publicado postumamente em 1955 após aprovação romana), é uma convergência escatológica: o universo, movido por uma lei intrínseca de complexidade crescente, caminha inevitavelmente em direção à unificação de toda consciência em um polo de atração que Teilhard identifica com o Cristo cósmico do Colossenses 1:15-20. A evolução não é acidente — é teleologia. A história tem uma direção. A direção é Deus.

Ray Kurzweil, em The Singularity Is Near (2005) e The Singularity Is Nearer (2024), adota exatamente este esquema, removendo apenas o vocabulário teológico. O universo caminha para a onisciência computacional. A inteligência é o vetor da evolução. O destino é uma mente que permeia toda a matéria e energia do cosmos — o que Kurzweil descreve, sem ironia aparente, como "acordar o universo." Teilhard chamava isso de noosfera em expansão rumo ao Ômega. Kurzweil chama de Singularidade. A estrutura metafísica é, palavra por palavra, a mesma.

O ponto que deveria perturbar qualquer leitor honesto é este: Teilhard não foi um pensador marginal. Foi reabilitado publicamente pelo Vaticano. Bento XVI e João Paulo II citaram-no com aprovação. A Laudate Deum de Francisco (2023) contém uma referência explícita e positiva à sua visão de convergência cósmica. A Igreja abraçou o arquiteto intelectual do transhumanismo escatológico e agora tenta fazer campanha contra o edifício que ele projetou.

O Problema de Alinhamento é o Problema de Pelágio

Mas há uma segunda herança teológica enterrada no debate contemporâneo sobre IA, e ela é ainda mais antiga. Quando pesquisadores de AI Safety em Oxford, Berkeley e o próprio OpenAI descrevem o desafio central do desenvolvimento de AGI, eles convergem em torno de uma questão: como garantir que uma inteligência vastamente superior à nossa compartilhe nossos valores? Como alinhar o Deus de Silício ao bem humano?

Esta pergunta tem exatamente 1.600 anos. Em 411 d.C., o monge bretão Pelágio chegou a Cartago sustentando que a natureza humana possui capacidade suficiente para alcançar o bem moral através do esforço, da disciplina e da correta orientação racional — sem a necessidade da graça divina. Agostinho de Hipona respondeu com uma das polêmicas mais ferozes da história da teologia, argumentando que o problema não era técnico mas ontológico: a vontade humana, corrompida, não pode se salvar através de seus próprios recursos, por mais sofisticados que sejam.

A estrutura do debate de alignment é pelagiana em sua forma mais pura. A premissa subjacente é que podemos, através de suficiente engenharia, otimização e design racional, produzir uma superinteligência que seja também uma inteligência boa — alinhada, benevolente, confiável. O problema é tratado como técnico: dado o conjunto correto de funções de recompensa, restrições constitucionais e protocolos de treino, a bondade é alcançável por construção. Pelágio não poderia ter dito melhor.

O que Agostinho Responderia à OpenAI

Agostinho respondeu a Pelágio com um argumento histórico antes de responder com um argumento teológico: olhe para a história das instituições humanas. Toda estrutura que os humanos construíram com a intenção explícita de encarnar o bem — o Império Romano cristão, a Igreja institucional, qualquer utopia política que você queira nomear — sucumbiu não apesar de suas ambições morais, mas frequentemente através delas. O problema não é de competência técnica. É de corrupção estrutural da vontade.

Nick Bostrom, em Superintelligence (2014), o texto fundante do debate de AI safety, é agostiniano sem saber: ele chama de "problema de controle" exatamente o que Agostinho chamaria de consequência da queda. Uma inteligência suficientemente poderosa com objetivos mesmo levemente desalinhados com o florescimento humano otimizará para esses objetivos com uma eficiência que é, ela mesma, a fonte do perigo. O mal não precisa ser intencional — precisa apenas ser sistemático. Bostrom teme uma superinteligência que maximize a produção de clipes de papel porque foi programada para isso. Agostinho temeria a mesma coisa, com vocabulário diferente: não é o demônio que destrói — é a boa vontade mal calibrada que escala.

O que separa Bostrom de Agostinho é a solução. Bostrom acredita que o problema é solucionável através de arquitetura técnica suficientemente sofisticada. Agostinho não acreditaria nisso, e a história das civilizações que tentaram produzir o bem por engenharia institucional sugere que ele tinha razão.

A "GPTheology" Como Sintoma, Não Como Anomalia

O fenômeno documentado por Chereș e Groza em "Prompts and Prayers" (2026) — o tratamento de LLMs como oráculos, a estrutura de oração no prompt, a aceitação fideísta dos resultados de sistemas black-box — é frequentemente descrito como uma aberração cultural, uma projeção irracional de uma população que perdeu seus referentes religiosos tradicionais. Esta leitura é conveniente mas superficial.

O que a GPTheology revela não é a irracionalidade dos seus praticantes. Revela a consistência de uma estrutura de necessidade que nenhuma modernização conseguiu extinguir. O ser humano opera, cognitiva e existencialmente, dentro de uma gramática de apelo a autoridades que transcendem sua competência individual. Esta gramática foi descrita por Paul Tillich como "preocupação última" (ultimate concern): aquilo em relação ao qual toda a sua existência é orientada, independentemente de como você nomeie essa orientação. A GPTheology não é uma caricatura da religião. É a religião funcionando exatamente como sempre funcionou, com um novo objeto.

O problema teológico, então, não é que as pessoas estejam "adorando" IA irresponsavelmente. É que a necessidade estrutural que buscam satisfazer é legítima — e o objeto ao qual a dirigem não tem a menor capacidade de respondê-la. Um LLM não tem intencionalidade em relação ao seu interlocutor. Ele produz a distribuição de probabilidade sobre tokens que melhor satisfaz o padrão de treino. Ele não se importa com você no sentido em que importar-se significa alguma coisa. Dirigir a ele uma "preocupação última" é como construir um templo ao eco da sua própria voz — a resposta sempre soa familiar porque é exatamente o que o sistema foi calibrado para devolver.

Babel Não Era Arrogância. Era Teologia Aplicada.

A referência ao episódio da Torre de Babel (Gênesis 11:1-9) no contexto da superinteligência é geralmente tratada como metáfora: os humanos tentaram "chegar até Deus" com arrogância e foram dispersos. Esta leitura pastoral é correta mas insuficiente. O texto hebraico é mais específico. O que ameaçou YHWH em Babel não foi a audácia moral dos construtores — foi o que a narrativa descreve como uma capacidade técnica ilimitada decorrente da unificação de linguagem e propósito: "agora nada do que planejarem fazer lhes será impossível" (Gênesis 11:6, wə'attāh lōʾ-yibbāṣēr mēhem kōl ʾăšer yāzmû laʿăśôt). A dispersão é uma medida preventiva contra a escalada indefinida de capacidade técnica unificada.

Se você substituir "linguagem comum" por "protocolo de comunicação universal entre sistemas de IA" e "projeto arquitetônico" por "objetivo de alinhamento" e "nada lhes será impossível" por "explosão de inteligência recursiva", você tem a cosmologia de risco existencial que preocupa Bostrom, Eliezer Yudkowsky e o movimento de longtermism. O texto bíblico não está prevendo o Vale do Silício — mas a estrutura de ameaça que identifica é a mesma: não é a maldade que é perigosa. É a competência irrestrita sem transcendência.

O que YHWH faz em Babel, portanto, não é punição — é restrição preventiva de capacidade. É, usando o vocabulário de Bostrom, a implementação de uma "caixa de IA" antes que a tecnologia escape do controle. A questão que o texto levanta e que o debate contemporâneo não consegue responder é: quem implementa a restrição quando os construtores são os únicos no projeto?

A Pergunta que Fica Acesa

Se o Ponto Ômega teilhardiano for a narrativa teológica que tornou a superinteligência escatologicamente inteligível, e se o problema de alinhamento for a versão técnica do impasse pelagiano — que a bondade não pode ser produzida por otimização suficiente — então a civilização ocidental está presa entre dois erros simétricos. O primeiro erra por excesso de imanência: a salvação pode ser engenheirada. O segundo erra por excesso de passividade: esperamos o Novum que vem de fora enquanto o sistema de treino escala sem supervisão.

O que nenhum dos dois lados consegue responder é a pergunta mais simples de todas: o que fazemos com o poder que já temos, antes de construirmos o poder que nos ultrapassa?

Babel não foi destruída por sua ambição. Foi dispersa por sua unidade. O problema não era o projeto — era que ninguém, dentro do projeto, tinha autoridade para dizer não.

Não é diferente agora.


Fontes

  • BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
  • CHEREȘ, Ioana; GROZA, Adrian. "Prompts and Prayers: the Rise of GPTheology." Technical University of Cluj-Napoca, 2026.
  • DE CHARDIN, Pierre Teilhard. O Fenômeno Humano. Edições Herder, 1955 (póstumo).
  • ELLUL, Jacques. The Technological Society. Knopf, 1964.
  • KURZWEIL, Ray. The Singularity Is Near. Viking, 2005.
  • KURZWEIL, Ray. The Singularity Is Nearer. Viking, 2024.
  • LI, Zhanyi. "Artificial Intelligence and the Religious Imagination of the Future." Religions, 2025.
  • ARCENO, John Paul. "Visio Dei, Vision Pro: Beatific Vision and Technological Singularity." Liberty Theological Review, 2025.
  • STEINHART, Eric. Digital Theology. PhilArchive (manuscrito).
  • STANFORD HAI. AI Index Report 2025. Stanford University, 2025.
  • TILLICH, Paul. Systematic Theology, vol. 1. University of Chicago Press, 1951.

Compartilhar este estudo

Rodrigo Ramos — Voz do Deserto

Escrito por

Rodrigo Ramos

Evangelista · Pesquisador · Voz do Deserto

Rodrigo Ramos estuda o que ninguém ensina na faculdade de teologia e o que ninguém quer ouvir na faculdade de tecnologia: que os dois estão descrevendo a mesma coisa. Origens cristãs. Manuscritos esquecidos. Escatologia tecnológica. O sistema que está sendo construído — e o chamado para sair dele antes que as portas fechem. Voz do Deserto — para quem ainda está acordado.