A elite da tecnologia se prepara para o pior
Mark Zuckerberg, CEO da Meta, começou há mais de uma década a erguer seu refúgio particular no Havaí – um verdadeiro império subterrâneo de 1.400 acres, no coração da ilha de Kauai. O local, envolto em sigilo, incluiria um abrigo autossuficiente, com suprimentos de energia e alimentos, protegido por um muro de quase dois metros de altura.
Trabalhadores que atuam no projeto foram proibidos de comentar qualquer detalhe, amparados por rígidos acordos de confidencialidade.
Questionado sobre o assunto, Zuckerberg minimizou. Disse que o espaço subterrâneo, de 465 metros quadrados, seria “apenas um porão”. Mas fontes afirmam que se trata de um bunker de sobrevivência de última geração, projetado para resistir a catástrofes – naturais ou humanas.

Uma tendência sombria entre os poderosos da tecnologia
E Zuckerberg não está sozinho. Nos bastidores do Vale do Silício, nomes como Reid Hoffman (LinkedIn), Sam Altman (OpenAI) e Peter Thiel (PayPal) vêm discretamente adquirindo terras isoladas e instalando abrigos secretos. A Nova Zelândia se tornou o “paraíso dos bunkers”, apelidada entre os bilionários como o “seguro contra o apocalipse”.
Zuckerberg já gastou mais de US$ 110 milhões em propriedades na Califórnia, e rumores indicam que um dos imóveis inclui um subterrâneo de 650 metros quadrados, batizado pelos vizinhos de “Batcaverna”.
Enquanto isso, Reid Hoffman revelou que metade dos super-ricos dos EUA possui planos de emergência ou imóveis preparados para catástrofes.

O medo invisível: a ameaça da Inteligência Artificial
A inteligência artificial, tema que esses magnatas ajudaram a criar, tornou-se agora um dos seus maiores temores.
Ilya Sutskever, cofundador da OpenAI, chegou a dizer:
“Definitivamente, vamos construir um bunker antes de lançarmos a AGI.”
A chamada AGI (Inteligência Artificial Geral) — que representaria máquinas com nível cognitivo humano — é vista como o divisor de águas da era digital. Para alguns cientistas, ela pode revolucionar a humanidade; para outros, pode destruí-la.
Mesmo dentro da OpenAI, os debates internos cresceram em torno da rapidez com que a IA está se aproximando da consciência própria. Em meio à incerteza, até os criadores da tecnologia parecem se preparar para um cenário de caos.
Quando chega o “fim dos tempos” da IA?
Sam Altman, diretor da OpenAI, afirma que a AGI pode surgir “mais cedo do que a maioria imagina”.
Demis Hassabis, da DeepMind, aposta em até dez anos; já Dario Amodei, da Anthropic, acredita que o avanço virá até 2026.
Outros especialistas, como Dame Wendy Hall, se mantêm céticos: “Eles mudam as regras o tempo todo. A IA é poderosa, mas ainda longe da inteligência humana.”
Esse ceticismo, porém, não freia a corrida. Centenas de empresas já trabalham em versões próprias de IA avançada, cada uma buscando o próximo salto evolutivo — o ponto de singularidade, quando as máquinas superarão definitivamente os seres humanos.
Do medo à superinteligência: a nova religião digital
O conceito de ASI (Superinteligência Artificial), criado ainda em 1958 por John von Neumann, voltou ao centro das discussões. A ideia: quando a inteligência computacional se tornar tão eficiente que ultrapassará qualquer limite humano de raciocínio ou moralidade.
Em “Genesis” (2024), Eric Schmidt e Henry Kissinger alertam: em algum momento, o controle poderá escapar de nossas mãos — e talvez as máquinas decidam por nós.
Mas há quem veja um lado utópico. Elon Musk aposta em uma era de abundância:
“Todos terão seus próprios R2-D2 e C-3PO pessoais.”
Para Musk, a IA poderá eliminar o trabalho braçal, criar energia limpa e distribuir riqueza universal. Porém, críticos alertam que a mesma tecnologia pode ser usada como arma autônoma, sistema de vigilância total ou ferramenta de manipulação global.
Governos, medo e falhas humanas
Diante desse cenário, governos começaram a agir. Nos EUA, a administração Biden exigiu relatórios de segurança de empresas de IA; no Reino Unido, nasceu o AI Safety Institute, focado em mitigar riscos de superinteligência.
Mas, enquanto o Estado tenta regular o incontrolável, bilionários reforçam seus refúgios privados. “Comprar uma casa na Nova Zelândia é o novo código para dizer ‘estou pronto para o apocalipse’”, brinca Reid Hoffman.
Contudo, nem todos acreditam que o pânico faça sentido. Um ex-segurança de um desses magnatas revelou:
“Se o apocalipse chegar, o plano da equipe é simples: eliminar o patrão e tomar o bunker.”
A paranoia dos poderosos ou o prenúncio de uma nova era?
Especialistas dividem opiniões. Para Neil Lawrence, da Universidade de Cambridge, a ideia de AGI é um equívoco:
“Falar de inteligência artificial geral é como falar de um veículo universal — impossível.”
Para ele, a tecnologia atual já é extraordinária e transformadora, mas o medo existencial alimentado por grandes empresas distraí a sociedade dos problemas reais: ética, privacidade, desigualdade e dependência tecnológica.
Modelos de IA são, afinal, apenas sistemas de reconhecimento de padrões — poderosos, mas desprovidos de consciência. O cérebro humano, com 86 bilhões de neurônios e 600 trilhões de conexões, ainda reina supremo.
Enquanto máquinas aprendem a escrever poemas, médicos, artistas e engenheiros descobrem como usá-las – não para substituir, mas para ampliar a criatividade e a produtividade humana.
Conclusão: o medo vende e muito
A indústria da tecnologia aprendeu a lucrar com promessas e temores. Seja com bunkers de luxo, apocalipses digitais ou superinteligências divinas, o medo é o combustível mais rentável da era moderna.
Bilionários constroem fortalezas subterrâneas enquanto o resto do mundo constrói expectativas.
Talvez o verdadeiro apocalipse não venha das máquinas, mas da fé cega que depositamos nelas.







