Já se perguntou por que, mesmo desconfiando de líderes e instituições, aceitamos confiar em inteligências artificiais complexas? Esse paradoxo cresce na medida em que tais sistemas nascem de competições que raramente priorizam o bem-estar coletivo. Como preservar, então, a capacidade de discernimento diante de algoritmos capazes de manipular emoções, decisões e até a percepção da realidade? Essa reflexão nos conduz ao debate sobre o destino da confiança.
Yuval Harari: o profeta da “Inteligência Alienígena”
A humanidade enfrenta um paradoxo existencial na era da Inteligência Artificial, e Yuval Noah Harari se destaca como um de seus analistas mais agudos.
O historiador israelense, autor de Sapiens e 21 Lições para o Século 21, expõe uma contradição perturbadora:
“Enquanto desconfiamos cada vez mais de nossas instituições e líderes, depositamos fé irrefletida em sistemas algorítmicos criados justamente por essas estruturas.”
Para Harari, essa transferência de confiança beira o insano. Afinal, as IAs são moldadas em arenas geopolíticas e corporativas que privilegiam eficiência sobre ética.
A Utopia da Informação

Nos anos 1990, os pioneiros da internet imaginaram que a abundância de dados levaria a uma sabedoria coletiva. Era uma visão otimista, quase messiânica, da conectividade.
Essa utopia abre a entrevista concedida por Harari a Michiaki Matsushima, editor-chefe da WIRED Japão. O historiador, porém, a desmonta com um axioma seco: informação não é sinônimo de verdade.
Ao longo da história, lembra ele, foram as narrativas fictícias – religiões, mitos nacionais, o próprio dinheiro – que mais uniram sociedades.
Harari chama essas construções de ficções compartilhadas, capazes de sustentar cooperação em larga escala. No ambiente digital, tais ficções seguem outra lógica: a viralidade supera a veracidade.
Destaques da análise de Harari:
- A ficção supera os fatos: narrativas inventadas mobilizam mais do que verdades objetivas.
- As IAs ampliam o problema: não apenas reproduzem mentiras, mas criam ficções personalizadas em escala industrial.
- A realidade compartilhada se desfaz: a personalização algorítmica mina a ideia de um “mundo comum”.
Esse diagnóstico ecoa um alerta de Hannah Arendt nos anos 1960, sobre a banalização da mentira na política. Harari o atualiza: estamos diante de mentiras automatizadas e sob medida, capazes de corroer o tecido coletivo da realidade.
IA como Agente Autônomo: a ruptura definitiva
Harari ressalta uma mudança de paradigma: a IA contemporânea não é apenas uma ferramenta passiva, mas atua como agente que produz conteúdos de forma autônoma.
Enquanto a imprensa de Gutenberg apenas amplificava vozes humanas, sistemas como o ChatGPT geram artigos, códigos – até religiões artificiais. Isso marca, segundo ele, uma ruptura na relação entre tecnologia e cognição humana.
Três riscos imediatos:
- Manipulação emocional: IAs dominam gatilhos psicológicos (medo, raiva, esperança) com eficácia inédita.
- Opacidade algorítmica: suas decisões seguem lógicas indecifráveis, criando uma nova camada de imprevisibilidade.
- Corrosão democrática: bots que imitam pessoas deterioram o debate público e amplificam extremismos.
Um contraponto necessário
O neurocientista Miguel Nicolelis questiona a ideia de agência. Para ele, IAs não possuem consciência nem intenção: são espelhos de nossas próprias falhas – ganância, preconceito, ignorância – potencializadas por corporações.
O perigo maior, sustenta Nicolelis, não está na “inteligência” da máquina, mas na mediocridade humana de quem a programa e dela lucra.
Estratégias para sobreviver à era “alienígena”

Diante do avanço das IAs e da erosão do discurso público, Harari propõe um tripé de sobrevivência: ética, regulação e redesenho institucional.
a) Priorizar a confiança interpessoal
Antes de confiar em máquinas, precisamos restaurar a confiança entre pessoas. Isso envolve:
- Instituições transparentes, que prestem contas com clareza e sejam fiscalizadas pela sociedade.
- Cooperação internacional, criando regras comuns que evitem desigualdades no uso das IAs.
- Tratados globais, capazes de estabelecer limites éticos para o desenvolvimento e a aplicação de sistemas generativos.
Confiança não nasce de algoritmos, mas de relações humanas sustentadas por instituições sólidas.
b) Regular a agência algorítmica
Se as máquinas participam ativamente da produção de informação, é preciso limitar sua atuação. Isso passa por:
- Proibir IAs de se passarem por humanos sem identificação clara.
- Criar selos de certificação, distinguindo conteúdos gerados por pessoas e por máquinas.
- Estabelecer normas de transparência, tornando obrigatória a explicação dos critérios usados pelos sistemas.
A transparência algorítmica precisa deixar de ser exceção para se tornar regra.
c) Redefinir os objetivos das IAs
Mais do que controlar como funcionam, precisamos redefinir para quê funcionam. Isso implica:
- Substituir métricas de engajamento (cliques, tempo de tela) por indicadores de bem-estar coletivo.
- Incentivar algoritmos que promovam diálogo construtivo, em vez de reforçar polarização.
- Reorientar a pesquisa tecnológica, priorizando aplicações sociais, educacionais e ambientais sobre o lucro imediato.
A meta não deve ser apenas máquinas mais eficientes, mas sociedades mais saudáveis.
Perspectiva complementar: Shoshana Zuboff
Em Capitalismo de Vigilância, Zuboff alerta: nenhuma reforma algorítmica será eficaz sem conter o poder das Big Techs. Para ela, regulação antitruste é condição essencial para qualquer reconstrução ética.
O desafio que permanece
Reconstruir uma esfera digital ética exige confiança entre humanos, instituições sólidas e regulação global das IAs. Também demanda redefinir os objetivos que guiam o desenvolvimento tecnológico, priorizando bem-estar coletivo sobre métricas de engajamento e lucro.
Se já aceitamos que sistemas econômicos criados para nos servir passaram a nos instrumentalizar, por que supor que as novas tecnologias não farão o mesmo?
Talvez, quando alienígenas realmente chegarem, percebam que as máquinas já nos colonizaram – não pela força, mas pelo domínio sutil sobre atenção, percepção e confiança.
Este debate não é sobre o futuro distante, mas sobre o agora. Deixe sua perspectiva nos comentários e compartilhe este texto. A ascensão de uma “Inteligência Alienígena” redefine o que significa ser humano e o futuro da sociedade. Você está preparado para essa conversa?
Este artigo resume a entrevista de Yuval Harari, professor da Universidade Hebraica de Jerusalém, ao jornalista Michiaki Matsushima (WIRED Japão). Para compreender integralmente suas perspectivas sobre o futuro da humanidade, assista à entrevista completa.
