A Inteligência Artificial está cada vez mais presente no nosso dia a dia. Mas até que ponto ela é realmente “inteligente”? O neurocientista Miguel Nicolelis, professor emérito da Universidade de Duke, desafia o entusiasmo excessivo em torno desse conceito. Para ele, essa tecnologia não é tão revolucionária quanto muitos acreditam. Afinal, o que chamam de Inteligência Artificial, segundo Nicolelis, não é inteligente.
Miguel Nicolelis: um crítico com credenciais

Nicolelis não é um cético qualquer. Com décadas dedicadas à neurociência, suas contribuições são tão concretas quanto transformadoras.
Na Universidade Duke, ele liderou pesquisas pioneiras sobre neuroplasticidade – a capacidade do cérebro de se reorganizar após lesões –, demonstrando como os neurônios podem se adaptar para controlar membros virtuais ou até mesmo exoesqueletos robóticos.
Um de seus feitos mais emblemáticos ocorreu em 2014: durante a abertura da Copa do Mundo no Brasil, um jovem paraplégico conseguiu dar o chute inicial usando um exoesqueleto controlado por sinais cerebrais.
A cena rodou o mundo e sintetizou anos de trabalho em interfaces cérebro-máquina – tecnologias que traduzem atividade neural em comandos para dispositivos externos.
A IA não é Inteligente, nem Artificial
Nicolelis não critica a Inteligência Artificial (IA) por impulso, mas a partir de uma premissa científica:
Inteligência é um fenômeno orgânico, emergente da interação entre organismos vivos e seu ambiente.
Por mais avançadas que sejam, de acordo com o cientista, as máquinas não replicam a dinâmica evolutiva de bilhões de anos.
Nicolelis pontua que, na prática, a IA atual funciona como um grande sistema estatístico. Redes neurais, algoritmos e modelos de linguagem não “pensam” – apenas calculam probabilidades. Quando um GPT escreve um texto, por exemplo, não está criando ideias: está apenas combinando padrões de palavras aprendidos em imensos bancos de dados.
A ironia, segundo Nicolelis, é que essa suposta “inteligência” depende inteiramente de supervisão humana: desde a coleta e curadoria dos dados até a correção de vieses e validação dos resultados.
Para Nicolelis, isso expõe uma ironia:
A tecnologia chamada de Inteligência Artificial depende inteiramente de supervisão humana para treinar dados, corrigir vieses e validar resultados.
Limitações técnicas com consequências práticas

- Dependência de dados históricos: sistemas como o MidJourney criam imagens combinando estilos existentes, mas não inventam um movimento artístico novo como o cubismo.
- Falta de compreensão: algoritmos médicos podem detectar tumores em radiografias, mas não explicam suas causas nem consideram o estado emocional do paciente.
- Custo energético: treinar o GPT-3 consumiu energia equivalente ao uso de 123 carros médios circulando por um ano.
Para Nicolelis, esses limites mostram que os avanços da IA se devem muito mais a melhorias computacionais – chips mais rápidos, memória mais barata – do que a descobertas reais sobre a cognição humana. Em seu livro O Verdadeiro Criador de Tudo (2020), ele resume:
O cérebro humano não é um software. É um órgão que evoluiu para sobreviver, não para processar dados.
Um Futuro preso ao passado
Nicolelis chama atenção para um paradoxo: quanto mais usamos a IA para “prever o futuro”, mais presos ficamos ao passado. Serviços como Netflix ou Spotify reforçam bolhas, oferecendo apenas o que já consumimos, e inibindo descobertas genuínas.
Esse problema também afeta decisões sérias. Em 2021, num painel da ONU, Nicolelis destacou o caso do COMPAS, algoritmo judicial dos EUA que perpetuou condenações racistas ao usar dados enviesados do passado. Para ele, este é o ponto central:
A IA é um espelho que reflete nossas falhas passadas, não uma lente para um futuro melhor.
Quem mais desafia o hype?

Nicolelis não está sozinho. A cientista da computação Timnit Gebru, ex-pesquisadora do Google e fundadora do Distributed AI Research Institute (DAIR), também denuncia os riscos ocultos da IA. Em seu famoso estudo On the Dangers of Stochastic Parrots (2021), ela aponta:
- Impacto ambiental: treinar um único modelo de IA pode emitir até 284 toneladas de CO₂.
- Concentração de poder: gigantes como Google e Microsoft controlam infraestrutura e dados, marginalizando países em desenvolvimento e pesquisadores independentes.
- Falta de transparência: muitos modelos são lançados sem avaliação social ou ambiental, priorizando lucro sobre ética.
Para Gebru, a IA não é neutra: ela reproduz desigualdades existentes e pode aprofundá-las se não for debatida de forma ampla.
Por um debate que vá além
Vozes como a de Miguel Nicolelis nos lembram que, embora poderosa, a Inteligência Artificial talvez não seja a revolução autônoma que muitos imaginam – pelo menos não ainda.
Hoje, ela continua sendo uma ferramenta limitada e dependente: criada por humanos, sustentada por humanos e falha como os humanos que a programam. Seu uso indiscriminado pode, de fato, amplificar desigualdades, aumentar custos ambientais e até atrofiar habilidades cognitivas que levaram séculos para se desenvolver.
Mas será que esse limite é permanente? Há cem anos, a ideia de falar com alguém do outro lado do mundo por um aparelho de bolso soaria como ficção científica. Quem garante que, em um século, a inteligência das máquinas não seja redefinida de formas que hoje nem conseguimos imaginar?
O certo é que não há respostas definitivas. O que existe, por enquanto, é um debate aberto – e é nele que devemos insistir. Porque talvez a IA nunca seja “inteligente” como nós; ou talvez apenas ainda não tenhamos visto a sua verdadeira forma.
E você, como enxerga esse futuro?
Compartilhe este texto e leve essa reflexão adiante. Afinal, o futuro da tecnologia não pertence apenas aos especialistas – ele é responsabilidade de todos nós.
