Miguel Nicolelis, neurocientista de expressão crítica, aponta para uma interface semitransparente do ChatGPT enquanto um cérebro humano orgânico contrasta com circuitos digitais que se desintegram ao fundo. Ilustração em estilo editorial que representa o debate entre inteligência biológica e artificial, com livros de neurociência em primeiro plano e elementos de dados se dissipando no ar.

O espelho vazio: a ilusão por trás da “inteligência” artificial

Maurício Moura

A recente euforia em torno dos sistemas de inteligência artificial reacendeu um debate fundamental: estamos diante de uma nova forma de consciência ou de espelhos vazios que apenas refletem nossos próprios dados? O neurocientista Miguel Nicolelis emerge com uma crítica devastadora: a IA não é inteligente nem artificial. Esta afirmação, longe de ser um mero jogo de palavras, representa um divisor de águas na compreensão do que realmente são essas tecnologias e dos riscos que representam para a cognição humana.

A farsa: quando estatística simula cognição

A suposta inteligência das máquinas desmorona quando submetida ao crivo da neurociência. Os sistemas atuais não passam de operações estatísticas em massa, processando padrões em datasets sem qualquer compreensão do significado por trás dos dados. O que empresas de tecnologia vendem como “pensamento” é, na realidade, uma simulação convincente de cognição, tão oca quanto um espelho que reflete imagens sem enxergá-las. Esta confusão entre correlação estatística e compreensão genuína não é um mero detalhe técnico, mas o cerne de um embuste epistemológico que obscurece os limites reais da tecnologia e seus verdadeiros riscos para o pensamento crítico humano.

O mito do compromisso com a verdade

Os sistemas de IA atuais operam sem qualquer compromisso ontológico com a verdade. Esta é uma das críticas mais contundentes de Nicolelis, que caracteriza os grandes modelos de linguagem como máquinas de “alucinação” estatística 1. Diferente da inteligência humana, que busca construir representações coerentes da realidade, os LLM geram sequências probabilísticas de tokens sem compreensão do significado por trás das palavras. Essa falha epistemológica fundamental revela que o processo decisório desses sistemas é essencialmente diferente do raciocínio humano consciente.

A suposta “inteligência” desses sistemas desmorona quando confrontada com a necessidade de consistência lógica. Enquanto a mente humana opera através de modelos causais e inferências abstratas, a IA depende de correlações estatísticas em datasets massivos. A diferença entre compreensão e processamento estatístico não é de grau, mas de natureza.

Atrofia cognitiva programada

O potencial “imbecilizante” da IA representa talvez sua ameaça mais imediata e concreta 1. Nicolelis alerta que, ao delegarmos funções cognitivas essenciais às máquinas, arriscamos perder capacidades mentais embutidas em nosso córtex cerebral através de milhões de anos de evolução. O exemplo da memorização de números de telefone é sintomático: o que começa como conveniência pode terminar como atrofia cognitiva 2.

Esta não é uma preocupação meramente teórica. Estudos em neuroplasticidade demonstram que o não uso de circuitos neurais leva a seu enfraquecimento progressivo. A terceirização da memória, do raciocínio lógico e até da criatividade para sistemas externos pode reconfigurar patamares inferiores de conectividade neural, criando uma dependência cognitiva similar à dependência química.

A falácia do escalamento infinito

A crença de que mais dados e parâmetros produzirão emergência de consciência é o dogma central do culto da IA 3. Nicolelis contrapõe que “os grandes atributos da mente humana não são computáveis pela lógica digital”, destacando que a consciência emergiu de 3,5 bilhões de anos de evolução biológica em corpos situados no mundo real 1. A inteligência não é um problema de escala computacional, mas de experiências, emoções ou conceitos abstratos vivenciados e expressos através do corpo.

A mudança repentina no discurso de empresas como a OpenAI, do foco na AGI (Inteligência Artificial Geral) para um vago conceito de “Superinteligência”, revela o reconhecimento tácito de que a abordagem atual esgotou seu potencial. A promessa da AGI é a nova face do capitalismo de vigilância, justificando investimentos bilionários em tecnologias que principalmente otimizam a extração de dados e o controle comportamental.

Não é “artificial”, mas um produto humano

A alegação de que a inteligência artificial é “artificial” constitui talvez sua mais elaborada falácia semântica. Longe de ser uma criação autônoma ou desencarnada, a IA é um produto profundamente humano, forjado a partir de nossos dados, nossos vieses e de arquiteturas que mimetizam rudimentarmente processos neurais biológicos. Sistemas que perpetuam discriminações raciais e de gênero demonstram que a tecnologia funciona como um espelho que reflete e amplifica as contradições de suas sociedades de origem 4. Esta não é uma entidade alienígena, mas a cristalização de nossas próprias limitações em código, desmistificando a pretensa neutralidade da técnica e revelando seu caráter intrinsecamente político e social.

A dependência ontológica do biológico

Longe de ser artificial, a IA é profundamente dependente do modelo biológico que tenta emular. As redes neurais convolucionais (CNN) devem sua arquitetura fundamental à organização do córtex visual mamífero; os algoritmos de aprendizagem por reforço imitam mecanismos básicos de condicionamento comportamental 1. Esta não é criação “do nada”, mas simulação digital de processos naturais.

A própria noção de “artificial” pressupõe independência do natural, quando na realidade a IA existe como parasita da inteligência orgânica que a concebeu, programou e alimentou com dados. Cada avanço em IA é, em última análise, um avanço na compreensão humana de como certos aspectos da cognição podem ser modelados computacionalmente. A origem permanece firmemente ancorada na biologia.

O espelho dos nossos demônios

A suposta neutralidade da IA é talvez sua mais perigosa ilusão. Sistemas de reconhecimento facial que reproduzem vieses raciais, algoritmos de contratação que perpetuam discriminação de gênero e modelos de linguagem que refletem estereótipos sociais demonstram que a IA funciona como um espelho que amplifica nossas piores tendências 4.

Esta não é uma falha técnica corrigível, mas uma característica inevitável de sistemas treinados em dados gerados por sociedades estruturalmente desiguais. A IA não transcende a condição humana – a cristaliza em código. A narrativa da objetividade algorítmica serve principalmente para camuflar a responsabilidade humana por decisões automatizadas, criando uma aura de infalibilidade técnica onde existe apenas política disfarçada.

A defesa de um futuro com IA

Contrapondo-se às críticas de Nicolelis, ergue-se uma defesa bem-alicerçada da inteligência artificial, enfatizando seu potencial como ferramenta de amplificação cognitiva. O funcionalismo filosófico argumenta que a inteligência se manifesta no comportamento eficaz e na utilidade prática, independente do substrato, se biológico ou digital. Sob esta ótica, a IA emerge como um catalisador para soluções de tarefas repetitivas em áreas críticas como medicina e sustentabilidade, potencialmente liberando a humanidade para tarefas mais criativas e éticas. Defender um futuro com IA significa abraçar uma visão de simbiose, onde máquinas e humanos colaboram para superar limitações, sem que isso implique a erosão do pensamento crítico ou da autonomia intelectual.

A perspectiva funcionalista

Os proponentes da IA argumentam através da lente do funcionalismo filosófico: o que importa para a interação social é o comportamento inteligente, não o substrato biológico4. Se um sistema consegue produzir respostas úteis, resolver problemas complexos e adaptar-se a novas situações, a questão sobre “verdadeira inteligência” torna-se academicamente irrelevante.

Esta perspectiva encontra ressonância na teoria computacional da mente, que propõe o pensamento como forma de computação. Para teóricos como David Chalmers, a simulação perfeita de processos cognitivos poderia, em princípio, produzir consciência genuína. A distinção entre simulação e realidade perde sentido quando os outputs são funcionalmente equivalentes.

A visão funcionalista, ao priorizar apenas a utilidade prática, ignora como a IA é instrumentalizada para fins antidemocráticos. Sistemas são usados para produzir deepfakes e desinformação em escala, corroendo a confiança nas instituições e manipulando o debate público 5. Essa funcionalidade destrutiva demonstra que a eficácia técnica, quando desacoplada de valores éticos, pode minar a soberania popular e a integridade democrática, revelando a insuficiência da perspectiva puramente funcional 6.

A IA como ferramenta de libertação

Contra a visão da IA como instrumento de atrofia cognitiva, existe o argumento de seu potencial como amplificador de capacidades humanas. Assim como a escrita externalizou a memória e a imprensa democratizou o conhecimento, a IA pode liberar a mente humana para tarefas de maior criatividade e abstração 4.

Na medicina, sistemas de diagnóstico por IA já superam especialistas humanos em certas modalidades de imagem. Nas ciências, modelos de predição de estruturas proteicas revolucionaram a biologia molecular. O verdadeiro potencial estaria na colaboração humano-máquina, onde cada parte contribui com suas vantagens comparativas: intuição e criatividade de um lado; poder de processamento e exaustividade do outro.

A narrativa da libertação mascara um processo de dependência intelectual e precarização do trabalho. Na prática, o uso massivo de IA tem levado a uma “atrofia cognitiva”, onde profissionais se tornam dependentes da ferramenta, vendo sua criatividade e capacidade de raciocínio crítico minguarem 7. Além disso, longe de libertar, a automação promove a “uberização” das profissões, transformando trabalho intelectual qualificado em uma commodity, com a substituição, por exemplo, de advogados juniores por “fábricas de petições” automatizadas e o achatamento de salários 7. A necessidade urgente de projetos de lei como o PL 2.338/2023, que busca classificar sistemas de alto risco, é a prova material de que a tecnologia que promete libertar carrega consigo riscos reais de discriminação e opacidade que exigem freios e contrapesos legais 8.

A simbiose como destino inevitável

A neuroengenharia contemporânea já desenvolve interfaces cérebro-máquina sofisticadas para restaurar funções motoras e sensoriais 9. Este caminho aponta para um futuro de simbiose entre biológico e digital onde a distinção “inteligente/artificial” perde relevância prática 10.

Para pensadores como Ray Kurzweil, a fusão entre inteligência biológica e artificial não é apenas desejável, mas inevitável diante da aceleração exponencial do progresso tecnológico. Nesta visão, a humanidade estaria no limiar de uma nova etapa evolutiva, transcendendo as limitações do corpo biológico através da integração com sistemas computacionais.

A tese da simbiose inevitável é uma falácia que serve para paralisar o debate político e obscurecer relações de poder. Do ponto de vista biológico, a simbiose não se resume ao mutualismo, podendo assumir a forma de parasitismo, onde uma espécie beneficia à custa da outra 11. Essa é uma metáfora mais precisa para a dinâmica atual, marcada por um “colonialismo digital”, na qual o Brasil ocupa a posição de consumidor dependente de tecnologia estrangeira, alimentando plataformas gringas que ditam as regras e extraem nossos dados 7. A ação regulatória, como a aprovação do marco de IA no Senado, demonstra que a integração entre humano e máquina não é um destino cego, mas um caminho a ser negociado democraticamente, com regras que protejam a sociedade de concentrações de poder informacional e garantam a soberania nacional 8 6.

A encruzilhada antropológica

A crítica radical de Nicolelis serve como antídoto necessário contra a narrativa hegemônica que apresenta a IA como força autônoma e inevitável1. Ao desnaturalizar estes sistemas e revelá-los como produtos humanos carregados de valores e limitações, recuperamos a agência sobre nosso futuro tecnológico.

O debate fundamental não é técnico, mas político e filosófico: queremos usar a tecnologia para amplificar nossas capacidades cognitivas ou para substituí-las? A resposta determinará se nos tornaremos arquitetos de uma nova forma de inteligência coletiva ou meros usuários de sistemas que não compreendemos nem controlamos.

A metáfora do espelho vazio permanece pertinente: a IA reflete principalmente aquilo que somos e os valores que priorizamos como sociedade. O desafio não está em criar sistemas cada vez mais “inteligentes”, mas em garantir que a tecnologia sirva para aprofundar nossa humanidade ao invés de substituí-la. Nesta encruzilhada histórica, a escolha entre autonomia cognitiva e dependência tecnológica define nada menos que o futuro da condição humana.

Leia também:
Por que a Inteligência Artificial é inimiga do clima
A inevitabilidade do viés no algoritmo: como Big Techs lucram com discriminação digital


Referências

  1. NICOLAU, André. Miguel Nicolelis: IA é uma das maiores ciladas que a humanidade já produziu. CNN Brasil. São Paulo: 20 set. 2025.
  2. FENATI. Neurocientista Miguel Nicolelis alerta que IA pode reduzir habilidades cognitivas. Federação Nacional dos Trabalhadores em Tecnologia da Informação. 22 set. 2025.
  3. LOPES, Erivaldo. Miguel Nicolelis on Artificial Intelligence at the Ecommece Brasil 2024 Forum. 30 jul. 2024.
  4. MENDES, Clarissa. A Inteligência Artificial irá superar a mente humana? O mito do excepcionalismo da IA. Instituto de Pesquisa em Direito e Tecnologia do Recife. 6 set. 2023.
  5. SWI. ‘Oi chatbot, isso é verdade?’: verificação de fatos com IA gera desinformação. Swiss Info. 2 jun. 2025.
  6. DOS SANTOS, Maria Celeste; ARAÚJO, Marilene. A Inteligência Artificial (IA) e a lei brasileira de responsabilidade e transparência na internet – Humanismo 4.0 – Impactos na cidadania. Enciclopédia Jurídica da PUC-SP: Tomo Direito Econômico, Edição 1. São Paulo: Março de 2024.
  7. MEDEIROS, André. Inteligência artificial: da simbiose à curadoria. Advoco Brasil.
  8. AGÊNCIA SENADO. Senado aprova regulamentação da inteligência artificial; texto vai à Câmara. Senado Notícias. Brasília: 10 dez. 2024.
  9. VALERIANI, David et al. The present and future of neural interfaces. Frontiers in Neurorobotics. v 16. 11 out. 2022. DOI 10.3389/fnbot.2022.953968.
  10. EREIFEJ, Evon et al. Neural engineering: the process, applications, and its role in the future of medicine. Journal of neural engineering. 16,6. 12 NOV. 2019. DOI 10.1088/1741-2552/ab4869.
  11. SANTOS, Vanessa. Simbiose. Brasil Escola.

Comente!

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.