A inteligência artificial reacende uma pergunta antiga: o que acontece quando uma criação começa a agir de modo que seu criador não consegue prever totalmente? De Frankenstein aos modelos generativos, o medo mudou de cenário. Saiu do laboratório gótico e entrou nos sistemas que escrevem, recomendam, classificam e decidem.
A criatura agora responde em linguagem natural
Em Frankenstein, Victor cria uma vida que não consegue sustentar. O drama não está apenas no ato de dar vida, mas no abandono posterior: a criação passa a circular pelo mundo sem diálogo, sem cuidado e sem reparação.
Com a inteligência artificial, a imagem muda.
Não há corpo costurado, laboratório sombrio ou relâmpago teatral. Há servidores, bases de dados, modelos estatísticos, interfaces amigáveis e respostas muito bem escritas.
A criatura não bate à porta. Ela aparece na caixa de texto.
O comportamento é a nova aparência da criatura
A criatura de Mary Shelley é julgada pelo corpo. Sua aparência chega antes de sua história. O mundo a vê como ameaça antes de escutá-la.
Na IA, a aparência mais forte não está no rosto, mas no comportamento.
Um chatbot que responde com segurança, uma ferramenta que resume textos, um sistema que seleciona candidatos, um algoritmo que recomenda vídeos ou calcula risco: todos produzem uma forma de presença.
A pergunta inquietante é simples: até que ponto esse comportamento representa compreensão, intenção ou apenas uma simulação operacional muito eficiente?
Então, o problema não é a máquina “fingir” no sentido humano. A máquina opera. O risco aparece quando nós confundimos operação bem-sucedida com entendimento, fluência com verdade, resposta com julgamento.
E a fluência, sejamos honestos, é uma roupa social muito potente. Quando a frase vem bem vestida, muita gente deixa de conferir o documento de identidade.
Frankenstein ajuda a pensar o depois da criação
A discussão sobre IA costuma ficar presa ao momento do lançamento: o modelo ficou bom? A ferramenta impressiona? A resposta parece humana? A empresa inovou?
Mary Shelley empurra a pergunta para outro lugar: e depois?
Depois que o modelo entra em produção.
Depois que a ferramenta começa a ser usada por pessoas e instituições.
Depois que a resposta errada causa dano.
Depois que o sistema aprende padrões indesejados.
Depois que ninguém sabe explicar direito por que aquilo aconteceu.
Esse “depois” é o ponto mais frankensteiniano da inteligência artificial.
A criação técnica inaugura uma cadeia de responsabilidade. Celebrar o funcionamento é pouco. É preciso acompanhar efeitos, corrigir desvios, permitir contestação e responder pelos danos.
O drama do criador isolado diante da própria criatura ajuda a perceber esse perigo. Victor se afasta do mundo justamente quando deveria conversar com ele.
Com IA, algo parecido ocorre quando sistemas são desenvolvidos, lançados e escalados sem debate público suficiente, sem auditoria clara e sem canais reais para quem será afetado.
Criar sozinho pode até ser possível. Sustentar sozinho uma criação que afeta o mundo já é outra história.
A caixa-preta como criatura sem rosto
A imagem da caixa-preta é forte porque desloca o medo. O problema não é uma máquina maléfica escondida no porão. É uma máquina útil, cotidiana, integrada, aparentemente normal.
Ela recomenda músicas. Corrige frases. Sugere rotas. Ordena buscas. Filtra currículos. Avalia riscos. Organiza o que vemos.
A criatura moderna não precisa rugir. Basta ranquear.
Por isso, a IA se aproxima daquela inteligência alienígena que opera dentro do mundo humano com uma lógica difícil de traduzir em termos humanos. Ela é feita por pessoas, treinada com dados humanos e usada em instituições humanas.
Mesmo assim, seus caminhos internos podem parecer estranhos, indiretos, quase inacessíveis.
Essa estranheza não exige consciência própria para ser relevante. Um sistema pode não ter vontade e ainda produzir efeitos sociais profundos. Pode não ter intenção e ainda causar dano.
Pode não ser sujeito moral e ainda exigir responsabilidade humana.
O ponto delicado é este: a IA não precisa virar uma criatura consciente para se tornar uma criação perigosa.
Artefatos carregam escolhas
Victor Frankenstein queria criar vida, mas criou também uma situação moral. Criou uma relação. Criou um problema que não poderia ser resolvido apenas com técnica.
Com a IA acontece algo semelhante. Um modelo não é apenas um conjunto de parâmetros. Ele carrega decisões sobre dados, objetivos, métricas, usos, limites, acesso, infraestrutura e poder.
É por isso que artefatos têm política.
Quando uma IA seleciona, recomenda ou classifica, ela participa da organização do mundo. Pode parecer neutra porque não tem rosto. Pode parecer objetiva porque entrega números.
Pode parecer inevitável porque vem embalada como inovação.
Há escolhas em cada etapa:
- os dados usados para treinar e ajustar o sistema;
- os erros considerados aceitáveis durante o desenvolvimento;
- os objetivos definidos como prioridade;
- as explicações oferecidas quando alguém pergunta “por quê?”.
A criatura, nesse caso, é sociotécnica. Vive no código, mas também na instituição que compra, na plataforma que distribui, no usuário que confia e no mercado que pressiona por velocidade.
Asimov, Shelley e o erro de confiar demais no manual
Em Eu, Robô, Asimov explora um problema complementar: regras claras podem falhar quando encontram situações ambíguas. O mundo real sempre descobre um canto da sala que o manual não iluminou.
Shelley trabalha outro tipo de falha. Em Frankenstein, o problema central não é uma regra mal escrita. É a ausência de custódia. Victor cria, recua, silencia e deixa que a realidade administre o impacto.
A IA contemporânea combina esses dois riscos. Sistemas podem seguir objetivos de modo literal demais, otimizando uma métrica e distorcendo o sentido da tarefa. Também podem apresentar comportamentos emergentes, difíceis de prever antes do uso em escala.
O resultado é uma ética menos cinematográfica e mais trabalhosa: testar, monitorar, auditar, revisar, pausar, explicar, reparar.
Pouco épico. Muito necessário. Nenhum trailer vende bem a cena “comitê de governança revisa documentação técnica”.
Mas é ali que muitos monstros deixam de nascer.
O medo antigo ganhou escala
O medo de Frankenstein nunca foi apenas medo da ciência. Foi medo da criação sem responsabilidade: do poder técnico separado da maturidade moral e do criador que se encanta com o feito, mas se ausenta das consequências.
A IA reabre essa ferida com outra linguagem. Em vez de eletricidade e corpo, temos dados, modelos e comportamento. Em vez de uma criatura visível, sistemas distribuídos atravessam a vida comum sem pedir licença.
A pergunta central não é se a IA “vai se rebelar”, como nas fantasias mais gastas da ficção científica. Isso rende pôster bonito, mas pensamento pequeno.
A pergunta melhor é: o que fazemos quando uma criação técnica passa a agir de modos que não conseguimos prever, explicar ou responsabilizar com facilidade?
Para ampliar a discussão
Leia também: A caixa-preta da IA, O quarto chinês e Frankenstein.
Se este texto ajudou você a pensar a IA para além do encanto técnico, compartilhe.
