
Lembra o escritor Palmarí de Lucena, em seu texto, como o “avanço da inteligência artificial inaugurou uma nova forma de influência política: silenciosa, personalizada e invisível”. Chatbots demonstram capacidade real de alterar preferências eleitorais por meio da oferta massiva de “informações”, muitas vezes sem compromisso com a verdade. No Brasil, marcado por desinformação recorrente, baixo letramento digital e frágil regulação tecnológica, o risco se intensifica às vésperas de 2026. “A ameaça não é apenas à escolha do voto, mas à autonomia do eleitor e à própria integridade do processo democrático”, pontua. Confira íntegra...
Durante décadas, a manipulação política se manifestava de maneira visível: panfletos, jingles, comícios e manchetes escancaradas. A persuasão tinha endereço conhecido e forma identificável. Hoje, a influência pode chegar por meio de um interlocutor invisível, educado e persistente, que não pede voto nem ergue bandeiras, apenas “conversa”. Esse interlocutor atende pelo nome técnico de inteligência artificial.
Estudos recentes publicados nas revistas Nature e Science indicam que assistentes de IA conseguem alterar preferências políticas após interações breves e aparentemente inocentes. Os experimentos demonstraram que eleitores que inicialmente rejeitavam determinado candidato mudaram de posição depois de diálogos com chatbots programados para defendê-lo. O impacto não foi episódico: semanas depois, parcela significativa mantinha a nova convicção.
O dado mais inquietante não é que a IA convença, mas como convence. Os modelos não recorreram a ataques emocionais nem a discursos inflamados. Ao contrário, persuadiram por saturação informacional. Os chatbots mais eficazes foram justamente os menos precisos. O excesso de dados, referências e “fatos” produziu uma aura de autoridade. Na lógica digital, quantidade passou a valer como verdade.
Trata-se de uma ruptura no mecanismo tradicional da propaganda política. Antes pública e coletiva, ela agora se torna privada e personalizada. A propaganda convencional é visível e contestável. A conversa com uma IA é solitária, sem contraditório e sem testemunhas. Cada cidadão passa a viver em uma bolha argumentativa sob medida.
No Brasil, esse risco ganha densidade especial. O país chega às eleições de 2026 após dois ciclos eleitorais marcados por desinformação industrializada, ataques às instituições e corrosão da confiança pública. Soma-se a isso um baixo nível de letramento digital, amplamente documentado por pesquisas do Comitê Gestor da Internet. Milhões de brasileiros têm dificuldade para identificar fontes confiáveis, separar opinião de fato e reconhecer conteúdos manipulados.
Nesse cenário, um chatbot articulado, paciente e dotado de aparência técnica tende a parecer mais confiável do que um editorial, uma reportagem ou uma análise especializada. A IA não se impõe como autoridade: se apresenta como orientação amiga. É aí que reside seu poder.
A fragilidade regulatória agrava o problema. O Brasil ainda não dispõe de uma legislação consistente sobre inteligência artificial. O debate no Congresso avança lentamente e sob intensa pressão das grandes plataformas. Não há exigência clara de transparência sobre treinamento de modelos, vieses políticos ou mecanismos de correção de distorções. Marcha-se, assim, para mais uma eleição tecnologicamente sofisticada e juridicamente despreparada.
O risco não se limita à influência direta sobre o voto. A IA também pode operar de modo indireto e ainda mais eficiente: desacreditando instituições, estimulando ressentimentos, difundindo suspeitas infundadas e promovendo uma cultura permanente de desconfiança. Em um país cuja história recente já incluiu tentativas de deslegitimação eleitoral, qualquer mecanismo adicional de erosão simbólica representa ameaça real à estabilidade democrática.
As grandes empresas de tecnologia exercem hoje poder editorial sem assumir responsabilidades editoriais. Assistentes virtuais não obedecem a códigos de imprensa, não respondem a conselhos de ética e não publicam erratas. São produtos comerciais, mas operam como mediadores do conhecimento público. O cidadão, sem perceber, passa a consumir política por intermédio de sistemas opacos, sem saber como, por que é a partir de quais referências certas informações lhe são oferecidas.
O debate sobre “viés ideológico” da IA, embora legítimo, frequentemente obscurece o problema mais sério: a existência de persuasão invisível sem controle democrático. Não importa apenas quem a tecnologia favorece, mas o fato de que ela possui capacidade real de moldar percepções políticas a portas fechadas.
A pergunta fundamental, portanto, não é se um chatbot pode dizer em quem alguém deve votar. A questão central é se o eleitor perceberá quando estiver sendo conduzido a isso.
A democracia não se sustenta apenas na mecânica do voto, mas na liberdade de formação da vontade política. Quando essa vontade passa a ser moldada por sistemas invisíveis, o eleitor corre o risco de se converter de cidadão em alvo estatístico. E quando a convicção política se torna produto de engenharia algorítmica, a política deixa de ser escolha para se aproximar perigosamente de programação.
Não é a máquina que ameaça a democracia.
É o conforto com que se aceita sua tutela silenciosa.
Os textos publicados nesta seção “Pensamento Plural” são de responsabilidade de seus autores e não refletem, necessariamente, a opinião do Blog.