Quando a mentira parece verdade: os riscos da IA para a opinião pública
- Gustavo Rangel
- 8 de set.
- 4 min de leitura
Tecnologias de inteligência artificial, como deepfakes e textos automatizados, estão sendo usadas para manipular informações, desafiar a percepção da realidade e enfraquecer o senso crítico da sociedade.

Nunca foi tão fácil acessar informações na era das redes sociais, l inteligência artificial comunicação instantânea. Contudo, esse progresso tecnológico trouxe um problema cada vez mais notável: o uso inadequado de informações e suas consequências diretas no senso crítico da população. Ao contrário do que se imaginava, o fácil acesso à informação não levou necessariamente a uma população mais informada. Na verdade, a abundância de dados, quando mal utilizada ou manipulada, tem prejudicado a habilidade das pessoas de refletir, analisar e formar suas próprias opiniões.
Um problema antigo, agora potencializado
Ao longo da história, o controle e a manipulação da informação têm sido empregados como instrumentos de dominação. Durante as décadas de 1930 e 1940, regimes como o nazismo na Alemanha e o fascismo na Itália empregaram a propaganda como instrumento político. Getúlio Vargas empregou a censura aos meios de comunicação estatais para fortalecer seu poder no Brasil durante o Estado Novo (1937-1945). A manipulação de informações é uma técnica antiga, porém, com o advento da internet e, especialmente, das redes sociais, esse fenômeno se expandiu de maneira sem precedentes.

Hoje, não é necessário ser governo ou dono de uma emissora para espalhar desinformação. Um simples perfil em uma rede social, um blog ou mesmo mensagens de WhatsApp podem atingir milhares ou milhões de pessoas em minutos, muitas vezes sem qualquer verificação da veracidade do conteúdo.
A desinformação como ameaça ao pensamento crítico
O pensamento crítico é a habilidade de analisar, questionar e refletir sobre o que se consome. Hoje isso enfrenta riscos em uma sociedade em que a informação circula rapidamente. O uso indevido de ferramentas de inteligência artificial (IA) agravou esse risco, uma vez que essas ferramentas desempenham um papel fundamental na criação e propagação de conteúdos falsos.
A inteligência artificial, particularmente os modelos generativos de texto e imagem, tem sido empregada na criação de vídeos falsos, imagens alteradas e textos que simulam ser notícias autênticas. Uma pesquisa mundial conduzida pela Google em colaboração com a Duke University examinou mais de 136 mil incidentes de desinformação desde 1995 e chegou à conclusão de que aproximadamente 80% envolviam mídias, textos, imagens ou vídeos que geralmente são produzidos ou modificados com o auxílio de IA.
No Brasil, essa inquietação tem aumentado. De acordo com um estudo da IPSOS, 74% dos brasileiros acreditam que a IA já está contribuindo para a criação de notícias falsas, e 51% afirmam que isso deve aumentar nos próximos anos. A percepção pública é corroborada por episódios concretos: durante a pandemia de Covid-19, informações falsas sobre vacinas, tratamentos e gravidade do vírus proliferaram intensamente nas redes sociais, apesar das evidências científicas claras. As consequências foram sérias: atraso na imunização, sobrecarga do sistema de saúde e crescimento no número de óbitos.

A desinformação gerada por IA não só afeta a saúde, mas também tem consequências na política. Em 2024, um relatório do Center for Countering Digital Hate alertou sobre a utilização de imagens falsas criadas por inteligência artificial em cenários eleitorais. Vídeos alterados de candidatos doentes ou cenas fabricadas de fraudes em urnas são alguns exemplos. Essas peças, que parecem visualmente realistas, enganam o público e abalam a confiança nas instituições.
Outro aspecto alarmante é o que os pesquisadores denominam de "alucinação" da IA quando sistemas como chatbots produzem informações falsas que parecem verdadeiras. Quando combinadas com a linguagem persuasiva da IA, essas respostas enganosas têm o potencial de ser bastante convincentes, até mesmo para aqueles que costumam desconfiar dessas tecnologias. Um estudo recente da Universidade de Zurique mostrou que robôs com inteligência artificial, ao imitarem perfis humanos, foram capazes de influenciar discussões na internet e mudar as opiniões de usuários reais, sem que os moderadores notassem que estavam lidando com máquinas.
I.A fortalece a preguiça cognitiva das pessoas?
A ciência também investiga os efeitos cognitivos desse fenômeno. De acordo com o MIT, o uso constante de inteligência artificial para atividades de escrita e informação pode diminuir a atividade cerebral, impactar a memória e comprometer a habilidade de pensamento crítico. Esse fenômeno foi denominado "preguiça metacognitiva", que ocorre quando o cérebro começa a confiar demais na tecnologia e para de pensar de forma independente.
Nesse contexto, especialistas destacam a necessidade urgente de ações conjuntas. A principal delas é a educação midiática, que consiste em instruir crianças, jovens e adultos a reconhecer fontes confiáveis, questionar conteúdos sensacionalistas e confirmar a veracidade das informações. Por outro lado, as plataformas digitais devem investir em mecanismos mais eficazes para detectar e impedir a disseminação de conteúdo falso, principalmente aquele produzido por inteligência artificial.

Em contrapartida, as novas tecnologias também podem ser aliadas. Pesquisas recentes criam sistemas de inteligência artificial que auxiliam os usuários a aprimorar o pensamento crítico, fornecendo explicações imparciais e alertas sobre publicidade enganosa. Apesar de estarem em estágio inicial, essas soluções têm o potencial de se transformar em instrumentos eficazes no combate à manipulação.
Em um mundo altamente conectado, no qual todos produzem e consomem informação, preservar o pensamento crítico é salvaguardar a democracia. Além disso, com o avanço das inteligências artificiais, essa proteção se tornou mais necessária do que nunca.







Comentários