A apresentar resultados para:
Ordem
Mais Recentes
Mais Recentes Mais Antigas
Data
Tudo
Na Última Hora Últimas 24 Horas Últimos 7 Dias Último Mês Último Ano Tudo Datas específicas

EU DisinfoLab: Desinformação marcou eleições em 2025 e deixou “danos de longo prazo”

epa07604032 Electoral helpers empty a ballot box to count votes of the the European elections in Przemysl, Poland, 26 May 2019. The European Parliament election is being held by member countries of the European Union from 23 to 26 May 2019.  EPA/Darek Delmanowicz POLAND OUT

Lisboa, 26 jan 2026 (Lusa) – A investigadora da organização EU DisinfoLab Raquel Miguel defendeu que a desinformação e a interferência estrangeira marcaram o ano eleitoral de 2025, sem chegarem a provocar ruturas imediatas nos processos eleitorais, mas deixando “danos de longo prazo”.

“Em praticamente todos os contextos eleitorais analisados houve atividade de desinformação, por vezes com uma componente clara de FIMI [Manipulação e Interferência de Informação Estrangeira]”, afirmou à Lusa a investigadora, apontando eleições em países como Polónia, Alemanha, Moldávia ou República Checa.

Segundo a investigadora, “em alguns casos, como na Moldávia, a escala foi particularmente preocupante”, embora o cenário mais grave continue a ser o da Roménia, onde eleições foram anuladas em 2024 devido a uma campanha de influência estrangeira.

“Este pior cenário não se repetiu em 2025, mas a Roménia esteve muito presente na perceção de risco e na preparação das autoridades”, sublinhou.

Raquel Miguel destacou a repetição de narrativas direcionadas contra partidos, políticos e instituições, com “campanhas destinadas a descredibilizar processos eleitorais, a atacar posições pró-Ucrânia e a minar a confiança institucional”.

“A ameaça é persistente e improvável de desaparecer”

Apesar disso, o impacto direto foi limitado, uma vez que, “na maioria dos casos, o impacto observável não foi suficiente para perturbar diretamente os processos eleitorais”, disse a responsável, alertando, no entanto, que “a ameaça é persistente e improvável de desaparecer”.

Para a investigadora, um dos sinais mais preocupantes foi a continuidade de campanhas bem documentadas, com as “campanhas pró-Kremlin a circular durante as eleições, o que sugere que os mecanismos de aplicação da lei não funcionaram plenamente”, afirmou.

As plataformas digitais tiveram ainda um papel central nesse fenómeno, pois “as redes sociais amplificaram significativamente estas campanhas, muitas vezes sem medidas adequadas de mitigação”, disse a investigadora, acrescentando que o cumprimento das obrigações previstas no Regulamento dos Serviços Digitais (DSA) “parece insuficiente na prática”.

“Evitar uma crise aguda não significa que o problema esteja resolvido”, rematou, acrescentando que “o dano mais profundo é a erosão gradual da confiança nas instituições democráticas”.

Raquel Miguel é investigadora da organização sem fins lucrativos EU DisinfoLab, sediada em Bruxelas, e que se dedica a reunir conhecimento e experiência sobre a desinformação na Europa, apoiando a comunidade nesta missão.

IA “polui” ecossistema informativo europeu

Raquel Miguel considera que a crescente utilização de Inteligência Artificial (IA) está a transformar profundamente o ecossistema da informação na Europa, facilitando a produção de desinformação e criando um ciclo de degradação.

“A IA é um ‘game changer’ porque altera tanto a escala como a natureza do problema”, afirmou Raquel Miguel, salientando que ferramentas generativas permitem criar “vídeos ‘deepfake’ [conteúdo manipulado], áudio sintético, texto e imagens enganadoras com enorme facilidade”.

Segundo a investigadora, além da desinformação deliberada, existe uma inundação de conteúdos de baixa qualidade, através de “uma produção massiva de ‘AI slop’, usada para propaganda ou monetização, que torna cada vez mais difícil encontrar informação fiável”.

O problema não se limita ao conteúdo final, acrescentou, visto que “os próprios modelos podem incorporar enviesamentos, informação de má qualidade ou até desinformação presente nos dados de treino, que depois é reproduzida e amplificada”, explicou, referindo práticas conhecidas como “LLM poisoning” ou “grooming”.

Uma das mudanças mais significativas, segundo a investigadora, é o papel da IA como intermediária do acesso à informação, uma vez que “as pessoas usam cada vez mais sistemas de IA para procurar e compreender acontecimentos”, alertando que “respostas incorretas, mas confiantes, podem distorcer decisões e perceções”.

Este risco é maior em contextos de crise, uma vez que “durante ‘breaking news’, os ‘chatbots’ tendem a preencher lacunas com detalhes plausíveis, mas falsos, que depois são partilhados e amplificados”, afirmou Raquel Miguel, citando exemplos recentes em que “fabricações geradas por IA circularam logo após ataques ou eventos violentos”.

 

Paulo Resendes