Joe Burton: ‘Corrida’ a inteligência artificial aumenta risco de desinformação em eleições
Londres, 25 mar 2024 (Lusa) - O especialista em conflitos cibernéticos e tecnologias emergentes Joe Burton alertou hoje para o lançamento apressado de soluções como grandes modelos de linguagem, de inteligência artificial generativa, que podem ser usados para desinformação, pondo em risco processos eleitorais.
O professor de Segurança Internacional da universidade britânica de Lancaster referiu que os grandes modelos de linguagem [Large Language Models em inglês, também designados pela sigla LLM] são usados como uma ferramenta de desinformação.
A mais conhecida destas soluções de inteligência artificial generativa é o ‘chatbot’ ChatGPT da norte-americana OpenAI, lançado em 2022, mas entretanto a Google lançou um produto equivalente, chamado Gemini (antigo Bard) e a Anthropic, financiada pela Amazon, introduziu o Claude.
"Os imperativos comerciais, a necessidade de vencer os concorrentes através do lançamento destes produtos, estão a sobrepor-se às preocupações de segurança”, lamentou Burton durante a conferência "Eleições legislativas: Qual a dimensão da ameaça que a IA e a desinformação representam para as eleições de 2024?” realizada hoje em Londres.
O académico alertou que "esta combinação de adversários determinados, a evolução tecnológica, a falta de atenção à segurança no setor empresarial vai juntar-se para criar um risco ainda maior e mais elevado para os nossos processos eleitorais”.
Burton explicou que o uso de inteligência artificial (IA) pela Rússia ou China para influenciar eleições pode não ser necessariamente através de um apoio a um candidato específico, mas como uma forma de "enfraquecer a democracia para semear desconfiança e discórdia”.
“A IA e os algoritmos podem ser usados em torno de temas catalisadores, como tensões raciais ou étnicas, a Palestina, a guerra na Ucrânia”, funcionando como "rastilhos para semear discórdia e divisão dentro dos nossos sistemas políticos”, disse no evento organizado pelo Institute for Government.
Para o diretor executivo do verificador britânico Full Fact, Chris Morris, o problema é que a IA generativa "impulsiona tudo, tanto em termos de velocidade como em termos de escala, e o que está a fazer é revolucionar a criação, a produção e a distribuição da informação”.
Com a evolução desta tecnologia, a distinção entre vídeos e áudios verdadeiros e falsos é cada vez mais difícil, como aconteceu recentemente no Reino Unido com dois sons ‘deepfake’ do presidente da Câmara Municipal de Londres, Sadiq Khan, e do líder do Partido Trabalhista, Keir Starmer.
Em relação às eleições legislativas previstas para o fim do ano, Morris, ex-jornalista da BBC, sugeriu que um desafio será o risco de as pessoas se "esforçarem tanto para detetar as falsificações que se esquecem de se concentrar no que os políticos realmente dizem”.
O diretor do Full Fact sublinhou que a IA também representa uma oportunidade, e que a instituição criou ferramentas automatizadas de verificação de factos nos últimos anos para combater a desinformação.
BM // PDF
Lusa/fim