Chamadas geradas por IA a imitar Biden tentam suprimir votos em New Hampshire

Washington, 23 jan 2024 (Lusa) -- New Hampshire está a investigar a alegada utilização de chamadas automáticas, que através de Inteligência Artificial (IA) imitaram a voz do Presidente Joe Biden, para desencorajar eleitores daquele Estado norte-americano de irem às urnas nas primárias desta terça-feira.
O gabinete do procurador-geral de New Hampshire, John Formella, revelou hoje que está a investigar estes relatos, acrescentando que esta mensagem gravada, enviada a vários eleitores no domingo, parece ser uma tentativa ilegal de interromper e suprimir a votação.
John Formella acrescentou que os eleitores "devem desconsiderar totalmente o conteúdo desta mensagem", noticiou a agência Associated Press (AP).
Uma gravação da chamada analisada pela AP gera uma voz semelhante à do democrata Joe Biden, incluíndo a sua frase frequentemente utilizada: "What a bunch of malarkey" [Que monte de disparates, na tradução em português].
De seguida, apela a quem está a ouvir para "guardar o seu voto para as eleições de novembro".
"Votar esta terça-feira apenas ajuda os republicanos na sua missão de eleger Donald Trump novamente", refere ainda a voz que imita Biden.
Não é verdade que a votação nas primárias desta terça-feira impede os eleitores de votar nas eleições gerais de novembro.
Nas primárias democratas, o Presidente e principal candidato, Joe Biden, não aparecerá nos boletins de voto, uma vez que a disputa de New Hampshire viola as regras do partido nacional, mas os seus apoiantes estiveram em campanha nas últimas semanas.
O Comité Nacional Democrata, que tem a palavra final sobre a forma como o seu candidato presidencial será escolhido, afirma que os responsáveis do partido estadual de New Hampshire violaram as regras partidárias nacionais ao agendar a sua disputa antes do permitido, uma vez que foi a Carolina do Sul o estado escolhido pelo Comité para o arranque das primárias.
Entre os candidatos democratas cujos nomes aparecerão nas urnas estão o do congressista Dean Phillips, de Minnesota, e da escritora Marianne Williamson.
Não se sabe quem é o responsável por estes telefonemas, mas têm sido falsamente associadas como provenientes do número de telemóvel pessoal de Kathy Sullivan, ex-presidente estadual do Partido Democrata que ajuda a gerir o "Granite for América", um super-PAC [super comité de ação política] que apoia a campanha de Biden.
"É uma interferência eleitoral total e claramente uma tentativa de assediar a mim e a outros eleitores de New Hampshire que estão a planear votar Joe Biden [write-in, na expressar em inglês] na terça-feira", frisou Kathy Sullivan.
A responsável pela campanha de Biden, Julie Chavez Rodriguez, referiu em comunicado que estão "a discutir ativamente ações adicionais a serem tomadas imediatamente".
A aparente tentativa de supressão eleitoral utilizando tecnologia de IA generativa, que está em rápido desenvolvimento, é um exemplo daquilo que os especialistas alertam que fará de 2024 um ano de desinformação eleitoral sem precedentes em todo o mundo.
'Deepfakes' generativos de IA já apareceram em anúncios de campanha na corrida presidencial de 2024, e a tecnologia foi mal utilizada para espalhar desinformação em múltiplas eleições em todo o mundo no ano passado, da Eslováquia à Indonésia e Taiwan.
"Estávamos preocupados que a IA generativa fosse transformada numa arma nas próximas eleições e estamos a ver o que é certamente um sinal do que está por acontecer", alertou Hany Farid, especialista em análise forense digital da Universidade da Califórnia.
Chatbot proibido a candidato democrata
A OpenAI removeu um 'chatbot' criado para se fazer passar por um candidato democrata às eleições presidenciais dos Estados Unidos, impondo desta forma limites à utilização das suas ferramentas de Inteligência Artificial (IA) generativas por campanhas políticas.
Um grupo de apoio a Dean Phillips, membro do Congresso dos EUA, pediu a uma 'start-up' com sede em Miami que criasse um 'chatbot' que permitisse aos utilizadores 'conversar' com este candidato pouco conhecido.
"Recentemente removemos uma conta de desenvolvedor que violou conscientemente as regras da nossa API (interface de programação de aplicativos) e da nossa plataforma, que proíbem campanhas políticas ou o roubo da identidade de uma pessoa sem o seu consentimento", explicou a OpenAI ao Washington Post, que foi o primeiro jornal a divulgar esta informação.
A ascensão da IA generativa levantou preocupações de que as pessoas poderiam utilizar o ChatGPT e outras ferramentas semelhantes para semear o caos político, nomeadamente através da desinformação ou de clones de IA, no período que antecede vários eventos eleitorais importantes que terão lugar este ano em todo o mundo.
Como líder nesta tecnologia, a OpenAI, que é largamente financiada pela Microsoft, está a receber atenção especial.
A empresa com sede na Califórnia disse na semana passada que forneceria aos utilizadores recursos para reduzir o risco de danos.
O robô conversacional denominado "Dean-bot" pretendia servir como ferramenta de informação como parte da campanha para as primárias do Partido Democrata.
A OpenAI foi rápida em removê-lo depois de um artigo no Washington Post, onde foi divulgado um 'link' que permitia que esta ferramenta fosse testada.
O grupo político por trás do 'chatbot', "We Deserve Better" [Nós Merecemos Melhor, em português], é coliderado por um ex-colaborador de Sam Altman, chefe da OpenAI, e recebeu financiamento de investidores do Silicon Valley, segundo o diário norte-americano.
Após a publicação do relatório, a Delphi, 'startup' contratada para criar o robô, foi excluída da plataforma da OpenAI.
Delphi aproveita os modelos de IA da OpenAI para criar 'chatbots' capazes de imitar as vozes de personalidades como influenciadores ou celebridades.
Após a polémica, a empresa realçou agora que vai proibir "qualquer uso da [sua] plataforma por figuras ou organizações políticas".
"Acreditamos erroneamente que seria aceitável, sob as regras da OpenAI, que um comité de ação política que apoia Dean Phillips criasse um clone dele com as nossas ferramentas", explicou a Delphi no domingo, na rede social X, num pedido de desculpas à OpenAI.
DMC (MYMM) // RBF
Lusa/Fim