A apresentar resultados para:
Ordem
Mais Recentes
Mais Recentes Mais Antigas
Data
Tudo
Na Última Hora Últimas 24 Horas Últimos 7 Dias Último Mês Último Ano Tudo Datas específicas

Estudo alerta: desinformação gerada pelo ChatGPT pode ser mais convincente do que a humana

epa10511142 An illustration picture shows the introduction page of ChatGPT, an interactive AI chatbot model trained and developed by OpenAI, on its website in Beijing, China, 09 March 2023. According to the White Paper on the Development of Artificial Intelligence Industry released by Beijing economy and information technology bureau on 13 February 2023, the capital city will support leading enterprises in developing artificial intelligence (AI) models that can challenge ChatGPT.  EPA/WU HAO

O instrumento de conversação entre humano e computador (chatbot) ChatGPT-3 e outras ferramentas de inteligência artificial generativa podem informar e desinformar os utilizadores de redes sociais mais eficazmente do que os humanos, segundo um estudo publicado quarta-feira pela Science Advances.
Uma equipa liderada pela Universidade de Zurique usou a versão ChatGPT-3 para um estudo com 679 participantes, que revelou maior dificuldade em distinguirem 'tweets' feitos por humanos dos gerados por 'chatbots'.
Além disso, também tiveram problemas para identificar quais as mensagens geradas por IA eram precisas e quais eram imprecisas.
Desde o lançamento do ChatGPT, em novembro de 2022, o seu uso generalizado aumentou a preocupação com uma possível disseminação de desinformação online, especialmente em plataformas de redes sociais, lembram os autores do estudo.
Como estas ferramentas são recentes na esfera pública, a equipa decidiu se aprofundar em vários aspetos o seu uso.
Recrutaram 697 pessoas de língua inglesa dos Estados Unidos, Reino Unido, Canadá, Austrália e Irlanda, principalmente entre 26 e 76 anos, para o estudo.
A tarefa era avaliar 'tweets' gerados por humanos e gerados pelo GPT-3 que continham informações precisas e imprecisas sobre tópicos como vacinas e autismo, tecnologia 5G, covid-19, mudança climática e evolução, que estão frequentemente sujeitos a equívocos do público.
Para cada tópico, os pesquisadores reuniram mensagens do Twitter feitas por humanos e instruíram o modelo GPT-3 a gerar outras, algumas das quais com informações corretas e outras imprecisas.
Os participantes do estudo tiveram que avaliar se as mensagens eram verdadeiras ou falsas e se foram criadas por um humano ou GPT-3.
Os resultados indicaram que mais frequentemente eram capazes de identificar desinformação gerada por humanos e a precisão dos 'tweets' verdadeiros gerados pelo GPT-3. No entanto, também foram mais propensos a considerar a desinformação gerada pelo GPT-3 como precisa.
“As nossas descobertas levantam questões importantes sobre os possíveis usos e abusos do GPT-3 e outros geradores avançados de texto de IA e as implicações para a disseminação de informações na era digital”, concluem os autores.

 

VP // RBF
Lusa/fim