Empresas tecnológicas querem fortalecer combate ao conteúdo extremista

Nova Iorque, 23 set 2019 (Lusa) – O Facebook, Twitter, Google e outras empresas tecnológicas anunciaram hoje que vão fortalecer a luta contra o conteúdo extremista, criando uma estrutura independente.
Esta iniciativa é resultado de um consórcio criado em 2017 pelo Facebook, Microsoft, Twitter e Google (via YouTube). A Amazon, com sede em Seattle, nos EUA, e as plataformas LinkedIn (propriedade da Microsoft) e WhatsApp (Facebook) aderiram à nova organização.
“Isto frustrará as tentativas, cada vez mais sofisticadas, de terroristas e extremistas violentos de usar plataformas digitais", refere um comunicado.
O Facebook adianta que a estrutura beneficiará de funcionários independentes e de um diretor executivo, cujo nome não foi divulgado, que será nomeado. Entidades não-governamentais liderarão um comité consultivo.
Os governos dos Estados Unidos, França, Reino Unido, Canadá, Nova Zelândia e Japão também terão um papel consultivo, assim como especialistas das Nações Unidas e da União Europeia.
A empresa tecnológica Facebook anunciou na terça-feira que espera nomear, até final do ano, os primeiros membros de um novo conselho de supervisão para melhor eliminar conteúdos violentos e discursos de ódio nas redes sociais digitais que gere.
O painel de supervisão terá por objetivo pronunciar-se sobre os critérios para eliminação de conteúdos nas redes sociais Facebook ou Instagram por constituírem discurso de ódio.
O líder da empresa, Mark Zuckerberg, tinha anunciado os planos para estabelecer este conselho de supervisão em novembro passado, depois de o Facebook ter sido alvo de críticas por falhas na proteção de privacidade dos utilizadores e pela sua incapacidade de remover, de forma rápida e efetiva, campanhas de desinformação e discursos de ódio.
Nos seus novos planos de ação, para controlo de mensagens de ódio, Zuckerberg também disse que a sua empresa recrutou agentes de polícia de organismos de defesa na área digital de vários países, para ajudar a formatar as ferramentas de inteligência artificial que consigam impedir a transmissão de vídeos de ataques extremistas, como as que representaram o ataque a uma mesquita em Christchurch, na Nova Zelândia, onde foram assassinados 51 fiéis muçulmanos.
Nesse episódio, o Facebook foi criticado por ter demorado 17 minutos a retirar a transmissão em direto do ataque à mesquita.
Desde então, o Facebook tem procurado iniciativas de restrições de acesso à rede social, mas reconhece agora que precisa da ajuda de autoridades policiais de vários países, como o Reino Unido e os Estados Unidos, para agilizar e fortalecer a sua estratégia de controlo de conteúdos violentos.

 

António Oliveira