A apresentar resultados para:
Ordem
Mais Recentes
Mais Recentes Mais Antigas
Data
Tudo
Na Última Hora Últimas 24 Horas Últimos 7 Dias Último Mês Último Ano Tudo Datas específicas

Desenvolvimentos e riscos da IA não podem ser deixados “aos caprichos” do mercado – especialistas ONU

Nações Unidas, 19 set 2024 (Lusa) - O desenvolvimento da inteligência artificial (IA) e os riscos associados não podem ser deixados "aos caprichos" do mercado, alertaram hoje especialistas da ONU, que defendem ferramentas de cooperação internacional em vez de uma agência de governação global.


Em outubro do ano passado, o secretário-geral das Nações Unidas lançou um órgão consultivo multissetorial de alto nível sobre IA, que junta representantes do Norte Global, Sul Global, academia, setor privado e decisores políticos, para ajudá-lo nas questões da IA e o futuro da sua governação global.


O relatório final, publicado a poucos dias da "Cimeira para o Futuro", em Nova Iorque, constata, sem surpresa, "o défice na governação global em questões de IA" e a quase exclusão dos países em desenvolvimento das discussões sobre um assunto existencial.


Dos 193 Estados-membros da ONU, apenas sete fazem parte de sete grandes iniciativas ligadas à governação da IA (no âmbito da OCDE, do G20 ou do Conselho da Europa), e 118 estão completamente ausentes, principalmente países do sul.


No entanto, a própria natureza "transfronteiriça" destas tecnologias "requer uma abordagem global", insiste o órgão consultivo.


"A IA deve servir a humanidade de forma justa e segura", reiterou António Guterres esta semana. "Se não forem controlados, os perigos representados pela inteligência artificial poderão ter implicações graves para a democracia, a paz e a estabilidade".


Os especialistas destacam o papel "crucial" dos governos nesta matéria.


Neste contexto, o comité de especialistas apela aos Estados-membros da ONU para que implementem ferramentas para uma melhor cooperação global, incentivem o progresso da humanidade e evitem retrocessos, porque "ninguém" pode hoje prever a evolução destas tecnologias e quem toma as decisões não é responsável pelo desenvolvimento e utilização de sistemas "que não compreende".


Nestas circunstâncias, "o desenvolvimento, a implantação e a utilização de tal tecnologia não podem ser deixados apenas aos caprichos dos mercados", advertem, sublinhando o papel "crucial" dos governos e das organizações regionais.


Sugerem a criação de um grupo internacional de peritos científicos em IA, inspirado no modelo dos peritos climáticos da ONU (IPCC) cujos relatórios são uma referência no tema.


Estes cientistas esclareceriam a comunidade internacional sobre os riscos emergentes, áreas onde é necessária investigação adicional ou identificariam como certas tecnologias poderiam ajudar a cumprir os Objectivos de Desenvolvimento Sustentável (eliminação da fome, pobreza, igualdade de género, clima).


Esta ideia é retomada no projeto do Pacto Digital Global, ainda em discussão, que deverá ser adotado no domingo pelos 193 Estados-membros da ONU durante a "Cimeira do Futuro".


Os especialistas sugerem ainda o estabelecimento de um diálogo político intergovernamental regular sobre o assunto e de um fundo para ajudar os países mais atrasados.


Para interligar as diferentes ferramentas, os especialistas apelam à criação de uma estrutura leve no seio do secretariado da ONU em vez da ideia de criar uma agência de governação global, referida por Guterres, tendo como modelo a Agência Internacional de Energia Atómica (AIEA).


Embora o mandato exigisse que explorassem esta possibilidade, "não recomendamos nesta fase a criação de uma agência deste tipo", referem.


"Se os riscos da IA se tornarem mais graves e mais concentrados, poderá ser necessário que os Estados-membros considerem uma instituição internacional mais robusta, com poderes de monitorização, comunicação, verificação e aplicação", afirmam.


Mesmo que observem que a elaboração de uma lista exaustiva de riscos é uma "causa perdida" num setor em rápido desenvolvimento cuja evolução ninguém pode prever, enumeram, no entanto, certos perigos identificados: desinformação que ameaça a democracia, 'deepfakes' mais pessoais (sexuais em particular), violações dos direitos humanos, armas autónomas, utilizadas por grupos criminosos ou terroristas.


"Dada a velocidade, autonomia e opacidade dos sistemas de IA, esperar que surja uma ameaça pode significar que já é tarde demais para responder", admitem, contando com a avaliação e constantes intercâmbios científicos e políticos para que o "mundo não seja tomado de surpresa".



ALU // CSJ


Lusa/Fim