A apresentar resultados para:
Ordem
Mais Recentes
Mais Recentes Mais Antigas
Data
Tudo
Na Última Hora Últimas 24 Horas Últimos 7 Dias Último Mês Último Ano Tudo Datas específicas

ENTREVISTA: “Não acredito que regulamentar a tecnologia faça sentido”- investigadora


*** Alexandra Luís, da agência Lusa ***


Lisboa, 27 abr 2024 (Lusa) - A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) diz, em entrevista à Lusa, que não faz sentido regulamentar a tecnologia, mas que o foco deve ser direitos humanos e privacidade.


Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na conferência internacional de engenharia de 'software' (ICSE2024), o evento mais importante nesta área que decorreu em Lisboa.


Questionada sobre se é preciso mais regulação devido aos riscos de sistemas como os de IA, Carol Smith diz que não.


"Não acredito que regulamentar a tecnologia faça sentido", mas "acredito que precisamos de nos focar mais nos direitos humanos e na proteção da privacidade" e temas à volta disso, "independentemente da tecnologia", explana.


"A IA é apenas a nova tecnologia, daqui a alguns anos estaremos a falar de algo novo, então, em vez disso, precisamos de nos focar na proteção dos dados das pessoas, na proteção da sua privacidade, na proteção dos seus direitos e em garantir que estamos a aplicar isso para qualquer tipo de tecnologia", acrescenta.


A inteligência artificial é "um sistema mais complexo, mais dinâmico e com aplicações mais amplas", recorda, pelo que pode impactar grupos de pessoas maiores.


Mas o que é importante, diz, é "proteger as pessoas, independentemente do sistema que estiverem a usar", razão pela qual defende o reforço de tudo o que é relacionado com os direitos, privacidade e proteção de dados.


Sobre a questão da desinformação, Carol Smith admite que nem todas as pessoas têm a capacidade de serem críticas em relação à informação que lhes é apresentada.


"E quando veem informação que alinha com as crenças por que razão hão de questionar isso", pergunta, acrescentando que esta é "realmente a grande questão".


Nesse sentido, "acho que, como as pessoas são tão difíceis de influenciar, o efeito provavelmente não é tão grande quanto a preocupação", salienta.


Agora, "não estou a tentar dizer que não há preocupação, mas alguém que é muito forte nas suas crenças provavelmente não será influenciado por nada", refere.


Por isso, questionada sobre as eleições nos EUA, a investigadora diz estar mais "preocupada com o escrutínio, com a forma como os escrutínios" são geridos e "com a utilização de técnicas" que todos sabem que são "fiáveis", que é "ainda mais importante do que a influência da informação incorreta, da desinformação", o importante é "garantir que as pessoas acreditam no próprio processo, nos votos em si".


Carol Smith destaca outro aspeto, que representa um "grande risco": as pessoas serem enganadas por alguém e serem alvos de extorsão, por exemplo, utilizando a tecnologia para isso.


"Adoraria ver o pensamento crítico a ser ensinado de forma mais completa" no ensino, defende.


As pessoas não precisam de saber como é que os algoritmos funcionam. Se quiserem, fantástico, mas o que precisam é saber como encontrar os factos, como perceber se algo é falso ou não", sublinha.


Sobre o que a preocupa, diz que "neste momento" é a falta de transparência "sobre a forma como algumas das grandes organizações estão a fazer o seu trabalho e que conjuntos de dados estão a utilizar, potencialmente expondo as pessoas a danos inadvertidamente através da colocação das suas informações pessoais nos sistemas", entre outros.


Como estes conjuntos de dados acabam de obter tudo o que podiam da Internet, há muitas informações que não deveriam estar nesses conjuntos de dados, especialmente para modelos fundamentais como a IA generativa e grandes modelos de linguagem, refere.


A investigadora espera ver mais ética na tecnologia dentro de dois anos: "Espero que [nessa altura] tenha recebido ainda mais atenção" do que atualmente.



ALU // CSJ


Lusa/Fim