Meteorologia

  • 12 MAIO 2024
Tempo
20º
MIN 14º MÁX 23º

Lista de diretrizes ajuda modelos de IA a terem mais ética

A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) afirma, em entrevista à Lusa, que uma lista de diretrizes ajuda estes modelos a terem mais ética e menos preconceitos.

Lista de diretrizes ajuda modelos de IA a terem mais ética
Notícias ao Minuto

11:02 - 28/04/24 por Lusa

Tech Inteligência Artificial

Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na conferência internacional de engenharia de 'software' (ICSE2024), o evento mais importante nesta área que decorreu em Lisboa.

"O trabalho que faço é reunir ciência da computação, psicologia cognitiva e 'design' artístico (...)" e ajudar "as pessoas a entender os impactos que as escolhas" nos modelos de IA têm no sistema, ou seja, dos dados que decidem usar, a maneira como aplicam algoritmos a esses dados, permitindo perceber o quão confiável é, explica.

Se escolherem os dados errados, se aplicarem o modelo errado ou se o interface do utilizador for difícil de entender, "as pessoas que a utilizam não irão confiar nela ou não gostarão da forma como funciona. "E, portanto, todos esses aspetos têm de estar corretos para que as pessoas estejam dispostas a usar os sistemas e de maneira correta", diz.

Questionada sobre como é que podemos resolver a questão do viés nos modelos de IA, Carol Smith foi perentória: "Não podemos".

Porque "os dados são sempre uma representação do passado, são sempre históricos porque são criados por humanos e somos todos tendenciosos", afirma a investigadora que aborda temas como IA generativa, limitações da IA e o preconceito inerente aos sistemas criados por humanos, ética e sistemas confiáveis.

Até porque "há pelo menos uma razão pela qual as informações foram recolhidas, pela qual foi organizado da maneira que foi" e isso introduz viés.

"Quando pega um conjunto de dados e aplica um algoritmo, essa é outra opção. Então está apenas a adicionar preconceito a cada escolha que faz sobre como o sistema é, e isso é verdade para qualquer tipo de sistema. Mas com a IA, essas escolhas podem mudar drasticamente o que o sistema cria ou produz porque esses sistemas não entendem nada, estão simplesmente fazendo correspondência de padrões ou estão escolhendo a próxima informação provável", explica.

Nesse sentido, os sistemas "podem encontrar informações que não se pretendia que o sistema prestasse atenção", aponta.

E como é que se pode reduzir esse efeito? "Uma parte é compreender os dados, examinar e conhecer os preconceitos existentes e estar disposto a dizer não aos conjuntos de dados que sabemos terem muitos preconceitos negativos", reforça Carol Smith.

Recorda que há muitas indústrias que têm sido, historicamente, preconceituosas contra certos grupos de pessoas devido a uma variedade de razões.

Sobre se é necessário criar uma lista de diretrizes para tornar os modelos de IA mais éticos, Carol Smith admite que sim.

"Até certo ponto, sim. Criámos listas de verificação, algumas maneiras diferentes para as pessoas abordarem esses problemas e começarem a pensar sobre as implicações das coisas que estão a fazer", sublinha.

"Acho que o maior aspeto é realmente dedicar um tempo para entender os dados e o contexto em que eles serão usados e ter certeza de que estão corretos e que as escolhas certas estão a ser feitas", acrescenta.

Os sistemas "são dinâmicos, têm de ser monitorados constantemente", pelo que também é preciso "estar disposto a entender o problema, entender o custo total" de deter estes sistemas e ter os recursos para monitorizá-los "a longo prazo para garantir que não mudaram de uma forma que afete negativamente as pessoas", remata Carol Smith.

Leia Também: Inteligência Artificial está entre os desafios dos 'contact centers'

Recomendados para si

;

Recebe truques e dicas sobre Internet, iPhone, Android, Instagram e Facebook!

O mundo tecnológico em noticias, fotos e vídeos.

Obrigado por ter ativado as notificações de Tech ao Minuto.

É um serviço gratuito, que pode sempre desativar.

Notícias ao Minuto Saber mais sobre notificações do browser

Campo obrigatório