O modelo em questão "procura reduzir o tempo necessário para avaliar conteúdos com potencial de 'fake news'", agilizando a verificação de factos de conteúdos digitais para auxiliar jornalistas a combater o fenómeno da desinformação, refere a universidade em comunicado.
O sistema de IA executa automaticamente todos os passos de verificação de factos feitos manualmente por jornalistas profissionais, necessitando apenas da identificação do enunciado a provar.
O utilizador tem acesso a todos os passos que são tomados na obtenção de evidências, as fontes utilizadas na compilação da informação e um veredito baseado nessa informação, sendo que o modelo gera ainda um artigo explicativo das razões que levam à atribuição do veredito em questão.
"O sistema foi feito de forma a aumentar a capacidade dos jornalistas profissionais e não substituí-los", garante, em comunicado, o autor do sistema e doutorando em engenharia informática e de computadores, Filipe Altoe.
Para o autor, a funcionalidade constitui "uma ferramenta importante na luta contra 'fake news', podendo reduzir a viralidade daquelas que se espalham por vários dias sem contestação".
À agência Lusa, a professora universitária e responsável pelo projeto, Sofia Pinto, explicou que, embora o sistema tenha "sido desenvolvido e testado em inglês [...], seria muito interessante desenvolver e verificar como se comporta uma variante portuguesa".
O trabalho envolveu um estudo que contou com a participação de mais de uma centena de jornalistas profissionais, de forma a validar o funcionamento do modelo e verificar a qualidade das explicações geradas.
O projeto foi aceite num total de apenas 11 trabalhos a nível mundial para serem apresentados na conferência International Joint Conference on Artificial Intelligence (IJCAI) que está a decorrer na cidade canadiana de Montreal, até 22 de agosto.
Leia Também: IA não tem ganhos relevantes na receita e eficiência de empresas, diz MIT