"A verificação manual de factos jornalísticos é a maneira usual de lidar com notícias falsas, no entanto, essa tarefa trabalhosa regularmente não é compatível com a escala do problema", pelo que a verificação automatizada de factos (AFC, sigla em inglês) é apresentada "como uma potencial solução", lê-se no artigo "Verificação de factos automatizada e explicada para jornalistas", da autoria da investigadora informática Sofia Pinto.
A verificação automatizada de factos tem como base ferramentas de Inteligência Artificial (IA), neste caso modelos de linguagem em grande escala (LLMs) para gerar automaticamente conjuntos de dados de verificação de factos, que suportem outras abordagens de verificação.
"A verificação humana é fundamental para reduzir os efeitos cada vez mais negativos das falsas notícias", mas "a disseminação viral de algumas afirmações frequentemente torna essa atividade demorada ineficaz", refere o documento.
Em entrevista à Lusa, Sofia Pinto, investigadora na área da IA do IST, explica que um dos objetivos do projeto é acelerar a identificação de desinformação, pois "leva muito tempo" entre a viralização de uma publicação 'online' e a publicação de um desmentido por um órgão jornalístico.
"A tarefa jornalística de verificação e criação das explicações de notícias falsas ou manipuladas envolvem tempo e recursos que dificultam a possibilidade de parar esta partilha viral logo no início, a tempo de deter a sua proliferação indiscriminada", afirma.
Para a investigadora, "o tempo que levam a serem desmentidas, faz com que as notícias falsas ou manipuladas, repetidas indiscriminadamente, se tornem "verdades" acreditadas por quem as lê e com que os desmentidos produzidos pelos 'fact-checkers' nunca venham a ter a mesma viralidade, porque o assunto já morreu, já são notícias de ontem".
De forma a ajudar nesta tarefa, o que a docente propõe é uma "ferramenta com a qual os jornalistas possam melhorar a capacidade de tentar reagir mais atempadamente à verificação de notícias".
O modelo em questão "procura reduzir o tempo necessário para avaliar conteúdos com potencial de fake news", agilizando a verificação de factos de conteúdos digitais para auxiliar jornalistas a combater o fenómeno da desinformação.
O sistema de IA executa automaticamente todos os passos de verificação de factos feitos manualmente por jornalistas profissionais, necessitando apenas da identificação do enunciado a provar.
O utilizador tem acesso a todos os passos que são tomados na obtenção de evidências, as fontes utilizadas na compilação da informação e um veredicto baseado nessa informação, sendo que o modelo gera ainda um artigo explicativo das razões que levam à atribuição do veredicto em questão.
Sofia Pinto confessa que, embora tenha "sido desenvolvido e testado em inglês (...), seria muito interessante desenvolver e verificar como se comporta uma variante portuguesa".
O trabalho envolveu um estudo que contou com a participação de mais de uma centena de jornalistas profissionais, de forma a validar o funcionamento do modelo e verificar a qualidade das explicações geradas.
A iniciativa desenvolvida por alunos do IST insere-se no projeto CIMPLE que visa pesquisar e desenvolver explicações criativas e inovadoras de IA social e baseada no conhecimento, e testá-las no domínio da deteção e rastreamento de informações manipuladas.
O CIMPLE baseia-se em modelos de criatividade humana, tanto na manipulação quanto na compreensão da informação, para projetar explicações mais compreensíveis, reconfiguráveis e personalizáveis.
*** Paulo Resendes (texto) e Miguel A. Lopes (fotografia), da agência Lusa***
PYR // EA
Lusa/Fim