"A moderação de conteúdos desempenha um papel fundamental na estruturação do discurso 'online', mas o trabalho humano e o processo diário de tomada de decisão na moderação de conteúdo permanecem subexaminados", começa por ler-se na informação divulgada.
Os investigadores defendem que as decisões quotidianas de moderação privilegiam critérios económicos e sociais, em vez da consistência e segurança digital.
"As decisões quotidianas de moderação desdobram-se num conjunto sóciotécnico e económico em que as decisões são descontextualizadas e orientadas pela plausibilidade, em vez de orientadas pela consistência", refere o estudo.
A moderação de conteúdo consiste na deteção, avaliação e intervenções tomadas sobre os conteúdos e os comportamentos considerados inaceitáveis por plataformas ou outros intermediários de informação.
Além disso, envolve também a moderação algorítmica, que permite uma regulação em escala, mas limitada na compreensão textual, sendo capaz de camuflar as políticas e os preconceitos das plataformas digitais.
É neste sentido que "o trabalho humano é necessário para lidar com as complexidades contextuais na tomada de decisões e os vieses inerentes à automatização", refere o artigo científico.
Atualmente, parte da moderação de conteúdos 'online' é também feita de forma voluntária, como acontece com os utilizadores que formulam as conhecidas 'notas da comunidade' em redes sociais como o X.
Recentemente, um outro estudo da Universidade de Paris revelou que as notas da comunidade desta rede social (X) não conseguem moderar o conteúdo mais polarizador, colocando potenciais riscos ao discurso cívico, processos eleitorais e desinformação.
Assim, a academia parisiense concluiu que condições de trabalho adversas, metas rígidas, insegurança no trabalho e suporte mínimo resultam num aumento da confiança em ferramentas automatizadas e regras simplificadas, muitas vezes removendo conteúdo sem considerar o contexto.
A New Media & Society é uma revista académica que estuda as áreas da sociologia, media e comunicação e atualmente conta com uma colaboração direta com a Universidade de Illinois, em Chicago.
Leia Também: Desinformação gerada por IA quase duplicou em agosto de 2025