De acordo com o documento, o impacto polarizador das redes sociais não é apenas resultado dos algoritmos considerados maus, pois, atualmente, em causa estão componentes centrais do funcionamento das plataformas.
O estudo, intitulado, "Pode-se corrigir as redes sociais? Testando intervenções pró-sociais através de simulação social generativa", sugere que não são os algoritmos que estão a causar o problema, o que pode tornar difícil qualquer tentativa de eliminar comportamentos prejudiciais 'online'.
Para a realização do estudo foram criados 500 'chatbots' de Inteligência Artificial (IA) para imitar uma variedade de crenças políticas nos Estados Unidos da América (EUA), estes modelos foram alimentados pelo modelo de linguagem de grande escala (LLM) GPT-4o mini.
Depois de treinados, foram instruídos para interagirem entre si numa rede social simples, que os investigadores criaram para o efeito, sem anúncios ou algoritmos.
Neste sentido, durante as cinco fases da experiência, cada uma a envolver mais de 10.000 ações, os agentes de IA tenderam sempre a seguir pessoas com quem partilhavam filiações políticas, enquanto aqueles com opiniões mais partidárias ganhavam mais seguidores e republicações.
Assim, "as disfunções centrais podem estar enraizadas no 'feedback' entre o envolvimento reativo e o crescimento da rede, levantando a possibilidade de uma reforma significativa que exigirá repensar a dinâmica fundamental da arquitetura das plataformas".
O estudo refere ainda que as principais disfunções das redes sociais, como a amplificação de vozes extremas, a desigualdade da atenção ou a desinformação, "podem surgir mesmo num ambiente simulado que inclua apenas publicações, republicações e seguidores, na ausência de algoritmos de recomendação ou otimização", ilibando, assim, o algoritmo pela toxicidade presente nas redes sociais.
Leia Também: Recolha indevida de dados por IA levanta riscos à privacidade