De acordo com a plataforma espanhola de 'fact-checking' Maldita, o objetivo das empresas é procurar refinar as repostas dos modelos de IA, para que estes sejam capazes de gerar diferentes conclusões, por exemplo, para treinar uma ferramenta capaz de gerar imagens é preciso milhões de imagens associadas a determinadas palavras, pelo que "a IA deve ser treinada em bancos de dados diversos e extensos".
Um modelo de aprendizagem em máquina precisa de um grande banco de dados para aprender a associar elementos, pois são as informações fornecidas que permitem relacionar termos e gerar resultados, sendo que para isso é importante que os dados sejam confiáveis.
Neste sentido, os utilizadores das redes sociais estão sempre a produzir dados, desde as fotos publicadas, aos 'likes' (gostos) ou comentários, informações que podem ser aproveitadas pelas empresas para treinar as suas ferramentas de IA.
No caso da Meta (Facebook, Instagram e WhatsApp), a empresa começou a utilizar os dados dos utilizadores adultos na União Europeia (UE) desde o dia 27 de maio com o objetivo de treinar o modelo Meta AI.
Já em maio de 2024, a empresa de Mark Zuckerberg anunciou os seus planos para usar a atividade dos utilizadores no Instagram e no Facebook para treinar IA, um projeto que foi interrompido em junho, devido a preocupações com a privacidade das autoridades europeias de proteção de dados.
Apesar disso, o X indica na sua política de privacidade que pode "processar os dados que coleciona e informações disponíveis publicamente para ajudar a treinar modelos de aprendizagem de computador ou inteligência artificial", sendo possível ao utilizador recusar o uso dos seus dados através das configurações da conta.
Também a política de privacidade do TikTok afirma que a plataforma usa as informações pessoais dos utilizadores para "melhorar e desenvolver a plataforma, entre outros métodos, rastreando interações e uso em dispositivos", bem como analisando a forma como as pessoas usam a tecnologia.
O Slack, uma aplicação de comunicação empresarial, usa por padrão os dados dos clientes, como "mensagens, conteúdo e arquivos" carregados na plataforma para desenvolver "funções como emojis e recomendações de canais".
A Abobe, uma plataforma de tecnologia e experiências digitais, também mudou as suas políticas em junho de 2024 para ter acesso, usar e dar a terceiros os conteúdos dos utilizadores, levantando preocupações sobre as finalidades da utilização destas informações.
Atualmente, a empresa refere que "não examina o conteúdo armazenado localmente em dispositivos, não treina modelos de IA generativa no seu conteúdo ou no conteúdo dos seus clientes".
Recentemente, a Comissão Nacional de Proteção de Dados (CNPD) alertou para potenciais consequências e implicações do uso dos dados pessoais para o treino das ferramentas de IA, salientando que os utilizadores portugueses devem estar cientes dos seus direitos.
Leia Também: Governo moçambicano vai avançar com regulação de IA