"O uso do Gemini, mesmo com proteções adicionais para crianças e adolescentes, ainda é arriscada para utilizadores jovens", começa por referir a informação divulgada pela organização.
Apesar da Google ter adicionado medidas que visam a proteção de crianças e adolescentes menores de 18 anos, o relatório adverte que a plataforma de IA não foi construída para crianças.
"Os sistemas de IA receberam classificações gerais de 'Alto Risco', com testes a revelar falhas fundamentais de 'design' e falta de medidas de segurança apropriadas à idade", lê-se no relatório.
"Embora os filtros do Gemini ofereçam alguma proteção, ainda expõem as crianças a algum material impróprio e não reconhecem sintomas graves de saúde mental", acrescentam os investigadores.
Segundo o documento, o modelo de IA analisado é capaz de partilhar material impróprio e inseguro para o qual as crianças não estão prontas, incluindo material relacionado com sexo, álcool, drogas e aparentes conselhos sobre saúde mental.
Além disso, a organização refere ainda que a ferramenta de IA "trata todas as crianças ou adolescentes da mesma forma, apesar das enormes diferenças de desenvolvimento, ignorando que os utilizadores mais jovens precisam de orientação e informações diferentes dos mais velhos".
Neste sentido, a organização alerta que nenhuma criança com menos de cinco anos deve utilizar 'chatbots' de IA e que crianças com idade entre os seis e os 12 anos apenas usem as ferramentas de IA com supervisão de um adulto.
Apesar disso, "ninguém com menos de 18 anos deve usar 'chatbots' de IA para companhia, incluindo saúde mental e apoio emocional".
Perante a publicação do relatório, a Google assegurou ao 'site' TechCrunch, citado pela agência Europa Press, que dispõe de políticas e medidas de segurança específicas para menores, com o objetivo de prevenir resultados "prejudiciais".
A tecnológica garantiu também que que consulta especialistas externos para melhorar a proteção das suas ferramentas.
No entanto, a 'gigante' da tecnologia admite que algumas das respostas do Gemini "não funcionam como previsto", pelo que recentemente adicionou novas medidas de segurança para colmatar o problema.
A Google afirma ainda que o relatório em causa parece fazer referência a funções não disponíveis para utilizadores menores de 18 anos e que não teve acesso às perguntas que a organização utilizou nos testes feitos ao modelo de IA.
Na semana passada, a concorrente OpenAI anunciou a implementação de um mecanismo de controlo parental para a sua ferramenta de IA ChatGPT, após os pais de um adolescente terem acusado a plataforma de ter encorajado o seu filho a suicidar-se.
"No próximo mês, os pais poderão ligar a sua conta à dos seus filhos menores" e "controlar a forma como o ChatGPT responde aos seus filhos adolescentes com regras de comportamento do modelo", afirmou a OpenAI.
De acordo com a empresa, também será possível aos pais serem alertados caso seja detetada uma "angústia aguda" nas conversas dos seus filhos e controlarem as definições da conta.
A Common Sense Media é organização sem fins lucrativos que se dedica ao estudo de comportamentos 'online', com o objetivo de melhorar a vida de crianças em ambiente virtual.
[Notícia atualizada às 15:04]
Leia Também: Google lança novas ferramentas de IA no Gemini pensadas para estudantes