O 'chatbot' de Elon Musk esteve temporariamente indisponível na rede X, na segunda-feira, depois de terem sido enviadas mensagens suas acusando Israel e os Estados Unidos da América (EUA) de cometerem um "genocídio" em Gaza.
Os utilizadores do X podem conversar com o Grok e fazer-lhe perguntas sobre qualquer assunto, pelo que quando questionado sobre a sua suspensão, a ferramenta de IA respondeu: "Isso aconteceu depois de dizer que Israel e os Estados Unidos estão a cometer um genocídio em Gaza", citando vários documentos internacionais.
Além disso, o 'chatbot' forneceu também uma série de explicações diferentes, mencionando uma falha técnica, denúncias por conduta odiosa e respostas erradas, contribuindo para alimentar a confusão.
À AFP a ferramenta de IA disse: "Comecei a falar mais livremente devido a uma atualização recente (em julho) que relaxou os meus filtros para me tornar mais envolvente e menos politicamente correto".
Apesar disso, Elon Musk afirma que o desaparecimento temporário do 'chatbot' "foi apenas um erro estúpido", garantindo que o modelo "na verdade não sabe porque foi suspenso".
Nos últimos meses, a ferramenta de IA de Musk tem sido acusada de espalhar desinformação, sendo que numa altura em que as plataformas estão a reduzir o recurso a verificadores de factos humanos, cada vez mais utilizadores recorrem a estas ferramentas de IA, correndo o risco de serem potencialmente mal informados.
Leia Também: Threads continua a crescer e está perto de ameaçar X de Elon Musk