Modelos de linguagem de IA com potencial de registar sinais de depressão

Os grandes modelos de linguagem como o Chat GPT, têm potencial para detetar riscos para a saúde mental, incluindo depressão e suicídio, em pacientes já sob tratamento psiquiátrico, segundo um estudo publicado na Jama Open Network.

Notícia

© Lusa

Lusa
24/05/2025 06:13 ‧ há 3 horas por Lusa

Tech

IA

A investigação realizada por uma equipa coreana indica que, embora estes grandes modelos de linguagem (LLM, na sigla inglesa) "demonstrem potencial" para detetar esses riscos, "é essencial melhorar o desempenho e a segurança antes da aplicação clínica".

 

A equipa examinou o potencial dos LLM, que são sistemas de inteligência artificial (IA) treinados em grandes quantidades de dados, pelo que são capazes de compreender e gerar linguagem natural.

O mesmo potencial é demonstrado pelos 'embeddings', uma técnica de processamento da linguagem natural que converte a linguagem humana em vetores matemáticos, que também foram analisados pela equipa.

O estudo baseou-se em dados de 1064 doentes psiquiátricos com idades compreendidas entre os 18 e os 39 anos que realizaram uma série de testes de autoavaliação e de frases incompletas.

Os testes de frases incompletas consistem em dar ao paciente uma série de frases inacabadas para completar com a primeira coisa que lhe vem à cabeça e fornecer informações subjetivas sobre, por exemplo, o seu autoconceito ou relações interpessoais.

Os dados foram processados por modelos LLM, como o GPT-4, o Gemini 1.0 Pro ou o Google Deepmind, e por modelos de incorporação de texto, como o text-embedding-3-large OpenAI.

A investigação refere que estes modelos "demonstraram o seu potencial na avaliação dos riscos para a saúde mental", incluindo o stress e o suicídio, "a partir de dados narrativos de pacientes psiquiátricos".

Alberto Ortiz, do Hospital Universitário La Paz (Madrid), comentou o estudo, no qual não participou, e salientou que este foi realizado em pacientes que já estão em tratamento psiquiátrico, pelo que a generalização dos resultados para aplicar esta metodologia à deteção de riscos na população em geral "não é possível, de momento".

Ortiz disse ao Science Media Centre, uma plataforma de recursos científicos, que a aplicação da IA na saúde mental, em qualquer caso, terá de se centrar nas narrativas subjetivas das pessoas, como é feito nesta investigação.

No entanto, considerou que "uma coisa é detetar riscos e fazer rastreios, e outra é tratar pessoas com sofrimento mental, uma tarefa que vai além da aplicação de uma solução tecnológica e em que a subjetividade do profissional é essencial para desenvolver o vínculo terapêutico".

Leia Também: Primeiros óculos inteligentes da Apple chegam em 2026, diz Bloomberg

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas