Numa nota divulgada no 'site', a IGAS explica que esta auditoria pretende contribuir para o uso responsável da Inteligência Artificial (IA) no SNS, avaliando a estratégia de inteligência artificial nos serviços públicos de saúde e o investimento em formação e capacitação dos profissionais.
A política de gestão de dados utilizados pela inteligência artificial, a segurança da informação e robustez dos sistemas e o impacto da inteligência artificial são outras áreas em foco nesta auditoria.
Na semana passada, o bastonário da Ordem dos Médicos, Carlos Cortes, avisou que a inteligência artificial não pode substituir um médico, alertando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos.
"É fundamental afirmar que a IA não é, nem pode ser, um substituto do julgamento clínico, da experiência médica nem do contacto humano. O diagnóstico é parte essencial do ato médico, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia", afirmou Carlos Cortes, em declarações à agência Lusa.
O bastonário acrescentou que a IA deve ser encarada como uma ferramenta de apoio à decisão clínica e não como agente autónomo de diagnóstico.
Insistindo que as ferramentas de IA não estão habilitadas a fazer diagnósticos, Carlos Cortes lembrou que faltam "evidência científica robusta, mecanismos de validação rigorosos e, sobretudo, transparência algorítmica que permita aos médicos compreender e confiar nas decisões sugeridas".
Nos casos de diagnósticos errados, o bastonário refere que as "consequências podem ser gravíssimas: atrasos no início de terapêuticas adequadas, agravamento de estados clínicos, exposição a tratamentos desnecessários ou inapropriados, sofrimento evitável e até perda de vidas humanas", ao mesmo tempo que as ferramentas de IA não assumem responsabilidade moral.
O médico diz ainda que em Portugal não foram identificados casos em que o uso de IA tenha causado consequências clínicas relevantes, embora a ausência de casos não possa ser confundida com a ausência de risco.
Em declarações à Lusa, Carlos Cortes defendeu ainda a criação de uma agência nacional para a IA na área da saúde, como forma de prevenir diagnósticos errados e desinformação médica.
Leia Também: A ascensão da direita radical e da extrema-direita na Europa: O essencial