Na conferência 'Fusion: A devoteam conference', o responsável explica que os modelos de IA estão alinhados segundo determinados valores humanos, "que não são definidos por ninguém que seja representativo da sociedade", por isso conhecer estes valores é o primeiro grande desafio sobre a IA.
O alinhamento dos modelos de IA refere-se às regras que definem o que é que a ferramenta deve ou não fazer, o que deve ou não recusar, "mas quem define estes princípios?", questiona o CEO.
"No caso dos modelos da OpenAI, da Google, da Meta e da xAI, todos têm critérios de alinhamento muito díspares", salienta o responsável.
Em declarações à agência Lusa, à margem do evento, Paulo Dimas explica que "por um lado, há preocupações de alinhamento em que os modelos se recusam, por exemplo, a produzir um texto persuasivo antivacinas e no outro extremo, há os modelos desenvolvidos pela empresa de Elon Musk, onde essa tarefa não é recusada".
São estas diferenças no alinhamentos dos modelos que geram diferentes repostas e perspetivas entre ferramentas, pelo que é necessário ter salvaguardas em relação a estes serviços, cada vez mais utilizado de forma massiva por crianças, em todo o mundo.
"Esta é uma preocupação que se deve ter em conta, sobretudo enquanto sociedade", afirma o presidente executivo.
Neste sentido, o responsável considera que a regulação europeia nesta matéria, nomeadamente o AI Act "é um esforço muito significativo".
O Regulamento Inteligência Artificial da União Europeia (UE) estabelece regras harmonizadas para o desenvolvimento, a colocação no mercado e a utilização da inteligência artificial na UE, tendo entrado em vigor em 01 de agosto de 2024.
Além disso, Paulo Dimas defendeu que a "IA é uma máquina absolutamente alucinante de desinformação e de persuasão".
"A capacidade de produzir vídeos falsos é absolutamente arrepiante", até porque "já existem casos de interferência política provocada por esta capacidade", afirma o responsável, acrescentando que ainda "não há uma forma clara de atacar esta questão".
Uma das obrigações da regulação europeia é a identificação dos conteúdos gerados por IA, através de uma marca de água, mas nesta matéria "a Europa está um bocadinho nas mãos das grandes empresas".
"As crianças que usam o YouTube, o TikTok, usam todas estas plataformas e não há como garantir que este tipo de filtragem, entre o que é fabricado por IA e o que é real, esteja a ser aplicado", concluiu o responsável do consórcio Centre for Responsible AI.
Leia Também: Nova ferramenta de IA pode prever risco de mais de 1.000 doenças