Em entrevista à Lusa, questionada sobre qual o principal objetivo da Organização para a Cooperação e Desenvolvimento Económico (OCDE) em termos de inteligência artificial (IA), a responsável salienta que existem muitos.
"Mas, o principal é ajudar os países a compreender o que se passa na IA e no ecossistema e desenvolver políticas e abordagens que ajudem a desenvolver as suas economias e a promover causas sociais", salienta Audrey Plonk, que foi uma das principais oradoras da conferência da Anacom sobre os desafios da inovação e da regulação da inteligência artificial (IA), que decorreu sexta-feira, em Lisboa.
Sobre o estado de arte da IA nos países que compõem a OCDE, a vice-diretora salienta que estes "estão a avançar rapidamente de muitas formas diferentes em termos de adoção da tecnologia, em termos de governação e em termos de políticas".
Muitos dos países da OCDE "estão na vanguarda e a liderar o processo, mas existem muitas oportunidades e espaço para crescimento", aponta Audrey Plonk, que é uma das duas responsáveis da direção da Ciência, Tecnologia e Inovação da organização.
"Portugal é um ótimo exemplo, mas muitos países têm um longo caminho a percorrer em termos de utilização da tecnologia e de encontrar formas de adaptar as estruturas regulatórias existentes para a poderem utilizar em diversos setores", considera.
"Creio que vemos que muitos países da OCDE foram pioneiros na implementação de estratégias nacionais, disponibilizando financiamento público para o avanço da IA nos seus países", contudo "ainda há muito trabalho a ser feito", prossegue.
Questionada sobre como se consegue uma estratégica ética na IA, quando se tem muito poder nas mãos de poucas empresas, a responsável refere que "existem alguns esforços em curso" na OCDE para tentar ajudar a abordar exatamente esta dinâmica.
Um deles que mencionou na conferência é "tentar impor ou promover a transparência entre a forma como os programadores e os implementadores de IA, especialmente os grandes programadores, gerem o risco num conjunto de áreas padronizadas".
Portanto, "desde a segurança aos dados e à proteção", disse, sendo que desta forma se tem um enquadramento 'standard' para que as empresas possam dar conta das suas atividades.
"Parte do desafio é a falta de compreensão por parte da comunidade política, da comunidade reguladora, sobre o que realmente está a acontecer. O que estão as empresas a fazer no desenvolvimento destes sistemas e modelos para gerir o risco", acrescenta.
Porque "não se pode criar políticas sobre algo que não se conhece", sublinha Audrey Plonk.
A OCDE está a tentar incentivar essa transparência de forma voluntária porque é um mecanismo que tem à sua disposição.
"Vemos que há um desejo alargado por parte das organizações em participar nesta transparência, porque penso que muitas delas compreendem que, para se construir confiança, é necessário haver alguma transparência", diz.
Por isso, "o nosso objetivo é harmonizar a forma como o fazemos, para que, independentemente da origem da empresa ou organização, todos falem sobre as coisas na mesma língua, para que possamos começar a compreender, a um nível mais global, como é que estes riscos estão a ser geridos e como, então, as estruturas éticas e outras estruturas são mapeadas em cima disso", no denominada IA Hiroshima.
"Estamos a tentar incentivar esta transparência para que os decisores políticos possam começar a ver o que está a funcionar e o que não está a funcionar e a fazer as intervenções certas. É um grande desafio, vai ser um desafio", sublinha.
"Penso que a boa notícia é que há muito esforço a ser investido em estruturas éticas", mas "precisamos de compreender melhor o que as organizações estão a fazer", conclui.
Leia Também: Crescimento económico do G20 acelera para 0,9% no 2.º trimestre