Lei europeia de IA "é fraca" na componente da competitividade
O presidente do Instituto de Engenharia de Sistemas e Computadores (INESC) considerou hoje, em declarações à Lusa, que a lei da inteligência artificial (IA) europeia "é relativamente fraca" na parte da competitividade e defendeu o reforço desta componente.
© Shutterstock
Arlindo de Oliveira falava à Lusa à margem da conferência "Inteligência artificial do lado certo dos negócios", organizada pela Vodafone e que decorreu hoje no Museu do Oriente, em Lisboa.
Questionado sobre a lei europeia (AI Act), o responsável apontou que esta "é relativamente fraca na componente da competitividade", focando-se "muito na componente da segurança dos níveis de risco das aplicações".
"Acho que era importante reforçar a componente de criar um ambiente competitivo na Europa onde as empresas europeias pudessem depois competir em igualdade de oportunidades com as empresas norte-americanas e chinesas", defendeu.
Caso contrário, a Europa continuará a perder terreno face aos EUA e China em matéria de IA.
Em 14 de julho, o Parlamento Europeu deu 'luz verde' às primeiras regras da União Europeia (UE) para a IA.
"As regras visam promover a adoção de uma IA centrada no ser humano e fiável e proteger a saúde, a segurança, os direitos fundamentais e a democracia dos seus efeitos nocivos", referiu a assembleia europeia, na altura.
Em concreto, nesta posição agora adotada pelos eurodeputados, está definido que as novas regras prevejam uma total proibição da IA para vigilância biométrica, reconhecimento de emoções e policiamento preventivo, imponham que sistemas geradores desta tecnologia como o ChatGPT indiquem de forma transparente que os conteúdos foram gerados por IA e ainda que os programas utilizados para influenciar os eleitores nas eleições sejam considerados de alto risco.
A Comissão Europeia apresentou, em abril de 2021, uma proposta para regular os sistemas de IA, a primeira legislação ao nível da UE e que visa salvaguardar os valores e direitos fundamentais da UE e a segurança dos utilizadores, obrigando os sistemas considerados de alto risco a cumprirem requisitos obrigatórios relacionados com a sua fiabilidade.
Na sua intervenção na conferência organizada pela Vodafone, Arlindo de Oliveira abordou um dos problemas levantados pela analítica (análise de dados), que é a criação de bolhas de informação.
Estas bolhas informativas "têm um certo risco porque as pessoas como veem conteúdos que são diferentes através das redes sociais, através dos media, tendem a ver realidades diferentes e isso dificulta o diálogo e radicaliza muito as posições", explicou, posteriormente, em declarações à Lusa, o especialista.
Ou seja, "vemos cada vez maior dificuldade no debate político, cada vez mais dificuldade em as pessoas perceberem outro ponto de vista" e "essas bolhas são um desafio para o futuro das sociedades", apontou Arlindo de Oliveira.
O presidente do INESC deu como exemplos os EUA e o Brasil, onde se assiste a essas bolhas de informação de "maneira muito marcada", mas "também na Europa em alguns aspetos".
Questionado sobre como mitigar este problema, apontou que "existem abordagens legislativas e estatais".
Por exemplo, disse, "podemos obrigar que os conteúdos não sejam tão personalizados, aliás, há leis a serem discutidas sobre isso".
Para além disso, "as pessoas podem, elas mesmas, tentar informar-se melhor, a terem visões mais equilibradas das questões e não irem sempre aos mesmos canais, às mesmas redes sociais", acrescentou.
Leia Também: UE quer fazer avaliação sobre debilidades em áreas tecnológicas críticas
Descarregue a nossa App gratuita.
Oitavo ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.
* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com