Meteorologia

  • 25 OUTUBRO 2020
Tempo
15º
MIN 13º MÁX 19º

Edição

Arquitetos da IA precisam tanto de ética como os médicos

Os arquitetos da inteligência artificial precisam de códigos de conduta e de certificação profissional tanto como os médicos ou os engenheiros, defendeu em entrevista à agência Lusa o especialista em ética e tecnologia Pedro Saleiro.

Arquitetos da IA precisam tanto de ética como os médicos

"Não existe certificação profissional na área da ciência de dados. Um engenheiro civil ou um médico tem formação em Ética quando acede à sua Ordem profissional. Mas as pessoas que trabalham com dados não têm nenhuma certificação, não têm noção do impacto das decisões que estão a tomar. A sociedade tem que se adaptar a estas novas circunstâncias", afirmou.

Para Pedro Saleiro - que intervém hoje nas Conferências de Lisboa, num painel sobre as mudanças trazidas pela aceleração tecnológica -, quem trabalha na construção de algoritmos que tratam enormes quantidades de dados não pode desresponsabilizar-se.

"Já vi pessoas que dizem que são apenas técnicos, que lhes compete receber matrizes de dados e ficheiros, processá-los e mandá-los para outros", disse.

A omnipresença dos smartphones significa que milhares de milhões de pessoas contactam "com dezenas, centenas de algoritmos de inteligência artificial quando pegam no telemóvel, desde aqueles que preveem quando a bateria vai acabar aos que sabem se é mesmo a pessoa utilizar o seu telemóvel".

Pedro Saleiro aponta as chamadas 'big tech', as grandes empresas de tecnologia como a Google ou Facebook, a quem os utilizadores da Internet e das redes sociais fornecem "uma pegada digital que está a ser explorada" por essas entidades "para terem sistemas de previsão muito bem definidos". São empresas que "monitorizam constantemente os gostos e os anseios" e que têm acesso a sinais que as pessoas lhes enviam cada vez que interagem com os aparelhos.

"Quanto maior uma organização, mais específico o raio de ação de cada pessoa. 90 ou 95% dos funcionários do Facebook ou da Google tem boas intenções e bons valores. O que acontece é que se criaram estruturas de poder em que acaba por ser difícil que valham", referiu o especialista, que lidera um grupo de trabalho de investigação sobre transparência na empresa Feedzai, que cria tecnologia dedicada a prever e detetar fraudes financeiras.

"É interessante verificar que no ecossistema académico ou da indústria há uma certa discriminação contra as pessoas que trabalham nessas 'big tech', mas elas acreditam mesmo que podem ser um agente de mudança. Mas essas empresas são tão grandes que um engenheiro que lá trabalhe, por melhores intenções que tenha, acaba por ter um impacto reduzido em relação ao quadro maior", acrescentou.

Por outro lado, a "democratização da tecnologia significa que em teoria, qualquer pessoa pode começar a criar inteligência artificial e a colocar aplicações" no mercado que têm implicações e riscos éticos, como as chamadas "deep fakes", imagens e vídeos em que pessoas são mostradas a dizer ou fazer o que nunca aconteceu.

Pedro Saleiro considera que injetar ética nos sistemas que contam com inteligência artificial cada vez mais sofisticada implica que haja "o maior número possível de pessoas e pontos de vista envolvidos" na construção de sistemas destinados a tomar decisões sobre áreas tão diferentes como o tratamento de dados, a saúde, a finança, veículos autónomos ou robótica.

Tratando-se de "máquinas que aprendem", o desafio é "fazer com que a inteligência artificial reflita os valores, os desígnios éticos" das sociedades e isso precisa de "vigilância constante, porque os próprios humanos que desenvolvem a inteligência artificial também influenciam o seu comportamento no futuro".

"Quando estamos a construir inteligência artificial, ela não é mais do que tentar replicar padrões históricos", destacou, apontando como exemplo tecnologia que já é usada no sistema judicial norte-americano.

A chamada "avaliação de risco algorítmica" é uma ferramenta que é usada "em 60% dos tribunais de primeira instância para definir a fiança quando as pessoas que são detidas vão ser presentes pela primeira vez a um juiz".

Depende de um "fator de risco" de reincidência ou de não comparência em tribunal e "tem havido polémica nos Estados Unidos por esses sistemas aprenderem alguma discriminação sistémica em relação aos afro-americanos e às pessoas de cor".

Os dados a partir dos quais os algoritmos aprendem são os dados históricos sobre detenções, sobre zonas onde há mais crime e "se a sociedade é discriminatória, o algoritmo vai aprender e propagar essa discriminação. Se a polícia detém mais pessoas de minorias étnicas, o algoritmo vai aprender que há mais risco de futura criminalidade em pessoas de cor. Por outro lado, a polícia também faz mais patrulhamento em bairros de pessoas de minorias étnicas. Se não dissermos explicitamente à inteligência artificial que é preciso ter em conta a questão étnica", ela irá tratar desigualmente os cidadãos.

É aí que entram os construtores dos sistemas, que têm que introduzir "fatores de correção".

"Imaginemos que ia criar um sistema desses em Portugal e usava só a criminalidade das áreas metropolitanas para inferir para o país todo. Os dados são enviesados e nós corrigimos esse viés, introduzimos um contra-viés. Não se trata de manipular as pessoas, é manipular a amostra", ilustrou.

Pedro Saleiro considera que há "um vasto leque de competências fora da tecnologia" que vão ser fundamentais no caminho futuro de uma inteligência artificial e que não é preciso inventar uma ética nova específica.

"A filosofia, o direito, as Humanidades têm a ver com o processo de tomada de decisão. Na 'República', de Platão, já há questões de ciência política inerentes, por exemplo, sobre o favorecimento de um ou outro grupo", apontou.

"Não percebo muito bem como é que a criação de 'task forces' para a inteligência artificial consegue cobrir o nível de pormenor e especificidade de áreas como a justiça criminal, a saúde ou a finança, que já têm regulação. Parece muitas vezes que as pessoas da área tecnológica perceberam que têm um poder imenso e começaram a desenvolver preocupações éticas, mas esquece-se que há um conjunto de pessoas que devem ser tidas em conta nesta discussão", argumentou.

Para Pedro Saleiro, há nesta altura uma "janela de oportunidade para a sociedade discutir as implicações éticas" da inteligência artificial, sobretudo da inteligência artificial genérica, que mimetiza o pensamento humano, uma área assumidamente "de tensão", como o nuclear foi no século XX.

"Acredito na inteligência artificial como uma extensão de nós mesmos, não como um organismo autossuficiente. Deve ser usada para nos criar uma inteligência aumentada, mas sempre controlada por nós. Mas devemos construir tudo? Deve-se inventar tudo e depois colocar cercas à volta? Há quem diga que é melhor nem construir?", declarou.

Doutorado pela Faculdade de Engenharia da Universidade do Porto em Aprendizagem de Máquinas e Recuperação de Informação, Pedro Saleiro afirma que "não é necessário passar uma visão completamente pessimista e de medo, porque isso vai enviesar a discussão".

"Acredito que, se até agora as coisas têm corrido relativamente bem em relação às armas nucleares, é possível que possam correr bem em relação à inteligência artificial. Mas há uma certa concentração de poder no desenvolvimento de inteligência artificial que me assusta um pouco. O paradigma tem sido aumentar o número de neurónios das redes. Por causa da quantidade de dinheiro necessário para isso, o caminho está nas mãos de muito poucos", considerou.

Recomendados para si

Seja sempre o primeiro a saber.
Acompanhe o site eleito pelo quarto ano consecutivo Escolha do Consumidor.
Descarregue a nossa App gratuita.

Apple Store Download Google Play Download

Recebe truques e dicas sobre Internet, iPhone, Android, Instagram e Facebook!

O mundo tecnológico em noticias, fotos e vídeos.

Obrigado por ter ativado as notificações de Tech ao Minuto.

É um serviço gratuito, que pode sempre desativar.

Notícias ao Minuto Saber mais sobre notificações do browser

Campo obrigatório