Cientistas pedem proibição de "robots assassinos"
Milhares de cientistas e académicos, incluindo o astrofísico britânico Stephen Hawking, lançaram terça-feira um apelo para a proibição de armas ofensivas autónomas ou "robots assassinos", alertando para o perigo de errarem alvos e serem usados por terroristas.
© Reuters
Tech Futuro
"As armas autónomas escolhem e acertam em alvos sem intervenção humana. Têm sido descritas como a terceira revolução na prática da guerra, após a pólvora e as armas nucleares", afirmam os signatários numa carta aberta publicada na abertura da Conferência Internacional sobre Inteligência Artificial, em Buenos Aires.
Os robots assassinos, que podem tomar a decisão de matar sem controlo humano -- ao contrário dos drones telecomandados que ainda precisam de intervenção humana -- estão a preocupar as Nações Unidas, os cientistas e as organizações de defesa dos direitos humanos.
Duas reuniões de peritos já foram realizadas em Genebra sobre o assunto como parte da Convenção da ONU sobre Certas Armas Convencionais.
"A tecnologia de inteligência artificial chegou a um ponto onde o desenvolvimento daqueles sistemas é, praticamente senão legalmente, possível nos próximos anos, mais do que nas próximas décadas", referem na carta aberta investigadores de professores de Harvard, Berkeley, Cambridge, Liège.
Toby Walsh, professor de Inteligência Artificial na Universidade New South Wales, na Austrália, e signatário do ato, afirmou que "todas as tecnologias podem ser utilizadas para o bem e para o mal".
Para o professor, o desenvolvimento da inteligência artificial deve ser feito, mas de maneira regulamentada, visto que as aplicações civis são múltiplas, e acompanhada de uma legislação restrita.
Toby Walsh salientou também que as empresas de armamento dos principais países desenvolvidos têm feito progressos consideráveis no desenvolvimento daquela tecnologia nas aplicações militares.
Descarregue a nossa App gratuita.
Oitavo ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.
* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com