terça-feira, 11 de agosto de 2020
Ex-funcionária da Google alerta para a produção de robôs assassinos que podem despoletar uma guerra
Por ZAP -16 Setembro, 2019
A Google pediu a Laura Nolan para reforçar os drones militares dos EUA. Recusou e demitiu-se. Agora, alerta para o perigo destas armas que podem originar uma guerra.
Cerca de um ano depois de se ter demitido da Google, Laura Nolan avisa agora que há uma nova geração de armas automáticas que podem, acidentalmente, desencadear uma guerra e “causar atrocidades de forma massiva”.
Nolan defende que estes robôs têm a capacidade para criar “calamidades para as quais não estavam programados” e que, por isso, devem ser banidos, à semelhança das armas químicas.
A engenheira em ciência computacional demitiu-se depois de lhe ter sido atribuída a tarefa de trabalhar num projeto para reforçar a tecnologia nos drones militares norte-americanos. Depois, juntou-se à Campanha para Parar os Robôs Assassinos que visa alertar para os perigos do uso destas armas.
“Há a possibilidade de acontecerem grandes acidentes, porque estas coisas vão começar a agir de forma inesperada. Daí a importância de submeter qualquer sistema avançado de armas ao controlo humano. Caso contrário, estas armas têm de ser banidas porque são demasiado imprevisíveis e perigosas”, alertou, citada pelo The Guardian.
Para Laura Nolan, as consequências fatais podem resultar de coisas simples como mudanças meteorológicas não previstas pelo software dos drones ou um comportamento humano complexo.
Uma das principais preocupações reveladas pela engenheira, prende-se com um dos pedidos efetuado pelo departamento de defesa dos Estados Unidos que, com o objetivo de acelerar o desenvolvimento desta tecnologia, pediu que fosse criado um sistema de inteligência artificial capaz de avaliar imagens e diferenciar automaticamente pessoas de objetos, a um ritmo muito superior ao atual, que por sua vez é feito por militares especializados e que, naturalmente, demora mais tempo.
Outro problema que se parece impor com uso desta tecnologia diz respeito aos testes que têm de ser feitos para confirmar o uso “controlado” destas máquinas. “Outra questão assustadora é que só se pode testar estes sistemas de guerra autónomos no campo de combate. Quem sabe se isso não está já a acontecer atualmente, com os russos na Síria?”, disse Nolan.
A Rússia recusou-se a assinar um tratado que limitava o uso deste tipo de tecnologia, e que “têm feito campanha para nem sequer se discutir este assunto”.
ZAP //
segunda-feira, 10 de agosto de 2020
Portugal fora da lista de países que querem proibir robôs assassinos
Por Lusa -10 Agosto, 2020
Apesar de apoiar a realização de negociações para o fim do uso de robôs assassinos em conflitos militares, Portugal está fora da lista de países que procuram explicitamente proibir armas totalmente autónomas.
A constatação consta de um relatório de 55 páginas divulgado pela Human Rights Watch (HRW), intitulado “Stop Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Reing Human Control”, que analisa as políticas dos 97 países, incluindo também o Brasil, que têm elaborado publicamente as suas opiniões sobre robôs assassinos desde 2013.
No documento, a HRW lembra que os 97 países participaram todos nas oito reuniões da Convenção sobre Armas Convencionais (CAC) sobre sistemas de armas autónomos letais de 2014 a 2019, com a Áustria, Brasil e Chile a proporem negociações sobre um instrumento juridicamente vinculativo para garantir um controlo humano significativo sobre as funções críticas dos sistemas de armamento.
Na parte referente a Portugal, que, a par do Brasil, são os dois únicos países lusófonos analisados no relatório, é referido que, em 2014, na Assembleia Geral da ONU, Lisboa apoiou a ideia de se continuarem as negociações sobre a regulação dos sistemas de armas autónomas.
“Portugal referiu [então] que partilha preocupações humanitárias, morais e legais em relação a esse tipo de armas e que defende a necessidade de haver um controlo humano sobre funções críticas dos sistemas de armamento”, lê-se na análise da organização de defesa e promoção dos direitos humanos.
A HRW afirma que Portugal, que participou em todas as reuniões da CAC, “não apoiou as propostas para a proibição total do armamento autónomo” e que, em vez disso, sugeriu em março de 2019 que os países devem focar-se na análise à forma como a lei internacional pode aplicar a tais armas.
Em relação ao Brasil, a HRW lembra que as autoridades brasileiras expressaram, na reunião que permitiu fundar a CAC, em 2013, que decorreu durante uma sessão do Conselho de Direitos Humanos das Nações Unidas, as preocupações sobre os sistemas de armamento autónomo letais.
“[As preocupações] incluíram as consequências de um baixo custo humano em conflitos como forma de banalizar os conflitos e as incertezas quanto a apreciação das mortes provocadas por armas autónomas”, lê-se no documento.
Segundo o HRW, o Brasil, que também participou em todas as reuniões da CAC, argumentou e avisou que “a tecnologia nem sempre é a melhor solução para os desafios” de todos, e levantou sérias objeções éticas, legais e morais” quanto à utilização de robôs assassinos.
Nesse sentido, em novembro de 2017, lembra o HRW, as autoridades brasileiras apelaram a uma proibição total, alegando que alguns sistemas de armamento com capacidades autónomas “irão comprovar que são incompatíveis” com as leis internacionais humanitária e sobre direitos humanos.
A organização de defesa dos Direitos Humanos destacou a proposta apresentada formalmente em agosto de 2018 pelo Brasil, em conjunto com a Áustria e Chile, para a negociação de um instrumento legalmente vinculativo para garantir um controlo humano “significativo” nas “funções críticas” dos sistemas de armas autónomos.
Na globalidade, o relatório da HRW é referido que um número crescente de países reconhece o dever de salvar a humanidade de armas totalmente autónomas, uma vez que os sistemas de armamento que selecionam e atacam alvos sem controlo humano significativo são “inaceitáveis e devem ser evitados”.
Para a HRW, há um apoio “crescente” a uma “proibição de preocupações partilhadas”, em que o desejo de controlo humano “deve impulsionar a regulação” do setor.
A grande maioria dos Estados, lê-se no documento, considera o controlo humano e a tomada de decisões “cruciais para a aceitabilidade e legalidade dos sistemas de armas”.
// Lusa