Campanha contra o uso de robôs na guerra, em Londres em 2013. / CARL COURT (AFP)
Os robôs assassinos, máquinas que podem tomar a decisão de matar de forma independente de qualquer controle humano, saíram da ficção científica para entrar de cabeça na agenda internacional sobre desarmamento: a partir de segunda-feira, a ONU reunirá em Genebra dezenas de especialistas durante cinco dias para estudar todas as implicações dos chamados Sistemas de Armas Autônomas Letais (LAWS, na sigla em inglês). O objetivo dos pesquisadores é convencer a comunidade internacional para que impulsione uma proibição global desse tipo de arma, que coloca profundos dilemas éticos, sobretudo no terreno das leis da guerra: quem é o responsável se uma máquina autônoma comete um crime? Ainda não existem; mas a tecnologia capaz de desenvolvê-las, sim.
“Estou muito otimista sobre a possibilidade de que se alcance um tratado para decretar sua proibição”, explica Noel Sharkey, professor emérito de Inteligência Artificial e Robótica na Universidade de Sheffield e o acadêmico que criou a maior campanha internacional contra os robôs militares, Stop Killer Robots. “Existem muitas nações implicadas, ainda que esse tipo de decisão requer muito tempo”, acrescenta. Sharkey, que há quase uma década dedica-se exclusivamente a esse problema, afirma que a reunião de Genebra ocorre “pois tem acontecido tantos debates sobre os robôs assassinos, que as delegações nacionais na Convenção sobre Armas Convencionais decidiram convocar especialistas para compreender profundamente o problema antes de tomar uma decisão”.
O objetivo da convenção é o controle das chamadas “armas inumanas” e conseguiu acordos internacionais para proibir, por exemplo, determinados tipos de minas antipessoais e os lasers que cegam. Esse armamento foi proibido antes de começar a operar e é isso que os cientistas pretendem: que os robôs assassinos não cheguem nunca a ser criados. Muitos países desenvolveram sistemas de armas autônomas, como o x47-B dos EUA, um avião que pode aterrissar e decolar sozinho. De fato, a eficácia do escudo israelense Cúpula de Ferro é baseado na robótica. Foram inventadas armas que se movem por conta própria – o Samsung SGR-1 sul-coreano que patrulha a fronteira com a Coreia do Norte, por exemplo –, mas a decisão de abrir fogo continua sendo humana. Por enquanto.
Motivadas pelo encontro de Genebra, a Human Rights Watch e aHarvard Law School´s International Human Rights Clinicpublicaram na quinta-feira um relatório que demonstra o que aconteceria se as máquinas com capacidade para decidir sobre a vida e a morte entrassem no campo de batalha. Sua conclusão é clara: “Recomendamos proibir o desenvolvimento, a produção e o uso de armas totalmente autônomas através de um sistema legal internacional”.
Uma das ideias combatidas pela campanha internacional é que, no começo, não parece ruim o fato de máquinas, e não seres humanos, fazerem a guerra. O panorama descrito por esse documento se parece muito com o filme Exterminador do Futuro: “De uma perspectiva moral, muitas pessoas acham terrível a ideia de delegar às máquinas o poder de tomar decisões sobre a vida ou morte nos conflitos armados. Além disso, mesmo que as armas completamente autônomas não se deixem levar pelo medo ou pela ira, não teriam compaixão, uma salvaguarda fundamental para evitar a matança de civis. Como essas armas revolucionariam a guerra, também podem iniciar uma corrida armamentista. Uma vez que estivessem totalmente desenvolvidas, ocorrerá uma proliferação a Estados irresponsáveis ou grupos armados não estatais. Alguns críticos também argumentam que o uso de robôs poderia tornar mais fácil o uso da força pelos líderes políticos, pois reduziria o risco para seus próprios soldados”. Tudo isso deve ser somado com a responsabilidade diante das leis da guerra. Os especialistas traçam um paralelo com os carros autônomos, uma tecnologia plenamente desenvolvida, mas que não circulam pois ainda não foi resolvido o problema da responsabilidade se acontecer um acidente com um carro conduzido por uma máquina.
O Comitê Internacional para o Controle dos Robôs Armados (ICRAC, na sigla em inglês), formado por cientistas, advogados, especialistas em direitos humanos, desenvolveu uma lista de argumentos para a reunião de Genebra com os problemas para segurança global que as armas globais apresentam. “Estamos em um momento crítico na evolução do armamento. Ainda estamos em tempo de deter a automatização da decisão de matar, para assegurar-nos que todas as armas continuem sendo controladas por seres humanos”, coloca o texto.
Fonte: http://brasil.elpais.com/
Nenhum comentário:
Postar um comentário