MENU

Escrito por • 15/10/2012

a responsabilidade moral de robôs militares: qual? quando? como?

mais de 50 países, talvez 80, já usavam algum tipo de robô para aplicações militares em 2011. segundo o estudo que revela tal número, o mercado global de robôs militares era de US$5.8B em 2010 e, mesmo na crise econômica atual, subiria para US$8B em 2016. o brinquedo do vídeo abaixo é só parte do arsenal de máquinas “inteligentes” para apoio a ações militares que [ainda?] são lideradas por humanos. este “robô” é capaz de seguir um “líder” humano, carrega mais de 300kg e não precisa ser reabastecido [com gasolina] por mais de 30km. veja o vídeo.

 

cada vez mais equipamentos como este irão para o campo de batalha, para reduzir e/ou prevenir mortos e feridos humanos, mas não só: as mudanças nas táticas e a necessidade de reduzir os gastos militares, combinados com evolução de hardware [materiais, sensores, componentes, dispositivos em geral] e software permitem o desenvolvimento, cada vez mais rapidamente, de robôs cada vez mais sofisticados.

eu e você podemos não gostar disso, mas robôs militares são um fato de realidade. o problema é o que fazer para que eles, literalmente, “se comportem”, seja lá o que isso for [agora] ou vier a ser [num futuro próximo]. de preferência, quem estuda o assunto quer garantir que as distopias onde a humanidade é subjugada por robôs não passam de cenários inatingíveis.

aqui é onde thomas hellström entra na conversa, pra discutir “a responsabilidade moral de robôs militares”. publicado há pouco na revista ethics and information technology, o artigo tem uma versão aberta neste link. hellström parte de uma definição padrão de de autonomia para um agente, segundo a qual… um agente autônomo é um sistema situado em e como parte de um ambiente, que captura informação do ambiente e age em função dela, no tempo, seguindo uma agenda própria, capaz de mudar o que seus sensores hão de capturar, como informação, no futuro.

daí, define poder autônomo como a quantidade e nível de ações, interações e decisões que um agente é capaz de realizar por si só. pelo menos em tese, todos os robôs à direita da linha vermelha, na figura abaixo, têm a capacidade de eliminar seres vivos em função de decisões próprias, dentro de um certo contexto.

image

e o samsung SGR-1 não é o mais novo smartphone da companhia coreana, mas uma sentinela robótica capaz de tomar decisões face a humanos ao seu redor e, se for o caso, atirar neles. o sistema phalanx também não é um brinquedo.

qual é a proposição de hellström? é atribuir cada vez mais responsabilidade moral a sistemas de poder autônomo cada vez maior. quanto mais um sistema estiver à direita da linha vermelha da imagem acima, maior a sua responsabilidade. como é que isso vai ser feito? ninguém sabe. mas hellström defende [e está certo] que não devemos esperar a chegada de agentes autônomos poderosos como os terminator para começar a tratar o problema de responsabilização moral, porque aí pode ser muito tarde.

não que estejamos perto de um armaggedon tocado por robôs, mas exatamente porque não queremos estar é que deveríamos tratando o assunto com urgência.

quer ler um pouco mais sobre este assunto? as forças armadas americanas, desde metade dos anos 2000, trabalham para substituir 1/3 de seus veículos de guerra por robôs até 2015 [veja este link]; o esforço para tornar a guerra “mais segura” para humanos [de que lado do gatilho?…] prossegue a todo vapor [veja aqui]; e o blog, há três anos, publicou dois textos [este e este] sobre robôs em campos de batalha, com muitos links para a literatura e exemplos da época. se você quiser ler algo mais “tranquilo”, que tal a ideia da foxConn, fabricante da apple, de trocar seus funcionários por robôs neste link? talvez não tenha nada a ver com guerra, mas pode ter impacto tão grande quanto, ou mais, no emprego global. e mais…

Robots of Brixton, de Kibwe Tavares, no Vimeo.

Artigos relacionados

Comentários estão encerrados.