Do arco e flecha à bomba atômica, a tecnologia tem sido usada para decidir guerras e conflitos desde o início da civilização humana. Até agora, no entanto, o homem sempre esteve no controle, decidindo quando e em cima de quem descarregar o golpe fatal. Na guerra do futuro, esse poder pode escapar de suas mãos. Daqui a alguns anos, robôs avançados terão a capacidade de decidir quem vive e quem morre nos campos de batalha. Seja se locomovendo sobre quatro patas – impossíveis de derrubar – ou voando a centenas de metros do combate, estarão equipados com metralhadoras e pistolas automáticas e serão capazes de acertar alvos a quilômetros de distância. Se sofrerem algum tipo de dano, estarão equipados com chips capazes de se regenerar, para que continuem em ação ininterruptamente. Inteligentes, saberão o modo mais eficaz de atacar um alvo, causando o maior estrago possível. Esses robôs ainda não são realidade. Mas a tecnologia descrita existe, espalhada por diversos laboratórios científicos nos Estados Unidos — todos financiados pelo exército americano. É apenas questão de tempo para que as armas autônomas e letais saiam dos laboratórios e passem a ser aplicadas nos conflitos humanos, mudando a experiência da guerra para sempre.
Há mais de dez anos, o uso de robôs nos campos e batalha é uma realidade. Hoje, cerca de 12.000 aviões não-tripulados — também chamados de drones — cruzam os céus do Oriente Médio comandados pelo exército americano. O Predator, por exemplo, é usado no Iraque e Afeganistão para missões de vigilância e espionagem, e pode ser controlado desde os Estados Unidos. No chão, mais 8.000 robôs são usados pelos soldados para desarmar bombas a distância, prevenindo danos à tropa. O Packbot, o mais famosos deles, foi desenvolvido pela empresa iRobot, responsável também pelo Roomba, o primeiro aspirador de pó robótico do mundo.
Faltava a esse robôs, no entanto, um grau de autonomia e letalidade que aumentasse sua eficiência nas zonas de guerra. Por isso, nos últimos anos, centenas de drones começaram a receber armas e sistemas de GPS que facilitam sua navegação automática. O SWORD, uma espécie de Packbot com uma arma na topo, já foi enviado ao Afeganistão e Iraque. Ele, no entanto, ainda não é levado muito a sério pelas tropas. Por ser fácil de derrubar e incapaz de se levantar sozinho, é vítima fácil de emboscadas e costuma fornecer armas aos inimigos – recebeu por isso o apelido jocoso de "Veículo de Reabastecimento do Talibã".
Essa tecnologia, no entanto, não dever ser motivo de piada por muito tempo. O que está sendo mostrado no Oriente Médio é apenas a primeira geração de robôs desenvolvidos para a guerra, ainda com uma série de limitações que estão sendo superadas por protótipos testados em diversos laboratórios nos Estados Unidos. Segundo Peter W. Singer, cientista político que já trabalhou com o Departamento de Defesa dos Estados Unidos e hoje é pesquisador do Instituto Brookings, um think tank sediado em Washington D.C., essa primeira geração é comparável ao Ford T, um dos primeiros carros a ser fabricado em massa no mundo, ainda no início do século XX. Quando eles aparecerem, era impossível prever a importância que os automóveis viriam a ter, e a revolução que causariam no estilo de vida americano. Do mesmo modo, só agora começam a se mostrar as aplicações militares mais avançadas dos robôs, com cada vez mais autonomia em relação aos seus controladores humanos. Segundo Singer, o cenário que se desenha é claro: os homens estão perdendo o monopólio da guerra.
Corrida de cientistas — Os especialistas concordam que os Estados Unidos saem na frente nessa nova corrida armamentista. A maioria dos robôs usados no mundo vêm de seus laboratórios e é de lá que surgem as principais novidades no campo. O principal polo de desenvolvimento das armas robóticas é a DARPA (Defense Advanced Research Projects Agency - Agência para a Pesquisa de Projetos Avançados de Defesa), agência fundada ainda na década de 50, logo após a União Soviética ter colocado o primeiro satélite em órbita da Terra. À época, seu objetivo era incentivar o desenvolvimento tecnológico americano, para que o país não ficasse defasado durante a Guerra Fria. Hoje a agência é voltada especialmente para novas tecnologias com aplicações militares.
Os cientistas do DARPA costumam financiar pesquisas científicas ousadas e ainda em seus estágios iniciais, sem aplicações imediatas. Os investimentos do grupo são aplicados em uma série de tecnologias experimentais, desde armas sônicas e a laser até exoesqueleteos e interfaces cérebro-máquina — como as desenvolvidas pelo neurocientista brasileiro Miguel Nicolelis. É importante destacar que as tecnologias financiadas pela agência costumam sair do papel. "O DARPA é importante não só para a robótica mas também para o desenvolvimento de uma grande variedade de inovações que literalmente mudaram o mundo, desde os foguetes que levaram o homem à Lua até a rede mundial de computadores. Quando as pessoas dizem que o governo não e capaz de desenvolver novas tecnologias, eu pergunto: 'você já usou a internet?'", disse Peter W. Singer, em entrevista.
Apesar da dianteira, os Estados Unidos não são o único país que domina esse tipo de tecnologia. "Hoje já existem 60 nações que estão usando ou desenvolvendo a robótica para a guerra", diz Peter Assaro, pesquisador da Faculdade de Direito de Stanford especializado nas implicações éticas da tecnologia, em entrevista ao site de VEJA. O Brasil, por exemplo, usa drones (aqui chamados de VANTs, Veículos Aéreos Não Tripulados) para patrulhar fronteiras e monitorar a Amazônia. "A maioria dos países ainda não está desenvolvendo versões armadas dessa tecnologia, mas temos notícia de que pelos menos dez estão", diz o pesquisador. Entre eles, estão Coreia do Sul, China, Rússia e Inglaterra — sinal de que a tendência das armas autônomas é mundial.
Condolências e responsabilidades — Essas tecnologias devem afetar não só os campos de batalha, mas o modo como a guerra é debatida por políticos, eleitores e imprensa. Sem a necessidade de enviar soldados para territórios longínquos, os custos morais de se envolver em um combate diminuem. "Agora, nós possuímos a tecnologia que remove as últimas barreiras políticas à guerra. O principal apelo dos sistemas autônomos é que não precisamos mais enviar o filho de alguém em direção à morte. Se os políticos podem evitar as consequências políticas das cartas de condolências — e o impacto que as mortes têm no eleitorado e na opinião pública — eles passam a avaliar os pesos de guerra e da paz de modo diferente", afirma Singer em um artigo intitulado A Revolução Robótica, publicado pelo Instituto Brookings.
Como exemplo dessa alteração, Singer cita o fato de os drones americanos estarem sendo usados para atacar inimigos em lugares como o Iêmen e o Paquistão — já são mais de 350 ataques — sem que isso seja debatido pelo congresso ou pela imprensa do país. "Algo que antes seria claramente chamado de guerra, não apenas pelos nosso líderes mas também pelo publico e pela imprensa, não é mais tratado como tal", diz.
Ao mesmo tempo, a utilização de robôs autônomos nas zonas de combate faz surgir complicadas questões de responsabilidade. Os robôs podem ter a capacidade de decidir matar alguém, mas não podem ser responsabilizados pelo ato — nenhum juiz em sã consciência mandaria uma máquina para a cadeia. "Imagine que, durante uma missão, um robô mate toda população de uma aldeia isolada, incluindo os civis. Quem na cadeia de comando poderá ser responsabilizado por isso? É difícil dizer, principalmente se o robô se comportou de maneira inesperada e as mortes não foram intencionais. É difícil chamar a situação de crime de guerra, mesmo que exista uma vila cheia de civis mortos. Isso pode acabar se tornando um modo de eliminar a responsabilidade humana dessas questões", diz Peter Assaro.
Alertas – Por esses e outros motivos, Assaro é um defensor do controle desse tipo de tecnologia. Em 2009, em parceria com especialistas de diferentes aéreas, filósofos, engenheiros, cientistas da computação e especialistas em robóticas, ele fundou o ICRAC (International Comitte for Robot Arms Control - Comitê Internacional para o Controle de Armas Robóticas), que propõe o banimento total das tecnologias autônomas letais. "Qualquer tipo de sistema tecnológico — recomendo que você olhe para seu celular ou laptop — quebra, tem falhas e começa funcionar de modos não esperados. Quando eles estão armados com tecnologia letal, esse tipo de imprevisibilidade pode ser muito perigosa", diz.
O grupo, que já conta com mais de cem pesquisadores inscritos, diz que as armas autônomas podem até existir e se tornar comuns nos arsenais dos exércitos. No entanto, é necessário que em algum momento de seu funcionamento exista um humano no controle — seja na hora decidir quais serão os alvos, seja na hora de apertar o gatilho. "A autonomia dessas armas é um perigo às pessoas nas zonas de combate. A inteligência artificial ainda não é capaz de distinguir combatentes de civis ou crianças de adultos. Elas são incapazes de compreender quando um adversário se rende. Esse sistemas são bons em atirar em pessoas, mas entender o funcionamento de leis e tratados, como a Convenção de Genebra, é mais difícil", diz Assaro.
Alguns pesquisadores preocupados com os rumos dessa tecnologia comparam seu estágio atual ao Projeto Manhattan, que desenvolveu as bombas nucleares durante a década de 1940. Pesquisadores de todo o mundo foram até os Estados Unidos trabalhar na pesquisa. A física nuclear era uma área cientificamente excitante e o financiamento era farto. No entanto, seu trabalho levou ao desenvolvimento de uma das armas mais letais da história humana — e inúmeros pesquisadores relataram, anos depois, arrependimento por ter se envolvido no projeto.
Os críticos das armas robóticas dizem que suas consequências podem ser as mesmas, mas não está nas mãos dos cientistas parar seu desenvolvimento. "Ao contrário do que aconteceu com a física atômica, os conhecimentos de hardware e software necessários para construir essas tecnologias estão espalhados pelo globo. Sua aplicação militar é impossível de ser freada pelo esforço de um grupo de pesquisadores. Nós defendemos um tratado internacional entre os governos para frear o desenvolvimento dessas armas", diz Assaro. Os alertas não parecem chamar muito a atenção dos governantes e os robôs letais e autônomos continuam a ser estudados ao redor do mundo — principalmente por causa de seu potencial de retirar os soldados dos momentos mais sangrentos das guerras e poupar um grande número de vidas de pelo menos um dos lados do conflito. Os humanos estão prestes a se tornar obsoletos nos campos de batalha.
Veja.com
Nenhum comentário:
Postar um comentário