FYI.

This story is over 5 years old.

Tecnologia

Os Robôs Letais Podem ser Mais Humanos que os Humanos

As principais mentes da robótica do mundo inteiro se reuniram para tentar descobrir o que devemos fazer a respeito dos robôs assassinos.

Imagem: Governo Internacional de Robôs Militares Autônomos.

Terça retrasada, na sede das Nações Unidas em Genebra, várias nações de todo o mundo e as principais mentes da robótica se reuniram para tentar descobrir o que devemos fazer a respeito do fantasma dos “robôs assassinos”.

Em linguagem diplomática, esses robôs são chamados “lethal autonomous weapons systems” (sistemas de armas autônomas e letais) ou LAWS – máquinas inteligentes que podem decidir, por conta própria, tirar a vida de uma pessoa sem qualquer intervenção humana. Com os exércitos dos EUA, China, Rússia e Israel cada vez mais próximos de desenvolver essas máquinas mortais, a ONU realizou sua primeira convenção para debater se deve proibir a tecnologia logo de cara antes que seja tarde demais.

Publicidade

As desvantagens de criar máquinas que podem nos matar já é uma tecla batida; a ficção científica já fez um belo trabalho ao retratar esse futuro distópico em particular. Assim como ativistas da campanha Stop Killer Robots, a Human Rights Watch e o Comitê Internacional para Controle de Armas Robóticas estão em Genebra fazendo lobby por uma proibição preventiva.

Mas o outro lado do debate é mais provocativo, e enquanto a comunidade global balança à beira de um futuro de guerra totalmente robotizado, vale a pena considerar que os robôs letais podem ser uma coisa boa.

Ronald Arkin, eticista robótico do Instituto de Tecnologia da Geórgia, vai argumentar esse ponto com a ONU esta semana. Ele acredita que os LAWS podem salvar vidas civis.

Por exemplo, robôs assassinos não se atrapalham se preocupando em não morrer, e terão todo tipo de capacidade de super-herói com que podemos programar as máquinas hoje. Mas o ponto mais importante é que robôs letais podem ser mais “humanos” do que os humanos em combate, principalmente por causa de uma característica distintamente humana que os combatentes mecânicos não têm: emoções.

Sem julgamento obscurecido por medo, raiva, vingança e os horrores da guerra que brincam com a psique humana, uma máquina inteligente pode evitar erros provocados por emoções e limitar as atrocidades que os humanos vêm cometendo nas zonas de guerra por toda a história, argumenta Arkin. “Acredito que os seres humanos são o ponto mais fraco da cadeia de matança, ou seja, nossa biologia trabalha contra nós”, escreveu Arkin num trabalho chamado “Lethal Autonomous Systems and the Plight of the Non-combatant” (“Sistemas Autônomos Letais e a Situação dos Não Combatentes”).

Publicidade

Mas Arkin não é um belicista. O trabalho, que define boa parte do argumento a ser discutido por ele na ONU esta semana, é um aviso de que a base de todo o argumento opera sobre a premissa de que a guerra é, infelizmente, inevitável, e carrega um tom que parece dizer: “eu sei que existe a possibilidade de isso ser um desastre, mas escute o que tenho a dizer”.

“Os robôs já são mais rápidos, mais fortes e, em certos casos […] mais inteligentes que os humanos”, ele escreveu, “então, seria difícil acreditar que eles poderão nos tratar mais humanamente no campo de batalha do que a forma como em geral tratamos uns aos outros, dada a existência persistente de comportamentos atrozes por um subgrupo significativo de nossos combatentes humanos?”

Em outras palavras, já que vamos lutar uns com os outros de qualquer jeito, talvez a tecnologia, se desenvolvida cuidadosamente, possa nos ajudar a matar somente o inimigo, e não gente inocente. Outro relatório de coautoria de Arkin sugere que os futuros robôs letais sejam comandados por uma série de regras: tratados internacionais e um tipo de software ético para garantir a obediência às leis humanas.

Claro, mesmo com essas garantias, muitas pessoas discordam. O buraco significativo no argumento de Arkin é o seguinte: como podemos garantir que essas máquinas de matar autônomas vão, de fato, fazer aquilo que mandarmos? Como saber se elas não vão alcançar um ponto de consciência e inteligência no qual decidirão se proteger mesmo às custas de vidas humanas? Por que acreditar que elas obedecerão às nossas leis?

Publicidade

Ou ainda, como podemos garantir que os ataques desses sistemas ocorrerão sem erros? E se eles sofrerem uma falha ou forem hackeados? Pela última contagem, ataques de drones, que também foram lançados como uma maneira de minimizar baixas inocentes, já mataram quase mil civis inocentes.

“Acho bem provável que esses sistemas se comportem de maneira imprevisível, especialmente por se tornarem cada vez mais complexos e serem usados em ambientes cada vez mais complicados”, me escreveu Peter Asaro, cofundador do Comitê Internacional para o Controle de Armas Robôs, num e-mail de Genebra. “E é também cada vez mais possível que eles sofram falhas, quebrem ou apresentem mau funcionamento de maneiras menos previsíveis devido à sua complexidade.”

Há uma série de outras preocupações, como as implicações éticas da remoção de humanos do processo de morte, um movimento que torna fácil matar um grande número de pessoas sem pensar duas vezes. A reunião da ONU é parte da Convenção sobre Armas Convencionais – um grupo responsável por proibir lasers que podem cegar, minas terrestres e outras armas escrotas consideradas desumanas.

Não importa o que a ONU decidir, o fato é que robôs semiautônomos letais já estão lutando lado a lado com humanos, e que os militares estão trabalhando arduamente para desenvolver a autonomia completa. Protótipos para a próxima geração de veículos aéreos não tripulados, como o X-47B e o Taranis, são desenvolvidos para jogar bombas e podem fazer isso sem supervisão humana, controlando drones Predator e Reaper.

Seja como for, máquinas autônomas letais podem ser o futuro inevitável.

Tradução: Marina Schnoor