“A guerra é a continuação da política por outros meios”
Carl von Clausewitz (1780 – 1831)
[EcoDebate] Para quem sonha com o momento utópico em que os robôs simpáticos, bonzinhos e trabalhadores façam todo o serviço necessário para sustentar a humanidade, a realidade distópica investe na criação de autômatos de guerra e em robôs superinteligentes e assassinos.
Para o complexo industrial-militar é enorme o potencial que surge com os robôs assassinos e sapiens (com memória ilimitada e capacidade cognitiva). Os robôs voadores e matadores já existem e já foram testados nos conflitos armados do Iêmen e outros países do Oriente Médio. Os terroristas do ISIS que o digam.
Já existem os drones que voam e atuam durante o dia, mas também à noite (soldados do futuro atuando 24 horas diárias e 7 dias por semana), pois enxergam os inimigos com luz infravermelha, lançam mísseis contra os alvos cirúrgicos definidos pela Inteligência Artificial da inteligência militar.
O fabricante do drone TIKAD diz que conseguiu desenvolver uma tecnologia de estabilização que permite ao robô assassino TIKAD absorver o recuo das armas poderosas. É um drone projetado para matar. O agente 007 já pode se aposentar e morrer em paz, pois seus substitutos serão bem mais poderosos e imortais.
Artigo de Andrew Tarantola (25/07/2017) mostra que há algum tempo o Pentágono tem buscado avançar no uso de armas robóticas, associadas à Inteligência Artificial, para proteger suas forças humanas. Mas, à medida que esses sistemas ganham cada vez graus mais avançados de inteligência e independência, sua crescente autonomia tem gerado críticas por parte dos observadores preocupados com o fato de que os humanos estão cedendo muito poder a dispositivos cujos processos de tomada de decisão não entendemos completamente (e que talvez não possamos ser inteiramente capazes controlar).
Ainda segundo Tarantola, o que constitui um Sistema de Arma Autônomo (AWS, sigla em inglês) depende da pessoa questionada, pois esses sistemas apresentam diferentes graus de independência. As armas definidas como “Sentindo e Reagindo aos Objetos Militares” (SARMO, sigla em inglês), podem responder às ameaças recebidas de artilharia e mísseis, envolvendo-se em ações militares sem a supervisão humana. Por enquanto, estes mecanismos não são totalmente autônomos, pois executam uma tarefa automática definida e não há tomada de decisão, apenas uma resposta a um estímulo externo.
Porém, os “robôs assassinos” estão sendo gestados nas profundezas secretas da pesquisa militar e nos estudos sobre a destruição em massa das forças inimigas. As armas totalmente autônomas capazes de selecionar, identificar e se envolver com alvos de sua própria escolha, sem interferência humana, parece que ainda não vieram à luz. Se bem que os serviços de contra inteligência suspeitam que algum protótipo já esteja sendo testado. Vários países, incluindo a China, Reino Unido, Israel, os EUA, além obviamente da Rússia, estão trabalhando em seus arquétipos.
Ainda como explica Tarantola, existe uma tentativa de regulamentar o “Autonomous Weapon System – AWS” (Sistema de Armas Autônomas – nome politicamente correto para “robôs assassinos”).
Oficialmente os governos dizem que não tem intenção de desenvolver sistemas que operem sem intervenção humana. Mas Noel Sharkey, professor de Inteligência Artificial (IA) e robótica diz que o discurso já preestabelecido é de que “Tudo será controlado pelos humanos”. Mas ninguém está disposto a dizer de que maneira será esse controle. Há diversos níveis de controle, nas situações de conflito armado:
1. O humano identifica, seleciona e envolve o alvo, iniciando todos os ataques;
2. A IA sugere alternativas alvo, mas o humano ainda inicia o ataque;
3. A IA escolhe os alvos, mas o humano deve aprovar antes do ataque ser iniciado;
4. A IA escolhe os alvos e inicia o ataque, mas o humano tem poder de veto;
5. A IA identifica, seleciona e atinge o alvo sem qualquer controle humano.
Os níveis 4 e 5 são, evidentemente, os mais perigosos. O sistema americano de mísseis Patriot opera de acordo com regras de compromisso semelhantes ao ponto 4. As armas que atuam como no ponto 5 ainda não chegaram ao campo de batalha, pelo menos não são conhecidas do público. Mas dizem que a torre de defesa SGR-A1, da Samsung, atualmente implantada ao longo da Zona Desmilitarizada entre as duas Coreias, é capaz de identificar e destruir as forças do inimigo, completamente por conta própria. O clima de guerra favorece o desenvolvimento desse arsenal militar de armas inteligentes de destruição em massa.
Recentemente, o presidente da China, Xi Jinping, de uniforme, comandou desfile militar, com destaque para os novos mísseis para ataque nuclear e disse: “A China está pronta para a batalha”. A Coreia do Norte testa mísseis intercontinentais e ameaça atacar a base militar americana na ilha de Guam. O presidente Donald Trump adverte à China, por causa da Coreia do Norte, e faz ensaios de seus bombardeiros na península coreana. Trump ameaçou Kim Jon-un com “fogo e fúria”.
O presidente Vladimir Putin também fez uma demonstração de poder com um grande desfile de mais de cem navios, além de ordenar a saída de 755 funcionários dos EUA, em resposta às sanções americanas à Rússia. Vários países estão em guerras há anos, como Síria, Iêmen, Iraque, Afeganistão, Sudão do Sul, Etiópia, etc. A guerra do século XXI deverá ter um forte componente de ciberataques, forma não prevista na Convenção de Genebra.
Na realidade, as diversas forças políticas e militares dos países mais desenvolvidos – na capacidade de destruição em massa – estão a ponto de abrir a caixa de Pandora. Tudo indica que a lógica de se defender com a maior segurança possível leve ao desenvolvimento de Sistemas de Armas Autônomas cada vez mais avançados. Sem dúvida, na área militar, o princípio ético “primum non nocere” (“primeiro, não prejudicar”) não se aplica como sugerido pela área civil. Na guerra (comercial ou bélica), as primeiras vítimas são a verdade e a ética.
Provavelmente, os robôs superinteligentes não se limitarão a imitar a inteligência humana (que é muito adstrita). O aprendizado de máquina, ou aprendizado automático (Deep learning), por meio de redes neurais artificiais, ganha cada vez mais terreno. Quando cérebros cibernéticos, de grande memória e capacidade de processamento, conseguirem processar o Big Data e se conectar aos dispositivos móveis (como drones, carros e tanques autônomos, navios autoguiados, Transformers, ciborgues, androides, etc.), poderão deixar de lado a simulação e partir para a ação, independentemente do controle humano.
Artigo de Will Knight (14/03/2017) mostra que a Agência de Projetos Avançados de Pesquisa de Defesa (DARPA), uma divisão do Departamento de Defesa dos EUA, que explora novas tecnologias, está financiando vários projetos que visam fazer a Inteligência Artificial ficar mais inteligível, diante da explosão de pesquisas na área de IA. A Aprendizagem Profunda (Deep Learning) e outras técnicas de aprendizagem mecânica (machine-learning techniques) estão melhorando o reconhecimento de voz e a classificação das imagens de forma significativa e estão sendo usados em contextos cada vez mais avançados, incluindo áreas como a aplicação de medicamentos, onde as consequências de um erro podem ser sérios.
Porém, enquanto o aprendizado profundo é incrivelmente eficiente para encontrar padrões no Big Data, geralmente é impossível entender como o sistema chega às suas conclusões. O processo de aprendizagem é matematicamente muito complexo, e muitas vezes não há como traduzir isso em algo que uma pessoa entenderia.
Recentemente, um grupo de pesquisadores do Facebook desativou máquinas com Inteligência Artificial que desenvolveram uma linguagem própria para se comunicar, por meio de algoritmos complexos e ininteligíveis para os humanos. Embora os defensores da IA minimizem o ocorrido, como sendo apenas uma discussão boba entre dois “bots” (robôs em formato digital) que estavam negociando pela teoria dos jogos, o fato é, por si só, bastante simbólico.
Este ano, um bot de inteligência artificial do Google superou o melhor jogador de Go do mundo. E a última novidade, um outro bot de IA, desenvolvida pela OpenAI, cofundada por Elon Musk, venceu os melhores jogadores de Dota2 em partidas individuais. Por conta disto, Musk voltou a criticar a expansão desregrada da IA e disse que a IA é mais perigosa que a Coreia do Norte. Ele receia o potencial militar do uso da Inteligência Artificial.
Estes alertas deixam claro que, no futuro, Robôs sapiens podem ter memória e capacidade cognitiva potencialmente muito maior do que o cérebro humano e podem nos deixar para trás, servindo apenas para aumentar as desigualdades sociais e aumentar o poder bélico das grandes potências. Para o bem ou para o mal, os alunos podem ultrapassar os seus mestres!
Assim, o potencial dos robôs sapiens é enorme e o potencial militar é ainda maior. Ao mesmo tempo, aumenta a possibilidade de perda de controle e de erros que podem ser desastrosos. Nas situações de conflito, os ganhos operacionalizáveis deverão influenciar a análise da equação, custo (mal) versus benefício (bem), e poderão deixar de lado quaisquer idealismos morais. Além do que, como os conceitos de bem e de mal são relativos e variam conforme o interesse próprio de quem assassina ou é assassinado, a utilidade dos robôs sapiens de uso militar deve favorecer as grandes potências, especialmente em situações de confrontos bélicos. Os generais, provavelmente, vão defender o uso de robôs sapiens assassinos como forma de salvar as vidas humanas de suas tropas.
A lógica da guerra é terrível. A “ética da convicção” poderá ser facilmente suplantada pela “ética da responsabilidade”. Os interesses mesquinhos da racionalidade instrumental podem prevalecer no império da lógica consequencialista maquiavélica. Na Segunda Guerra Mundial, o poder da potência emergente criou o primeiro supercomputador (ENIAC) e lançou duas bombas atômicas, em Hiroshima (06/08/1945) e em Nagasaki (09/08/1945).
Hoje, os perigos são outros. Artigo de Musgrave e Roberts (14/08/2015) mostra que a reformulação de um robô com Inteligência Artificial para fins destrutivos é mais fácil do que reutilizar um reator nuclear. Por isto, eles pedem a proibição internacional de armas com IA, assim como há proibição de armas químicas, biológicas e nucleares.
Por exemplo, Mark Gubrud, pesquisador do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, luta pela criação de regras para o controle de armas robóticas autônomas há mais de duas décadas. Ele é membro do Comitê Internacional para o Controle de Armas Robóticas (CICAR), um grupo de ativistas, acadêmicos e intelectuais do mundo todo que tenta conseguir a proibição do uso de robôs que podem matar sem a interferência humana (Cosoy, 08/02/2014). Essa é a realidade cada vez mais presente.
O mundo teve muitas guerras nos últimos 500 anos. No século XXI, provavelmente, não será diferente. Como mostra o professor de Harvard, Graham Allison, no livro “Destinados para a Guerra: Podem EUA e China Escaparem da Armadilha de Tucídides?”, sempre existe um risco de conflito quando um poder emergente desafia o poder estabelecido. Não é por outra razão que a China anunciou um plano nacional de desenvolvimento de inteligência artificial (IA) e está investindo US$ 60 bilhões para se tornar líder mundial em IA, até 2025, especialmente no setor de tecnologia bélica. Enquanto isto, Donald Trump corta recursos dos programas sociais e aumenta o orçamento anual de “defesa” americano para US$ 600 bilhões.
Na ficção “Robopocalypse”, Daniel Wilson (2011) descreve uma revolta de robôs, controlados por uma inteligência artificial infantil (não tem relação com o atual presidente dos EUA e nem com Kim Jong-un na Coreia do Norte), embora massivamente poderosa, conhecida como Archos, que controla uma rede global de máquinas que se torna um inimigo implacável e mortal da humanidade. Ele diz: “No futuro próximo, num momento que ninguém vai notar, toda a deslumbrante tecnologia que funciona a nosso favor se unirá e se virará contra nós”.
Na realidade atual do mundo concorrencial, os avançados robôs sapiens assassinos – criados pela junção das tecnologias da robótica, da cibernética, da Realidade Aumentada (RA) e da Inteligência Artificial – já devem estar sendo delineados, ou nos laboratórios dos míopes discípulos do Dr. Victor Frankenstein ou nos esconderijos supersecretos das potências militares.
O Armagedon global pode estar sendo gestado pelas forças de fragmentação que colocam em rota de colisão o universo corporativo e militar, interessados no aprofundamento da Revolução 4.0, mas que se preparam para a guerra diante de uma governança internacional e multilateral cada vez mais desigual, iníqua e conflituosa.
Referências:
Zach Musgrave and Bryan W. Roberts. Humans, Not Robots, Are the Real Reason Artificial Intelligence Is Scary. Intelligent weapons are too easily converted by software engineers into indiscriminate killing machines. AUG 14, 2015
https://www.theatlantic.com/technology/archive/2015/08/humans-not-robots-are-the-real-reason-artificial-intelligence-is-scary/400994/
Daniel H. Wilson. Robopocalypse: A Novel, Doubleday, 2011
Will Knight. The U.S. Military Wants Its Autonomous Machines to Explain Themselves, MIT, 14/03/2017
https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/
Natalio Cosoy. Grupo de cientistas nos EUA quer proibição de ‘robôs assassinos’, BBC, 08/02/2014
http://www.bbc.com/portuguese/noticias/2014/02/140207_especialista_robos_assassinos_fn
Andrew Tarantola. Will we be able to control the killer robots of tomorrow? Engadget, 25/07/2017
https://www.engadget.com/2017/07/25/will-we-be-able-to-control-the-killer-robots-of-tomorrow/
José Eustáquio Diniz Alves, Colunista do Portal EcoDebate, é Doutor em demografia e professor titular do mestrado e doutorado em População, Território e Estatísticas Públicas da Escola Nacional de Ciências Estatísticas – ENCE/IBGE; Apresenta seus pontos de vista em caráter pessoal. E-mail: jed_alves@yahoo.com.br
in EcoDebate, ISSN 2446-9394, 16/08/2017
[CC BY-NC-SA 3.0][ O conteúdo da EcoDebate pode ser copiado, reproduzido e/ou distribuído, desde que seja dado crédito ao autor, à EcoDebate e, se for o caso, à fonte primária da informação ]
Nenhum comentário:
Postar um comentário