Armas Autônomas: uma preocupação distante?
Escrito por
Pedro Vilela Resende Gonçalves (Ver todos os posts desta autoria)
9 de abril de 2018
Quando o Instituto Coreano Avançado de Ciência e Tecnologia (Korean Advanced Institute of Science and Technology – KAIST) anunciou nesta terça-feira uma iniciativa para o desenvolvimento de armas autônomas – artefatos bélicos controlados não por seres humanos, mas por inteligência artificial -, um grupo de mais de 50 pesquisadores em Inteligência Artificial reagiu convocando um boicote. O grupo, formado por cientistas de mais de 30 países (Incluindo um pesquisador brasileiro), protestou contra a parceria entre o KAIST e a Hanwha Systems, atualmente um dos maiores conglomerados da indústria bélica coreana. A parceria resultou na abertura de um laboratório focado na convergência entre Inteligência Artificial e Defesa Nacional. Mas por que uma reação tão adversa?
Em 22 de Agosto de 1864 um grupo de nações européias se reuniu para assinar a Primeira Convenção de Genebra para Melhoria das Condições dos Feridos e dos Enfermos das Forças Armadas em Campanha. Após experiências aterradoras e sangrentas envolvendo soldados e mesmo civis durante um período de intensos conflitos militares no velho continente, um movimento pela criação de regras mínimas para tratamento humano de feridos pela guerra resultou no embrião do que futuramente seriam chamados os Direitos Humanos. Mesmo durante conflitos militares, as nações entenderam, deveriam haver restrições para o poder destrutivo e para as consequências negativas das guerras. Por isso, posteriormente três outras Convenções e três protocolos adicionais foram criados para estabelecer padrões humanitários na guerra.
A preocupação dos pesquisadores com o desenvolvimento de artefatos militares controlados parcial ou completamente por inteligência artificial é, então, uma consequência natural deste processo de auto contenção desenvolvido ao longo de mais de um século. As Nações Unidas já vem, desde Outubro de 2017, se preocupando com as consequências éticas do desenvolvimento desenfreado e sem escrúpulos das chamadas armas autônomas. Para especialistas e representantes governamentais de diversas áreas – do Direito Humanitário à Ciência da Computação -, deixar decisões de vida ou morte na mão de algoritmos de Inteligência Artificial trará seríssimos problemas para a identificação, responsabilização, e combate a condutas desumanas em conflitos militares ou mesmo fora deles.
Em um vídeo de conscientização, digno de um episódio de Black Mirror, a iniciativa Ban Lethal Autonomous Weapons mostra um futuro distópico – mas não tão distante – onde drones autônomos com capacidade letal são capazes de utilizar de diversas tecnologias já existentes (Como reconhecimento facial e profiling através de big data) para identificar e eliminar alvos.
As preocupações envolvendo armas autônomas tangenciam diversos campos. A primeira preocupação é que estes dispositivos caiam em mãos erradas: criminosos, terroristas, governos ditatoriais. Porém, a dificuldade em se rastrear e responsabilizar uma arma que tem capacidade de decidir sozinha ou não entre matar ou não também a torna problemática mesmo em governos ditos democráticos: sem as precauções regulatórias adequadas, as armas autônomas podem acabar sendo usadas por autoridades corruptas para direta ou indiretamente (Por exemplo, através da auto-censura pelo medo) abafar visões políticas opostas. Afinal, sem os mecanismos de accountability apropriados, e sem uma discussão séria sobre a responsabilidade de ações tomadas por algoritmos de inteligência artificial, pode ser quase impossível culpar alguém.
O fato de que estes algoritmos podem se utilizar de big data para traçar perfis específicos através de orientações relativamente simples também é preocupante e abre mais um campo de preocupação na disciplina da Privacidade e Proteção de Dados: Sabendo que estes podem ser usados por robôs para desenhar um alvo em suas cabeças, é possível que indivíduos passem a desejar um controle maior sobre a acessibilidade e abertura de seus dados pessoais.
Uma corrida armamentista na inteligência artificial terá um efeito desintegrador sobre as normas globais consensuais do direito internacional, especialmente aquelas que restringem o uso da força militar e voltadas para a proteção de civis durante os tempos de guerra. As armas autônomas provavelmente reduzirão o limite do uso da força, tornando a guerra mais provável. A realidade é que as instituições de paz e segurança já estão começando a se modificar. Veículos aéreos não tripulados armados permitiram violações significativas de normas globais essenciais contra o uso da força. Ataques cibernéticos também confundem as linhas entre guerra e paz e só crescerão em número e sofisticação. A introdução de armas e sistemas bélicos autônomos no planejamento militar dos países só tornará esse quadro mais complicado.
Segundo Denise Garcia, especialista na intersecção entre o Direito Internacional e autômatos letais. para que as negociações avancem em direção a um caminho mais concreto e ambicioso, alguns desenvolvimentos seriam bem-vindos: Primeiro, o Comitê Internacional da Cruz Vermelha (CICV) poderia endossar um pedido de proibição preventiva de quaisquer sistemas de armas que eliminem o controle humano significativo sobre as funções críticas e sobre as decisões de matar. No passado, o CICV adotou posições significativamente transformadoras contra minas terrestres, bombas de fragmentação e, mais recentemente, contra a proibição de armas nucleares. Sua posição tem enorme influência moral e faria diferença nessa conjuntura crítica. Em segundo lugar, o fórum para as negociações não deve ser a Convenção sobre Certas Armas Convencionais (CCAC), mas aquele em que as decisões são tomadas por maioria, em vez de por unanimidade. Finalmente, um dos cinco membros permanentes (P5) do Conselho de Segurança da ONU, poderia abraçar o papel do Estado líder na proibição de qualquer sistema de armas que elimine o controle humano significativo sobre as funções críticas e as decisões de matar. Trabalhando com os potências intermediárias na Europa e na América Latina, um membro do P5 poderia formar um grupo de estados com idéias afins que trabalharia em um instrumento juridicamente vinculativo com normas globais comumente aceitas para proteger o futuro da paz.
As opiniões e perspectivas retratadas neste artigo pertencem a seus autores e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.
Escrito por
Pedro Vilela Resende Gonçalves (Ver todos os posts desta autoria)
Fundador do Instituto de Referência em Internet e Sociedade, é graduando em Direito pela Universidade Federal de Minas Gerais. É coordenador e pesquisador do Grupo de Estudos em Internet, Inovação e Propriedade Intelectual. Alumni da 2a turma da Escola de Governança da Internet do Brasil. Membro do Observatório da Juventude da Internet Society.