Publicidade Continue a leitura a seguir

Inteligência Artificial e corrida às armas: Parte II

Fonte: Pixabay

Publicidade Continue a leitura a seguir

Já vimos que inteligência artificial (IA) está a ser cruzada com tecnologia bélica e nesse entrelace reside a nova corrida às armas, corrida às armas essa, entre nações, que visa garantir que as respectivas forças militares se encontram munidas da melhor tecnologia de IA, em sede de defesa e de segurança nacional.

Essa constatação e o temor de que de tal corrida advenham consequências devastadoras, levou à redacção de uma petição (iniciativa do Future for Life Insitute) que foi subscrita por 2400 figuras proeminentes, tais como Stephen Hawking (University of Cambridge), Demis Hassabis (Google DeepMind), Elon Musk (SpaceX), Jaan Tallinn (Skype) e Steve Wozniak (Apple).

A petição exige que sejam criadas normas internacionais que proíbam o desenvolvimento de robots assassinos, comprometendo-se os signatários, na ausência de tais medidas, a não participar nem apoiar o desenvolvimento, o fabrico, o comércio e o uso de sistemas de IA.

Mas sejamos práticos, as grandes potências não terão especial interesse em apoiar unilateralmente uma proibição de armas geridas por sistemas de AI. Se a China, os EUA ou a Rússia (tendo em conta que a criação de sistemas de forro bélico tem sido especialmente impulsionada por esses três países) decidirem, benevolentemente, cessar o investimento em IA para fins bélicos é bem possível que outra(s) grande(s) potência(s) aí veja(m) uma oportunidade para alcançar uma vantagem inatacável neste campo.

Com este contexto geopolítico em mente, que opções restam?

O protesto pacífico obtém, inevitavelmente, resultados parcelares, limitados e paulatinos. Em 2018, por exemplo, milhares de engenheiros da Google

assinaram uma petição contra o envolvimento da Google no Projecto Maven, projecto esse que havia sido comissionado pelo Pentágono para a criação de um sistema de IA de foro militar. Dizia a petição: “Cremos que a Google não deve estar envolvida no negócio da guerra». A Google prometeu cessar a sua participação no Projecto Maven. Acreditemos que sim.

Já um novo tratado cujo teor seja realisticamente capaz de atrair o apoio das principais potências, vinculará os Estados Membros para benefício do todo.

É certo que a legislação internacional actual estabelece regras cruciais relativas, por exemplo, a responsabilidade jurídica e a considerações éticas, mas os arquitectos de tal legislação não tiveram naturalmente em mente situações em que decisões de vida ou de morte poderiam ser deixadas nas mãos de sistemas de IA.

Leia também | Inteligência Artificial e os novos Monopólios: O petróleo do século XXI

Teme-se, por exemplo, que esses sistemas não saibam determinar se os danos civis esperados superam as vantagens militares antecipadas em situações de combate, que não implementem princípios humanitários (como compaixão) no seu processo decisório ou que surja uma lacuna jurídica em termos de responsabilidade individual por crimes de guerra com base na premissa de que seria injusto responsabilizar a chefia militar relevante pela actuação autónoma da máquina,

A solução poderá residir na adopção de um novo instrumento jurídico internacional vinculativo que garanta um controle humano significativo na utilização de sistemas de IA para fins bélicos.

Não é tarefa fácil e em 2018, se dúvidas existiam, cessaram rapidamente quando os EUA, a Rússia e outros países, como a Coreia do Sul, Israel e a Austrália, bloquearam, sem hesitação, o estabelecimento de um novo tratado internacional que proibiria o fabrico e a utilização de sistemas de armas totalmente autónomas – após uma longa semana de negociações em Genebra, no âmbito das Nações Unidas.

Note-se que o tratado teve o apoio de vinte e seis países, incluindo a China (que não foge, no contexto da IA, todavia, a paradoxos) mas devido ao processo decisório vigente a Convenção das Nações Unidas sobre Certas Armas Convencionais (CCW) não foi adoptada.

Esta missão continua e continuou, recentemente, em Genebra, em Março de 2019, com o auxílio do Group of Governmental Experts on Lethal Autonomous Weapons Systems (GGE LAWS), tendo as discussões de 2019 revelado que continua a haver alguma vontade em adoptar um novo instrumento jurídico incisivo. A ver vamos se tal sucede.

A opção mais aceitável para as grandes potências poderá consistir na feitura de um tratado internacional que regule a corrida às armas em sede de IA ao invés de envidar esforços para a banir, não proibindo, mas sim regulando de forma tão espartilhada quanto possível e exequível armas (tanques, aviões, navios e drones) que possam actuar e decidir sem qualquer supervisão humana.

Devemos à ciência a emergência de tecnologia inteligente (lembremos aqui os magníficos exemplos que têm surgido no âmbito do websummit, como Sophia the Robot, da Hanson Robotics) havendo que garantir que essa tecnologia é constante fonte de mais valias para a humanidade e não de medo e de destruição a nível nacional, regional ou global.

Technology is making smart things smarter. Smart things need to be made safer. 

Patricia Akester é fundadora do Gabinete de Propriedade Intelectual. 

 

Inteligência Artificial e corrida às armas: já chegou o terminator?