Web Summit, ética e os paraísos de IA

stimos, nos últimos tempos, à fascinante emergência de várias criações geradas por sistemas de inteligência artificial (IA), tais como a música Break Free composta e produzida por Amper (made by IA), uma colecção de moda de nome 8 by Yoox (made by IA), maquilhagem disponibilizada através da plataforma Dazed Beauty (made by IA) e uma pintura intitulada Edmond de Belamy (made by IA) que foi vendida via Christie’s pela módica quantia de 432,500 UDS.

A IA está a integrar-se rapidamente no nosso quotidiano, de forma mais ou menos subtil, tem por base tecnologia complexa e afecta potencialmente muitas áreas da vida de todos nós.

Oferece claramente múltiplas vantagens, criando condições vastamente mais favoráveis para a execução de tarefas no que toca a vários sectores (exemplos: investigação, medicina, cuidados de saúde, serviços financeiros, transportes, energia, infraestruturas, construção, cibersegurança), mas traz também novos desafios, questões e riscos de ordem jurídica e ética (exemplos: responsabilidade, big data, discriminação, propriedade intelectual, crime, distorção de mercados)

Muitos destes desafios, questões e riscos prendem-se com a utilização de dados em sede de IA. Os dados desempenham um papel central no desenvolvimento da IA, sendo inseridos em sistemas de IA e utilizados para os treinar (à falta de melhor expressão) através da análise da informação, do seu agrupamento, da sua filtragem e da identificação de padrões, permitindo que tais sistemas gerem previsões e recomendações. Quanto mais dados são fornecidos a tais sistemas, melhor é o seu desempenho.

Em função dos dados que são fornecidos aos sistemas e que por estes são agrupados, filtrados e interpretados, surgem certos resultados, que tanto podem

ser justos como discriminatórios e consequentemente influenciar de forma equitativa ou preconceituosa processos que têm impacto na vida do dia-a-dia, como, por exemplo, a avaliação de candidatos para seguros de saúde ou para emprego e a criação de perfis na área da justiça criminal (com base em aplicações de empresas como a IBM, a Microsoft, a Predpol e a Palantir).

Leia também | Inteligência Artificial e os novos Monopólios: O petróleo do século XXI

O Estado enfrenta assim um dilema, pois, por um lado, cabe-lhe incentivar o desenvolvimento científico e o progresso económico; e, por outro lado, tem de tutelar os direitos fundamentais dos seus cidadãos. Ou seja, tem de gerar políticas públicas que promovam a competitividade neste domínio do saber, protegendo em simultâneo, cidadãos e respectivos direitos.

Há que reconhecer que a União Europeia, bem ciente de que os EUA e a China estão uns bons passos à frente, anda finalmente a ter uma postura relativamente dinâmica neste contexto, tentando incentivar a investigação, o investimento e a adopção de sistemas de IA, mas não ignorando preocupações de foro jurídico e ético ligadas a tais sistemas (como transparência, responsabilidade, privacidade e igualdade).

Assim, os Estados Membros da União Europeia assinaram uma Declaração de Cooperação em sede de IA, almejando a um esforço colectivo em torno das questões mais relevantes neste contexto, assegurando a garantia de que a União Europeia se torna competitiva neste sector.

Mas não esquecendo os imperativos ditados pelos direitos fundamentais, a Comissão lançou recentemente guidelines éticos que contêm elementos essenciais para assegurar uma IA fiável, tais como a prevalência da autonomia humana, a privacidade e o controlo de dados pelos utilizadores, a transparência e a ausência de discriminação.

A importância do interesse público no que toca a estas matérias, a prevalência do mesmo, foi ventilada e reiterada, por vários palestrantes de peso no âmbito da recente Web Summit.

Leia também | “Imparável” e sem medo do futuro, a Web Summit foge cada vez mais à tecnologia

Brad Smith, Chief Legal Officer da Microsoft, reconheceu que a tecnologia digital é uma ferramenta que pode ser transformada numa arma e que quanto mais poderosa a ferramenta mais potente é a arma. Consequentemente, afirmou, a ciência tem de avançar em conformidade com os direitos do homem, havendo que perguntar não o que os computadores podem fazer mas sim o que devem fazer. Concluiu que a protecção contra o uso indevido do conhecimento tecnológico é vital, tendo o interesse público de ter primazia, sempre.

Michael Kratsios, Chief Scientific Officer da Casa Branca, seguindo linha de orientação similar, declarou que os Estados Unidos e os seus aliados devem permanecer na vanguarda do desenvolvimento tecnológico de modo a garantir que esse desenvolvimento segue valores partilhados, como a privacidade, a liberdade e a justiça.

O representante da Casa Branca referiu, em seguida, a China como exemplo a não seguir, porquanto a China valoriza a censura à liberdade de expressão, monitoriza as comunicações online, impede o acesso à informação e não respeita a dignidade do ser humano.

Asseverou, com veemência, Michael Kratsios, que a tecnologia tem de avançar de acordo com valores democráticos e que o combate ao seu uso em sede de violação dos direitos do homem é crucial.

Proclamou, por fim, o mesmo representante da Casa Branca, que há que agir de forma incisiva e com coragem uma vez que o mundo pode mudar rapidamente.

Feitas as contas a ideia é garantir que os sistemas de IA são configurados com respeito pela ética, pelos direitos do homem.

Há ainda um longo caminho a percorrer, mas algum entusiasmo preliminar. Segundo Andrus Ansip, o Vice-Presidente responsável pelo Mercado Único Digital: «[a] dimensão ética da IA não constitui um luxo nem um acessório, já que a nossa sociedade só poderá beneficiar plenamente das tecnologias se tiver confiança nas mesmas. Uma IA ética será vantajosa para todos e poderá vir a

ser uma vantagem competitiva para a Europa, que estará na vanguarda de uma IA centrada no ser humano, em que as pessoas poderão confiar.»

Não podemos esquecer, no entanto, e faltou referir isso no contexto da Web Summit, que certos países criarão guidelines equivalentes e ignorá-los-ão sem hesitação enquanto a tendência Europeia será no sentido de os levar a sério.

Leia também | Monker’s Garkel: a inteligência artificial criou um gin

Outros países ainda encararão essa iniciativa da União Europeia como uma oportunidade para estabelecer paraísos para o desenvolvimento de sistemas de IA sem considerações, limitações, restrições ou barreiras éticas.

Michael Pillsbury, Director for Chinese Strategy, Hudson Institute, anunciou em pleno Web Summit, que a sua principal preocupação reside no G2, uma equação que inclui apenas os Estados Unidos e a China. Teme que qualquer esforço conjunto entre os Estados Unidos e a China tenha por base big data, notando que a China tem ideias muito próprias de como lidar com big data, ideias essa que não passam pela necessidade de formulários de consentimento.

É complicado em termos económicos e políticos, porque a IA é realmente o novo petróleo, gerando o seu controlo poder económico e tendendo o poder político a andar de mãos dadas com o poder económico.

A solução não reside no afastamento de considerações éticas para garantir competitividade na União Europeia em sede de IA, mas no fornecimento pelos Estados Membros de outro tipo de incentivos, por exemplo de foro fiscal, por forma a garantir um ecossistema favorável ao desenvolvimento da IA na União Europeia.

O ritmo acelerado que caracteriza o desenvolvimento da tecnologia em causa é tal, que não podemos esperar. Quem de direito deve configurar já, à cautela, políticas públicas e acções legislativas que reflictam na medida certa a necessidade de maximizar os benefícios advindos da IA, de criar uma Europa competitiva em tal sector e de manter uma estratégia adequada de investimento em IA, não deixando de tutelar os direitos fundamentais em jogo.

Todavia, a União Europeia não pode ignorar o facto de quem nem todos os países são regidos por considerações de foro ético e nem todas as proclamações éticas dão lugar a acção, havendo que ter isso em conta em sede de configuração de estratégia.

Patricia Akester é Fundadora do Gabinete de Propriedade Intelectual. 

Facebook contrata filósofos para ajudar a inteligência artificial (e não só). O que é que isso significa?