O faroeste digital

O brilhante documentário da Netflix, intitulado The Social Dilemma, revela o grau de influência que a chamada Inteligência Artificial (IA) tem sobre a vida de todos nós, a omnipresença dos chamados algoritmos (necessários para a criação de qualquer programa de computador).

“This is checkmate on humanity”, afirma Tristan Harris, um dos entrevistados, ex-especialista em ética de design da Google e co-fundador do Center for Humane Technology.

Em causa está a chamada tecnologia persuasiva que assenta na explosão de informação contida na Internet e na eleição da atenção do utilizador como o bem mais valioso e disputado do mundo digital – atenção essa que é manobrada e dominada por algoritmos, detidos por entidades privadas, que filtram, seleccionam e promovem conteúdos, com base em prioridades neles pré-configuradas.

Passámos, dizem os economistas, da economia da informação para a economia da atenção, na qual a informação colhida pelos utilizadores, cuja atenção se cobiça, é manipulada por meio de algoritmos que alteram percepções e convicções, traçando, quiçá, os destinos do mundo.

Nalguns casos a presença e o potencial impacto de tais algoritmos são relativamente óbvios. Por exemplo, quando o Google Maps nos fornece 3 alternativas para ir de A a B, evitando engarrafamentos; quando residentes em pontos diversos do globo são apontados como compatíveis por sistemas especializados em matrimónios made by IA; quando se busca uma impressora no website da Amazon e emerge repentinamente um anúncio relativo a tinteiros etc. Noutros casos a presença e o impacto dos algoritmos são relativamente invisíveis. Por exemplo, quando é concedido (ou não) um empréstimo bancário; se obtém (ou não) certo emprego; acede (ou não) a determinada universidade, etc.

Mas o dilema vai além do social

Por exemplo, já vimos que as plataformas sociais podem ser transformadas em armas políticas e manipular entendimentos, ideias, convicções e votos; também sabemos que no plano da defesa e da segurança nacionais abundam os ataques a infraestruturas de informação estatais; e constatamos agora que plataformas como Google, Twitter, Youtube e Facebook estão a ser utilizadas para disseminação e amplificação de uma narrativa nem sempre fidedigna que se opõe veementemente à vacinação contra a Covid-19, pondo em risco a fundamental criação de imunidade de grupo.

A questão não é apenas social, mas multifacetada, requerendo acção legislativa internacional ou pelo menos regional, pois numa aldeia digital global cercas e vedações nacionais não montam a muito.

União Europeia por onde andas?

A UE não tem ignorando preocupações de foro jurídico e ético ligadas ao uso de algoritmos, tendo lançado, em 2019, guidelines éticos que contêm elementos essenciais para assegurar uma IA fiável, tais como a prevalência da autonomia humana, a privacidade e o controlo de dados pelos utilizadores, a transparência e a ausência de discriminação. Mais, em Outubro de 2020, o Parlamento Europeu aprovou três iniciativas que prevêem novas regras no domínio da IA, nos domínios ético, de responsabilidade civil e de direitos de propriedade intelectual.

Mas a Comissão Europeia tem de ir mais longe, tornando claro que em função do grau de dano que possam causar os algoritmos devem estar sujeitos a regimes jurídicos diferentes: uns devem ser simplesmente proibidos e outros alvos de controlo intenso, mediano ou praticamente nulo, por instituições criadas para o efeito.

Para melhor protecção do utilizador, a Comissão deve exigir, entre outras coisas: (i) transparência algorítmica, que requer entendimento quanto ao processo de funcionamento do algoritmo, (ii) prevalência do factor humano para certo tipo de temas, no processo decisório em si ou sob a forma de revisão da decisão; (iii) aplicação opcional do algoritmo pelo utilizador e (iv) criação de um órgão independente para efeitos de monitorização contínua.

E o que pode Portugal fazer até lá para assegurar o mínimo de soberania no contexto algorítmico?

O Estado português deve lutar para que os sistemas de IA utilizados em infraestruturas críticas, como saúde, telecomunicações, energia, e defesa sejam made in Portugal. O cenário ideal é este. Até lá o Estado deve, pelo menos, garantir que sistemas de IA cruciais se encontram sujeitos a regulamentação, fiscalização e controlo nacionais.

Siga-se no mínimo o exemplo de Ronald Reagan, o 40º Presidente dos EUA, que invocava um ditado russo, “confie, mas verifique”, no âmbito de discussões com representantes da União Soviética relativas ao desarmamento nuclear. O Estado português que confie, mas que não deixe de regulamentar, de fiscalizar e de controlar.

Conclusão

O mundo da IA está longe de ser perfeito e a democracia digital precisa de despontar. Que mão embala o algoritmo? Que qualificações tem? É escrutinável sequer? Que normas cumpre? E quem as dita? As empresas privadas cingem-se na prática a preceitos feitos por si? Quem está do outro lado da linha? Podemos não saber quem está do outro lado da linha? Podemos ficar reféns de cowboys?

A disrupção democrática chegou ao digital, qual faroeste. Há linhas que precisam de ser traçadas e tal missão não cabe nas atribuições conhecidas de nenhuma direcção geral, de nenhum ministério, de nenhuma ordem profissional, de nenhum organismo conhecido e muito menos estão os Parlamentos em condições de nada que não seja legislar. E usamos o termo Parlamentos no plural, porque isto não é sequer matéria de um só país.

Sob pena de acordarmos um dia destes para uma realidade já sem remédio, convém começar a fazer perguntas e a traçar fronteiras como respostas, só possível no quadro tradicional democrático que (ainda) temos, com pessoas de rosto conhecido, escrutinado, sobre as quais pendem sempre os holofotes.

Nota: As autoras não escrevem de acordo com o novo acordo ortográfico.

Patricia Akester é fundadora do Gabinete de Propriedade Intelectual/Intellectual Property Office (GPI/IPO) Associate, CIPIL, University of Cambridge e Carina João Oliveira é CEO da Insignare – Associação de Ensino e Formação, tendo sido deputada nas XI e XII Legislaturas.