Inteligência Artificial e acesso universitário: mais um «flop» de 2020

Facto 1: Sou mãe “galinha”, assumidamente, imensamente, “galinha”. Facto 2: Aborreço-me, como, suponho, qualquer mãe, quando o meu filho é alvo de injustiça e iniquidade. Facto 3: Este ano atingi um pico elevado de desagrado quando descobri que o acesso do meu filho ao ensino superior ia ser decretado por um sistema de Inteligência Artificial (IA) – o que quase me levou à agressiva feitura e/ou assinatura de uma petição pública, pois, quando afrontado, é assim que o jurista tende a manifestar a sua ferocidade.

O ultraje emergiu em plena quarentena. Dia 11 de Março deste ano a covid-19 foi declarada como pandemia pela Organização Mundial de Saúde. Dia 23 de Março os exames de acesso à Universidade, que no âmbito do curriculum inglês teriam lugar em Maio, foram cancelados. Permitir a realização dos exames em Maio colocaria em risco a segurança de alunos e professores. Permitir que a solução variasse de país para país, dentro do mesmo sistema de ensino, geraria inevitavelmente injustiça.

Surgiu, então, uma questão óbvia: na ausência de exames de acesso à Universidade, como seriam os alunos avaliados, as notas apuradas e determinado o ingresso no ensino superior?

Como mãe fiquei preocupada. Sempre fiz questão de dar ao meu filho não produtos de marca, mas educação a dois níveis: académico e em termos de princípios/valores. Sendo os princípios/valores ministrados em casa e o ensino na escola, havia que escolher esta cuidadosamente. Assim, quando o meu filho tinha 3 anos seleccionei de forma muito rigorosa o colégio que ele deveria frequentar em Cambridge (que o reconduziu ao Perse Preparatory School) e chegados a Portugal continuou o curriculum inglês no St Julian’s.

Tendo em conta a meta que o meu filho tinha (Engenharia Aeroespacial) a média final não era algo que pudesse encarar de ânimo leve. Aguardei, pois, ansiosamente, como tantos outros pais pelo mundo fora, pela resposta à pergunta acima (como vão ser calculadas as médias finais?), que, quando revelada, me deixou inquieta.

O futuro do meu filho e de tantos jovens pelo mundo fora ficaria, pelo visto, nas mãos de um programa de computador e de certo algoritmo.

Foi criado um modelo matemático que calculou a média geral de cada aluno, tentando prever as notas que teriam sido obtidas nos exames finais. A ideia peregrina traduziu-se basicamente no recurso à IA para fixação dessa média, com base em múltiplos factores, incluindo o prognóstico de cada professor no que toca à média final (denominada «média prevista»).

As notas, assim determinadas, saíram entre Julho e Agosto, tendo sido atribuídas a dezenas de milhares de alunos médias que continham desvios substanciais às referidas «médias previstas», desvios esses inexplicáveis. Governos houve que deram início a investigações formais e milhares de alunos e pais insatisfeitos lançaram furiosas campanhas de protesto.

A indignação acentuou-se quando se levantou uma segunda questão. Como decorreria o processo de recurso das médias assim originadas? Resposta: Com grandes dificuldades, uma vez que o que estava em causa não era a revisão de um exame final feito por um aluno mas da avaliação feita por um sistema de IA que se havia limitado a gerar médias finais com base nos dados que lhe haviam sido fornecidos.

Não me juntei às múltiplas manifestações de desagrado que popularam as ruas, a Internet e os media porque, felizmente, o meu filho conseguiu ingressar na Universidade de Nottingham, a Universidade a que almejava, para fazer o curso de Engenharia Aeroespacial, mas faço questão de fazer este relato que indica o quão perigoso é encarregar a IA de certas missões de foro vital.

Quanto mais não seja, uma vez estipulada a atribuição de tais tarefas à IA, o processo de recurso (que inclui revisão e correcção, se necessário for) em face de resultados anómalos ou inesperados deve ficar nas mãos de seres humanos.

E esta conclusão vale não apenas no contexto académico, mas em qualquer enquadramento que requeira sensibilidade e que tenha forte impacto na vida de cada qual.

Não propugno de modo algum a rejeição da IA, mas preconizo, para melhor tomada de decisões cruciais, o preferencial recurso ao ser humano ou, pelo menos, a utilização da IA em paralelo com o ser humano. Por ora, é o mínimo.

IA sim, mas com controlo e supervisão humana.

Patricia Akester é Fundadora do Gabinete de Propriedade Intelectual.

Nota: A autora não escreve de acordo com o novo acordo ortográfico.

Ensino remoto veio para ficar? Universidades portuguesas divididas