Comissão Europeia revela versão final de guia para IA mais ética

inteligência artificial, tecnologia
Fonte: Pixabay

A Comissão Europeia já partilhou a versão final de um guia de princípios criado para garantir que o desenvolvimento de inteligência artificial é feito com a ética em mente.

O rascunho inicial desta linha de princípios já tinha sido divulgado em dezembro do ano passado. Na altura, a versão inicial estava disponível para consulta e aberto a quem quisesse dar o seu contributo – fosse para fazer sugestões ou retificações ao documento.

Nesta versão final de princípios para o desenvolvimento ético de inteligência artificial é referido que a Comissão Europeia recebeu cerca de 500 contributos, com a instituição a “agradecer de forma explícita e calorosa a todos aqueles que contribuíram com ‘feedback’ para o documento”.

O documento “Princípios éticos para uma inteligência artificial de confiança” foi desenvolvido por um grupo de especialistas no tema, designado por AI HLEG. Nesta lista entraram empresas como a Airbus Defence and Space, Bosch ou a Bayer ou tecnológicas como a SAP ou a IBM.

Leia também | Como é que a tecnologia vai reduzir a fome no mundo? A IBM explica

Este documento sublinha uma abordagem definida para conseguir chegar a esta IA em que se pode confiar: recorrer a princípios centrados nos humanos. Para isso, os peritos elaboraram uma lista de dez temas-chave, em que a responsabilização está presente para a receita da “inteligência artificial boa”.

Entre os grandes destaques deste guia contam-se a robustez e segurança dos algoritmos, que precisam de ser “seguros, de confiança e robustos para detetar erros ou incoerências”. Outros pontos estão ligados ao governo dos dados, uma criação não discriminatória da IA e também vários pontos de respeito: assegurar a privacidade, segurança e transparência.

Leia também | Nobel da computação foi atribuído a trio de ‘Padrinhos da IA’

O documento pode ser consultado na totalidade aqui. A Comissão Europeia não é a única entidade que quer tomar medidas para garantir que o progresso tecnológico é desenvolvido de uma forma ética. A Universidade de Stanford, por exemplo, lançou recentemente um comité para garantir que a tecnologia é utilizada para poder ajudar a humanidade a avançar em diversas áreas de atuação.

Também a Google criou no mês passado um conselho de ética para a inteligência artificial. No entanto, este conselho teve uma vida curta – as polémicas com as escolhas de alguns membros deste grupo resultaram na dissolução do grupo, apenas uma semana após a criação.

Conselho de ética para IA da Google foi dissolvido após uma semana