Se a inteligência artificial da Google abusar, dê-lhe um puxão de orelhas

Google | Inteligência artficial | Jen Gennai, reforma direitos de autor
Foto: REUTERS/Toby Melville

Utilizadores vão poder contestar escolhas feitas pelos sistemas de inteligência artificial da empresa – e tudo em nome da ética.

A Google já enfrentou – e ainda enfrenta – problemas por os seus algoritmos apresentarem preconceito e enviesamento relativamente a questões como género, etnia ou ideologia política. Mas se o trabalho de Jen Gennai e da sua equipa resultar, as polémicas por falta de ética têm os dias contados.

A executiva, líder de inovação responsável em inteligência artificial (IA), está a trabalhar em novos mecanismos para tornar os serviços Google mais transparentes, éticos e justos.

Para a tecnológica, o segredo está numa receita com três ingredientes: criar algoritmos que explicam aos utilizadores por que razão tomaram aquela decisão ou fizeram determinada sugestão; criar algoritmos que são facilmente interpretados pelos programadores, pois no final são estes quem vão definir a influência que a IA tem no dia-a-dia dos utilizadores; e, aquela que acaba por ser a grande novidade, a possibilidade de os consumidores contestarem os resultados que lhes são mostrados.

“São os três grandes esforços de investigação em que estamos a trabalhar para termos níveis de transparência, tanto para os programadores como para os consumidores. A possibilidade de contestação é uma nova área para fazermos investigação. (…) Falta perceber se faz sentido ter a contestabilidade em todos os produtos ou só em determinados casos.” Por agora, a empresa não avança uma data sobre quando o sistema de contestação fica amplamente disponível.

A responsável confirma que já foram cancelados projetos por não cumprirem as linhas éticas da empresa. “Temos um interface de reconhecimento facial de utilização generalista. Apesar de o usarmos no Google Photos para reconhecer pessoas, quando estávamos a avaliar se devíamos disponibilizá-lo, concluímos que a nossa abordagem não tinha sido bem pensada.”

Jen Gennai
“Se violar os nossos limites éticos, diremos
não ao projeto. Aprovaríamos se fizesse alterações e ficasse mais sólido a nível de equidade”, disse Jen Gennai, líder de inovação responsável, em entrevista exclusiva à Insider / Dinheiro Vivo. Foto: Google

Este é o novo lado da Google. Agora que a inteligência artificial é a prioridade estratégica da empresa e é uma tecnologia que já influencia quase todos os seus principais produtos – do e-mail aos mapas, passando pelo motor de busca e pelo YouTube -, qualquer problema que surja a nível ético pode ter consequências graves.

“Muitas pessoas, culturas e regiões diferentes têm as suas próprias definições [de preconceito]. Enquanto empresa global tentamos perceber como podemos ser o mais consistentes e inclusivos possível à medida que trabalhamos com pessoas de todo o mundo.”

Leia também | O génio que está a construir um parque de diversões para a inteligência artificial

A maior transparência e explicabilidade dos algoritmos vai ser importante sobretudo para casos em que decisões feitas por computadores podem pôr em causa a vida dos humanos. Se um carro autónomo atropelar alguém, quem é o responsável?

“Continuamos a ter essa conversa de perceber todos os que estão envolvidos naquela situação, mas também não acreditamos que devemos tomar essa decisão sozinhos. Queremos garantir que estamos a falar com políticos, reguladores, todas as pessoas da indústria que estão a trabalhar neste problema, para tentar perceber e garantir que estamos todos de acordo sobre quem poderá ser responsabilizado. É uma conversa em evolução e não temos a resposta ainda.”

Atualmente, a Google tem perto de três pessoas a trabalhar diretamente no desenvolvimento de algoritmos de inteligência artificial, mas a ambição da empresa é que todos os funcionários conheçam, apliquem e sejam responsáveis pelas falhas éticas dos seus produtos.

“Damos treinos de ética aos trabalhadores em toda a empresa, temos um conjunto de treinos de responsabilidade para ajudar as equipas a tomar essas decisões numa base diária. Esperamos, eventualmente, poder dizer que cem mil pessoas estão a trabalhar nisto, mas por agora ainda estamos a construir a nossa infraestrutura, os treinos, as ferramentas e somos um grupo mais pequeno.”

Fernando Pereira: O homem na cadeira de sonho da inteligência artificial