Conselho de ética para IA da Google foi dissolvido após uma semana

Google | Inteligência artficial | Jen Gennai, reforma direitos de autor
Foto: REUTERS/Toby Melville

Na semana passada, a Google anunciava a criação de um conselho de ética para a inteligência artificial e outras tecnologias emergentes. Pouco mais de uma semana depois, este conselho foi dissolvido.

A dissolução deste conselho foi avançada pelo site Vox, que aponta como justificação para este rápido fim a controvérsia ligada a duas integrantes deste grupo. A 26 de março, a Google criava o Advanced Technology External Advisory Council (ATEAC) , um grupo de oito pessoas, onde se incluíam especialistas em ética digital, professores universitários, filósofos e investigadores.

Leia também | Stanford cria instituto para melhorar a humanidade através da inteligência artificial

Segundo o site Vox, é referido que os colaboradores da Google assinaram uma petição para retirar do conselho Kay Coles James, presidente da Heritage Foundation, devido a comentários controversos feitos sobre a comunidade LGBT. Além disso, Coles James tem ainda um historial de declarações polémicas, espelhando visões anti-imigração e anti-alterações climáticas.

Outra decisão controversa foi também a inclusão de Dyan Gibbens, fundadora da Trumbull Unmanned neste grupo. A empresa está ligada ao desenvolvimento de veículos não tripulados, nomeadamente drones, para fins de defesa. Nos últimos tempos, a Google tem sido amplamente criticada pela sua colaboração com organizações militares, que estão dispostas a utilizar inteligência artificial para estes fins. A inclusão de Dyan Gibbens neste grupo terá também sido motivo de discórdia.

Leia também | Comissão Europeia quer inteligência artificial mais ética

Na publicação onde era anunciada a criação deste conselho, era ainda explicado que o conselho iria reunir quatro vezes, a partir deste mês de abril – algo que fica agora sem efeito. A Google já reconheceu a dissolução deste conselho, a publicações como o Engadget.

Académicos e organizações assinaram acordo para que IA não seja usada para fins letais