Empresa de Zuckerberg anunciou os 20 nomes que fazem parte do órgão independente que vai decidir o que os seus utilizadores vão ver e gerir temas como os limites da liberdade de expressão. Organismo recebe 120 milhões e está a contratar.
O Facebook finalmente anunciou quem faz parte do novo órgão independente que vai decidir muito daquilo que os moderadores de conteúdos vão adotar como política da empresa na hora de decidir que tipo de conteúdos podem ficar na plataforma.
Numa altura em que o Facebook e as outras marcas do grupo Instagram e WhatsApp (tal como o Twitter) têm dado primazia à informação oficial de autoridades em tempos de pandemia, o novo órgão vai decidir alguns dos temas relacionados com os limites de liberdade de expressão e os direitos humanos dentro do que se passa na rede social mais popular do planeta – com mais de 2,4 mil milhões de utilizadores ativos no mundo, 6,5 milhões deles em Portugal.
Mark Zuckerberg, fundador e CEO da empresa, anunciou já em 2018 que cria uma entidade fora da rede social para tomar decisões sobre a forma de moderar o conteúdo mais controverso. O novo Conselho é, assim, composto por 20 personalidades de várias partes do mundo que “irão procurar ter decisões transparentes e vinculativas para a rede social, desde que não violem as leis locais”, indica a empresa citada pelo El País. O conteúdo que pode ser moderado de acordo com as novas diretivas será o do Facebook e do Instagram – para já o WhatsApp fica de fora até por ser um serviço de mensagens de cariz diferente.
O novo órgão já tem site e está disponível está em português do Brasil. Lá podemos ver a missão detalhada do Conselho de Supervisão e o estatuto onde se promete independência, autoridade, acessibilidade e transparência. Logo na abertura do site é destacada a frase: “Garantir o respeito à liberdade de expressão por meio do julgamento independente.” Há ainda uma área do site onde se anunciam vagas de emprego para o novo conselho entre Londres (Reino Unido), São Francisco e Washington DC (Estados Unidos).
(post no Twitter do novo Concelho de Supervisão)
Para já são 10 mulheres e 10 homens
Foi criada uma organização externa à empresa através de uma doação irrevogável de 130 milhões de dólares (mais de 120 milhões de euros) e os seus membros são compostos por 10 mulheres e 10 homens que não são funcionários do Facebook nem podem ser demitidos por Zuckerberg.
Os nomes mais conhecidos são a prémio Nobel da Paz em 2011, Tawakul Kerman, jornalista e ativista do Iémen; o ex-primeiro-ministro dinamarquês Helle Thorning-Schmidt e o editor do jornal The Guardian durante duas décadas, Alan Rusbridger.
O nome oficial é Conselho Consultivo de Conteúdo ou Conselho de Supervisão e a maioria dos seus membros tem perfis ligados ao mundo do direito, ativismo digital e media. Além dos 20 atuais, vão ser selecionados mais 20 para um total de 40 até 2021.
O órgão tem quatro co-presidentes responsáveis pelo recrutamento dos outros 16 membros. Além de Thorning-Schmidt, os outros serão os americanos Jamal Greene, professor da Universidade de Columbia, Michael McConnell, ex-juiz federal e agora professor da Universidade de Stanford e Catalina Botero-Marino, reitora da Faculdade de Direito da Universidade de Los Andes e delatora entre 2008 e 2014 pela liberdade de expressão na América Latina.
A lista completa dos membros do Conselho está disponível no novo site e inclui um brasileiro Ronaldo Lemos, um professor da Faculdade de Direito da Universidade do Estado do Rio de Janeiro, mas a lista de nacionalidades é diversa, da Indonésia a Taiwan, passando pelo Senegal ou a Hungria.
O El País cita Brent Harris, diretor de Assuntos Globais do Facebook: “É uma mudança fundamental na dificuldade de tomada de decisões no Facebook”. Só daqui a alguns meses é que as decisões do conselho vão começar a ter efeitos no Facebook e no Instagram e, nas próximas semanas, o novo organismo vai contratar funcionários e decidir a melhor maneira de operar.
O serviço prestado por alguns órgãos de comunicação social de verificação de factos em algumas notícias que circulam na rede social vão continuar e deverá ser criado uma espécie de Supremo Tribunal para as decisões mais difíceis que procuraram “ser amplamente justificadas e neutras”. O Facebook já se comprometeu publicamente a cumprir as decisões do conselho.
Facebook quer evitar desinformação sobre vírus nas redes sociais