Facebook direcionou mais de 2 mil milhões de pessoas para autoridades de saúde

Facebook, redes sociais, Zuckerberg
(Kenzo TRIBOUILLARD/AFP)

O Facebook anunciou que já direcionou “mais de dois mil milhões de pessoas” a recursos de autoridades de saúde através do seu Centro de Informação Covid-19 e ‘pop-ups’ na rede social e no Instagram.

Esta informação está incluída na quinta edição do Relatório de Aplicação dos Padrões da Comunidade, que detalha as métricas e o trabalho realizado relativo no cumprimento das políticas e padrões de comunidade entre outubro de 2019 e março de 2020.

“Até ao momento, direcionámos mais de dois mil milhões de pessoas para recursos das autoridades de saúde através do nosso Centro de Informação Covid-19 e ‘pop-ups’ [janelas] no Facebook e Instagram”, refere.

Durante o mês de abril, “colocámos rótulos de alerta em cerca de 50 milhões de conteúdos relacionados com a covid-19 no Facebook, assente em 7.500 artigos dos nossos parceiros independentes de verificação de factos [‘fact-checking’]”, acrescentou.

“Conhecemos este trabalho porque, em 95% das vezes, as pessoas quando veem conteúdos com este rótulo de alerta não ‘clicam’ para visualizar”, salienta a rede social.

Além disso, desde 1 de março que “removemos mais de 2,5 milhões de peças de conteúdo orgânico para a venda de máscaras, desinfetantes para as mãos, toalhetes desinfetantes para superfícies e ‘kits’ de teste para a covid-19”, refere ainda o Facebook.

Até agora, “removemos centenas de milhares de peças de desinformação que poderiam levar a danos físicos iminentes”, tais como curas infalíveis para a cura do novo coronavírus ou afirmações que o vírus é tão perigoso como uma constipação vulgar.

Nos últimos anos, “a empresa esteve focada na criação de ferramentas, equipas e tecnologias que protejam as eleições de interferência externa, que previnam a propagação de desinformação e protejam as pessoas de conteúdo nocivo. É por isso que quando começou a crise da covid-19, o Facebook tinha ao seu dispor as ferramentas e processos para se mover rapidamente e continuar a rever e a remover o conteúdo que fosse uma violação dos ‘Padrões de Comunidade'”, refere a rede social.

“Quando a empresa decidiu que os revisores do conteúdo deviam começar a trabalhar remotamente, também decidiu aumentar a confiança em sistemas automatizados e deixar o conteúdo mais grave nas mãos dos revisores, que garantem a segurança das aplicações do Facebook durante este período”, acrescenta.

O Relatório de Aplicação dos Padrões da Comunidade 2020 refere-se somente os dados até março deste ano e não reflete o impacto total das mudanças que o Facebook incutiu durante a epidemia, salienta a empresa.

“A expectativa é que o impacto destas mudanças estejam presentes no próximo relatório, e possivelmente até depois, e o Facebook promete transparência durante este processo”, garante.