Na Austrália, Parlamento passou lei que dá pesadas multas às plataformas digitais que transmitam conteúdos de violência e prisão a administradores.
O ataque terrorista a duas mesquitas em Christchurch, Nova Zelândia, que matou 50 pessoas, levou na Austrália à aprovação de uma Lei que prevê a prisão de administradores das redes sociais, e multas até 10% do volume de negócios anual das plataformas, se não removerem de forma “expedita” conteúdos de violência, como atos de terrorismo ou sequestro.
O Governo australiano conservador propôs esta alteração legislativa em resposta aos ataques de 15 de março no país vizinho, nos quais um australiano transmitiu o massacre em direto no Facebook.
“Juntos, devemos agir para garantir que os perpetradores e seus cúmplices não possam utilizar plataformas online com o propósito de espalhar sua propaganda violenta e extrema – essas plataformas não devem ser armadas para o mal”, disse o procurador-geral Christian Porter ao Parlamento, ao apresentar o projeto, citado pela agência Lusa.
Leia também | Anunciantes mostram cartão vermelho ao Facebook
O projeto criminaliza os casos em que as plataformas das redes sociais não removam rapidamente “material violento abominável”. O crime pode resultar em penas de três anos de prisão e multa de 7,5 milhões de dólares (6,7 milhões de euros) ou 10% do volume de negócios anual. Material violento abominável é definido como atos de terrorismo, homicídio, tentativa de homicídio, tortura, violação e sequestro.
“É importante que façamos um aviso muito claro às empresas de media sociais que esperamos que o seu comportamento mude”, disse o ministro das comunicações e artes australiano, Mitch Fifield, citado pela Reuters. As plataformas já reagiram a esta nova Lei.
“Temos zero tolerância para conteúdo terrorista nas nossas plataformas”, disse um porta-voz da Google, citado pela Reuters. “Temos o compromisso de liderar no desenvolvimento de novas tecnologias e padrões para identificar e remover conteúdo terrorista”, disse ainda a plataforma dona do YouTube.
A plataforma tem vindo a apertar os critérios de publicação de conteúdos, os filtros, bem como investido em sistemas de inteligência artificial para controlar a disseminação deste tipo de conteúdos e retira-los da rede, mas os casos teimam em repetir-se. Recentemente, comentários pedófilos foram detetados em vídeos com crianças no YouTube.
Leia também | Discurso de ódio e separatismo vão ser banidos do Facebook e Instagram
Na semana passada o Facebook anunciou que estava a explorar impor restrições a quem pode ter acesso o seu serviço de Live Streaming, dependendo de fatores como anteriores violações aos padrões de comportamento da comunidade. O Digital Industry Group Inc (DIGI) – do qual Facebook, Apple, Google, Amazon e o Twitter são membros – também já reagiu.
“Com os vastos volumes de conteúdos são carregados para a internet a cada segundo, este é um problema altamente complexo”, disse Sunita Bose, diretor-geral da DGI.
Anunciantes aumentam pressão sobre as redes sociais
A indústria publicitária, a principal financiadora das redes sociais, também está a pressionar as plataformas digitais para serem mais eficazes no bloqueamento de conteúdos de ódio.
“Tenho a certeza de que algo vai mudar e terá mesmo de mudar, porque o estamos a exigir”, garantia Stephan Loerke, CEO da World Federation of Advertisers (WFA), num encontro com jornalistas, no final da conferência da Global Marketer Week, em Lisboa, encontro anual da organização que reúne 90% do investimento publicitário a nível mundial, marcas que movimentam por ano 900 mil milhões de dólares.
“As coisas têm de acontecer num prazo agressivo”, reforçou Raja Rajamannar, chief marketing officer da Mastercard e recém-nomeado presidente da organização, que reúne 90% do investimento publicitário a nível mundial, marcas que movimentam por ano 900 mil milhões de dólares.
Viu um conteúdo falso no Facebook que se tornou viral? Saiba como denunciá-lo