Desde junho a remoção de conteúdos aumentou. Anunciantes têm vindo a pressionar a plataforma para a remoção de conteúdos de ódio.
O YouTube desde junho já removeu 100 mil vídeos com discurso de ódio, encerrou 17 mil canais por incitação do ódio da plataforma, tendo ainda removido mais de 500 milhões de comentários com conteúdo ofensivo ou de ódio. O Google tem mais de 10 mil pessoas a trabalhar na deteção e remoção deste tipo de conteúdos, tendo ainda investido em machine learning para a deteção automática de conteúdos de ódio.
Em junho a plataforma de video streaming lançou uma nova política para combater os conteúdos de ódio, política que motivou a duplicação da remoção de comentários a partir do segundo trimestre, reconhece o YouTube. Um aumento a que se deve em muito à aplicação da tecnologia de machine learning na deteção deste tipo de conteúdos e para a sua remoção, tecnologia que a empresa tem vindo a investir deste 2017, dada a elevada quantidade de conteúdos que diariamente são carregados para a plataforma.
Um movimento que ganhou força com a pressão feita pelos anunciantes, que, quando em 2017 foram confrontados com anúncios das suas marcas associados a conteúdos de ódio ameaçaram com corte ou retirada de investimento publicitário da plataforma.
Leia também | YouTube desativa comentários em quase todos os vídeos que têm crianças
“A tecnologia de machine learning é adequada para detetar padrões, o que nos ajuda a encontrar conteúdo semelhante (mas não exatamente o mesmo) a outro conteúdo que já removemos, mesmo antes de ser visualizado. Estes sistemas são particularmente eficazes na sinalização de conteúdo com a mesma aparência, como spam ou conteúdo adulto”, explica o YouTube.
“As máquinas também podem ajudar a sinalizar discursos de ódio e outros conteúdos infratores mas estas categorias são altamente dependentes do contexto e destacam a importância da revisão humana para tomar decisões diferentes”, continua a plataforma. “Ainda assim, mais de 87% dos 9 milhões de vídeos removidos no segundo trimestre de 2019 foram primeiramente sinalizados pelos nossos sistemas automatizados”, refere.
Leia também | YouTube bloqueia comentários em dezenas de milhões de vídeos e fecha 400 canais
“A atualização dos nossos sistemas de deteção de spam no segundo trimestre de 2019 levou a um aumento de mais de 50% no número de canais que encerrámos por violarem as nossas políticas de spam”, informa ainda o YouTube. As medidas implementadas pela plataforma permitiu que através de sistemas de sinalização automática o conteúdo possas ser detetado e revisto antes mesmo de ser sinalizado pelos utilizadores, fazendo com que “mais de 80% desses vídeos com sinalização automática foram removidos antes de receber uma única visualização no segundo trimestre de 2019.”
Em janeiro do ano passado a plataforma criou uma equipa, Intelligence Desk, que monitoriza notícias, redes sociais e relatórios de utilizadores visando detetar novas tendências em torno de conteúdo inapropriado, com o objetivo de preparar a reação das equipas antes que essas tendências ganhem escala. Na Google mais de 10.000 pessoas estão a trabalhar na deteção, revisão e remoção de conteúdos que viola as políticas da plataforma. “Os vídeos que violam as nossas políticas representam uma fração de um por cento das visualizações no YouTube.”