Como se evita a era da discórdia inflamada no Facebook, “o adolescente turbulento”?

DR

Entre um investigador reputado na área da internet, Lee Rainie e o cientista-chefe em inteligência artificial do Facebook, Yann LeCun, analisamos o clima de divisão potenciado no Facebook e companhia.

A forma como o ser humano ‘vive’ nas redes sociais, onde a expressão escrita e curta, que potencia os comentários a ideias ou notícias, ainda está na sua “adolescência turbulenta e instável”, como nos explicou recentemente o investigador norte-americano Lee Rainie – do reputado Pew Research Center. Além disso, sabemos hoje, dentro do próprio Facebook houve estudos preocupantes sobre o impacto que os algoritmos e a forma de recomendar, organizar conteúdo e incentivar a participação ou interação estavam a ter nos utilizadores – que são, neste momento, 2,6 mil milhões (com atividade mensal, de acordo com o Facebook), ou seja, 33,3% dos 7,8 mil milhões de seres humanos que habitam o planeta Terra.

No final de maio deste ano, uma reportagem do Wall Street Journal (WSJ) revelava que em 2018 uma equipa dentro do Facebook deixou informação preocupante e categórica aos executivos seniores, explicando que uma análise revelava que os algoritmos não estavam a juntar pessoas, mas sim a dividi-las. “Os nossos algoritmos exploram a atração do cérebro humano pela divisão”, acrescentando que o Facebook estava a alimentar os utilizadores com mais conteúdos ‘polarizadores’ num esforço para ganhar atenção e aumentar o tempo na plataforma”.

Eram depois feitas recomendações para combater este problema promovendo mais bem estar social e redução da influência dos chamados “super-partilhadores”, que costumam disseminar conteúdos a incentivar a agressividade e divisão. Sugestões estas que foram lideradas por Carlos Gomez Uribe, o responsável na altura da área de integridade do mural de notícias do Facebook – também foi diretor de Data Science. Curiosamente Uribe, que tinha brilhado antes na Netflix, saiu pouco depois do Facebook para a Apple, onde é diretor sénior de machine learning.

A análise que sugeria as tais recomendações também indicava que as mudanças podiam significar menor interação – comentários, partilhas e reações – e menos tempo despendido na plataforma, o que teria impacto direto nas receitas publicitárias (que são 98% da galinha dos ovos de ouro do Facebook). Ou seja, ao retirar o elemento mais viciante para o cérebro humano, o tal incentivo à discórdia, seria negativo para o negócio e as receitas anuais.

No entanto, tudo terá sido desvalorizado e abandonado, diz o WSJ, muito graças à intervenção do vice-presidente do Facebook Joel Kaplan (ex-membro da administração de George W. Bush e, ainda o ano passado deu um polémico apoio público a um candidato conservador para o Supremo Tribunal dos EUA).

O Facebook reagiu há um mês a indicar que tinha reforçado a equipa de integridade e investido 2 milhões de dólares (1,77 milhões de euros) em fevereiro para estudos independentes sobre esse lado de divisão.

Neste contexto, aproveitámos uma mesa redonda com o cientista-chefe da divisão de inteligência artificial (IA) do Facebook – o Facebook AI – o francês Yann LeCun, para abordar o tema. O vencedor do prémio Turing (em feitos em computação) admite que não tem resposta óbvia e certa sobre o impacto das redes sociais na humanidade.

Além da reportagem do WSJ têm havido outros estudos e algumas críticas de especialistas relativamente às redes sociais e à forma como, a necessidade de dar dados a anunciantes e manter uma participação contínua nas plataformas, poderá estar a levar os algoritmos a incentivar a discórdia inflamada – muitos chamam-lhe o fake engagement – ou o discurso de divisão.

Além do mais, como explicava o investigador Lee Rainie – do Pew Research Center -, ser incentivado a comentar por discurso escrito (e sem ver a outra pessoa à frente) tudo o que é tema da atualidade no contexto das redes sociais remove as consequências do que se faz. “Não vemos a pessoa do outro lado da rede social, naquela foto pequena, como um humano como nós”, admite.

“O algoritmo é mais estúpido do que um gato doméstico”, diz líder do Facebook AI

Embora não tenha resposta para esta análise mais social nem entre em pormenores sobre o que está a ser feito, LeCun admite que é um tema em discussão no Facebook e que o Facebook AI tem criado ferramentas nesse sentido, mas que nem sempre são rapidamente implementadas. O cientista admite que ainda há muito por fazer e há tecnologias por testar, em fases diferentes até porque “as redes sociais ainda são uma forma de interação recente” e onde se “ainda está a aprender muito” relativamente ao impacto na humanidade.

“É preciso tornar alguns dos desenvolvimentos em IA em produtos que possam ser usados em escala e ainda criar um interface”, indica, admitindo que a ciência nem sempre acompanha o ritmo da plataforma. “Há uma longa lista do que queremos fazer, mas às vezes demora tempo entre percebermos que há um problema e ter o sistema certo para ele”. No entanto, garante que “há um grande impacto de IA neste problema que é real”.

Twitter, uma rede social preparada para a era do Covid-19

Grupos de integridade ‘powered by’ inteligência artificial

O engenheiro explica ainda que há alguns grupos na empresa que “trabalham em diversos aspetos desta questão, tanto na área de integridade, que inclui filtrar conteúdo ou discurso violento ou de ódio, por exemplo, ou em grupos que estudam o impacto social das redes sociais em geral e do Facebook em particular”.

LeCun explica que são grupos com cientistas sociais, que podem incluir sociólogos e filósofos, que “trabalham em ética de inteligência artificial”. “Nós trabalhamos com esses grupos, fornecemos tecnologia que é depois usada para vários testes”. O cientista-chefe do Facebook AI dá um exemplo concreto relacionado com países “onde há conflitos étnicos ou religiosos”.

“As pessoas às vezes usam o Facebook para disseminar desinformação, para alimentar a discórdia e a divisão, incitam a que um grupo ataque outro grupo”. Yann LeCun admite que “é preciso apanhar isto”, mesmo que não seja fácil. “Mas muitas vezes trata-se de uma língua para a qual não temos muitos dados relacionados com discurso de ódio”. É aí que entra em ação o sistema self-supervised learning (SSL): “que nos permite representar texto seja qual for a linguagem através desta representação universal interna de significado e isso permite-nos ou automaticamente filtrar o discurso de ódio – sem precisar de muitos dados -, ou então gerar traduções que são dadas a moderadores que não falam aquela língua”. Este é apenas um pequeno exemplo de como o FAIR, Facebook AI Research, de Paris, “pode ajudar”, diz.

Tiktok já não é só para jovens – também é onde marcas querem estar