Responsável técnico do Twitter participou em conferência e explicou a forma escolhida para trazer conversa mais saudável à rede social, incluindo moderar tweets de Donald Trump.
Chama-se Parag Agrawal, nasceu em Mumbai, na Índia, doutorou-se na Universidade de Stanford, na Califórnia, em ciência computacional e é há quase três anos CTO do Twitter. Ouvimos o gestor de uma das redes sociais mais conhecidas do planeta numa entrevista ao diretor da Wired, Nicholas Thompson, na Collision from Home – o primeiro evento online da equipa da Web Summit, já no final de junho, sobre como se pode melhorar o discurso público na internet.
Agrawal admitiu que as mudanças feitas no Twitter nos últimos meses, já durante a pandemia, na tentativa de “tornar o discurso e conversação na rede social mais saudável e informado” levaram a que os tweets de Donald Trump começassem a ter advertências de contexto ou até limitações.
Nesse aspecto, o engenheiro admite que as eleições presidenciais nos EUA que estão cada vez mais perto – previstas para novembro – foram o ponto de partida para as alterações. Os conteúdos com mais potencial de serem ‘vítimas’ da desinformação e de campanhas orquestradas para causar confusão foram mesmo a pandemia e as eleições – e temas políticos associados. “Preferimos colocar etiquetas a contextualizar informação que é errada ou leva as pessoas a engano do que remover totalmente os conteúdos, porque percebemos que é melhor mitigar o possível mal desses tweets”.
Agrawal diz mesmo que foi um longo processo, mas que a conclusão de vários especialistas na empresa foi que “não devemos eliminar toda a desinformação do Twitter”, porque “há quem tire daí dividendos e alimente teorias da conspiração sem dar acesso às pessoas à informação mais fidedigna”.
O responsável admite que foi importante estabelecer princípios para agora seguir, onde tentam “evitar a remoção de conteúdo como conceito base”: “daí a estratégia de colocar etiquetas com informação adicional fiável onde damos oportunidade às pessoas de verem todo o contexto daquele tema e tirem as suas conclusões, ou seja, não determinamos de forma direta se algo é verdadeiro ou falso”.
Como o Twitter atua na desinformação?
Agrawal explica que é uma combinação entre avaliação humana e etiquetas colocadas pelo algoritmo. “Temos conseguido por etiquetas em torno dos conteúdos relacionados com a covid através da inteligência artificial do algoritmo, que aprendeu com a avaliação humana e replica depois nos conteúdos que espalham desinformação sobre esse tema”, explica o engenheiro indiano, acrescentando que o algoritmo repete a análise humana no resto da plataforma e coloca etiquetas com mais informação sobre determinado tema em milhares de tweets em segundos”. Parag Agrawal admite que “há falsos positivos”, que qualquer um pode contestar, mas que são raros.
“Pandemia trouxe crescimento e novas ideias”
O Twitter, tal como outras redes sociais e como os negócios na internet em geral, teve “uma explosão de novos utilizadores e de mais utilização e permanência na plataforma durante a pandemia”. Agrawal diz que a empresa está focada em suscitar a conversação em temáticas que interessem aos seus utilizadores.
“Vimos que podemos ter um papel importante a desempenhar na forma como podemos alimentar essa conversação”, explica, daí que tenham criado o que chama de filter bubbles – bolhas de filtros – que mais não é do que mostrar nova informação aos utilizadores nos temas que mais lhes interessam. “Há um grande valor em conseguir fazer isso bem, tanto para a riqueza cultural das pessoas como para a sociedade como um todo”.
E como funcionam esses filtros? “Permitimos e incentivamos que as pessoas escolham os tópicos que mais lhes interessam e mais querem ver e orientamos o algoritmo para dar isso mesmo aquele utilizador”. Esse parece ser o futuro do Twitter, “permitindo que um público diverso tenha uma conversa interessante sobre um tema mesmo quando são opiniões contrárias à sua, já que a ideia não é evitar discussão, bem pelo contrário”.
O submundo das contas falsas
Já relativamente às famosos contas falsas, muitas vezes usadas por governos estrangeiros para causar o caos em países rivais ou tentar eleger candidatos mais favoráveis – como já foi provado em alguns estudos sobre a interferência russa nas eleições americanas de 2016 -, Agrawal admite que têm sido feitos avanços e define as categorias diferentes de contas falsas da seguinte forma:
- Bots. “Algumas contas são totalmente feitas por bots (sistemas programados e automatizados com alguma missão específica)”
- Bots + humanos. “Depois há os bots com humanos a controlá-los diretamente”
- Humanos. “E agora há contas genuínas de humanos que tentam manipular as conversas”.
O responsável admite que “historicamente tem havido um aumento de contas deste tipo”, com milhões de contas falsas ou suspeitas de más práticas “a surgirem todos os meses antes de alguém as descobrir”. O Twitter estará a fechar milhões destas contas todas as semanas. “Monitorizamos os comportamentos das contas humanas e notamos quando há um padrão anómalo ou pouco natural no que fazem, quem seguem, etc”.
“Há contas que parecem falsas mas são reais”
Acha que sabe detetar uma conta falsa ou que é operada por um bot, por ter poucos subscritores ou poucas publicações? Agrawal explica que “há muitas contas que parecem à primeira vista falsas mas são reais de alguém legítimo”. Na verdade, o engenheiro explica que as contas mais perigosas no Twitter são mesmo “as que não parecem falsas ‘à superfície’, mas depois são as que provocam mais problemas e tentam influenciar no pior sentido outros utilizadores”.
Daí que muitas vezes uma conta é seguida, ao estilo detetive, para ver os passos tomados e se deve mesmo ser bloqueada, admite. Quando o Twitter detecta este tipo de contas “que tenta provocar o caos e tem uma agenda escondida”, publica “a informação e os padrões reunidos para que os investigadores consigam encontrar este tipo de contas mais facilmente no futuro”.
Twitter com modelos de subscrição?
Já esta semana ficou a saber-se que o Twitter estará a criar uma equipa interna para testar um modelo de subscrição, ao estilo Spotify ou LinkedIn, que pode tornar uma parte da rede social paga. O CTO do Twitter não falou desta possibilidade, embora tenha admitido que estavam a ser estudadas novas formas de fomentar a conversa mais saudável e menos inflamada na rede social.
O modelo de receitas é um dos eternos dilemas das redes sociais, desde que existem de forma massificada na internet e se tornaram num dos principais espaços públicos de comunicação, já no século XXI – de forma mais global há pouco mais de 10 anos. O modelo atual das redes sociais está totalmente assente em receitas publicitárias, onde o Facebook é rei e senhor não só pelo número de pessoas presentes – 2,6 mil milhões de utilizadores ativos mensalmente (dados do próprio Facebook), 33% da população humana do planeta – mas também pela eficácia dos seus algoritmos a adequar a publicidade para os gostos de cada um.
Scott Galloway, autor e professor de marketing e comentador influente nos EUA (ganhou fama pelos podcasts), é também um antigo investidor do Twitter e há várias semanas que vem a apelar à administração da empresa que tente implementar um modelo de subscrição, com uma parte paga e outra gratuita com menos opções.
Na prática, seria tornar o modelo atual parecido com o do Facebook, mais próximo da Spotify ou do LinkedIn – o caso da Netflix é um pouco diferente por não ter opção gratuita, nem ter nenhuma modalidade com publicidade. Da lista de vantagens, para Galloway, está a possibilidade de se limitar o discurso de ódio na plataforma e eliminar algumas das desvantagens do modelo assente em publicidade, como a necessidade de ter o algoritmo a promover mais interações para ajudar os anunciantes a terem maior exposição – algo que, dizem investigadores, potencia o discurso de divisão inflamado.