O braço inovador do Facebook é uma verdadeira universidade que alimenta a rede social. Guru mundial explica-nos os limites e perigos da tecnologia atual
A entrada é simples, moderna, sóbria e ampla e não há um único símbolo do Facebook. Mesmo no coração de Paris está um dos centros mais importantes de inteligência artificial (AI) da rede social mais relevante do planeta, com 2,3 mil milhões de utilizadores ativos. E, embora, o exterior não o indique, o interior é uma verdadeira universidade, com investigadores premiados e ideias que recebem ali investimento garantido para evoluírem. O resultado da investigação é “partilhado com as universidades e publicado para todos verem e também é transposto para o próprio Facebook quando são áreas em que se justifica”, explica-nos Jérôme Pesenti, vice-presidente de inteligência artificial do Facebook.
“Zuckerberg veio bater-nos à porta em busca de soluções para implementar e melhorar a proteção dos dados e limitar o discurso de ódio ou a desinformação.” Antoine Bordes
Quem criou essa área na rede social foi, no entanto, outro francês. Yann LeCun, que recebeu neste ano o reputado prémio Turing, considerado o prémio Nobel da computação, foi convidado por Mark Zuckerberg em 2013 para criar a divisão de inteligência artificial da empresa que ficou com o nome de FAIR e tem um foco a longo prazo. “Se tirarmos a inteligência artificial do Facebook, hoje, ele iria desmoronar-se, já não funciona sem ela, mesmo que seja um processo que acontece nos bastidores e não seja óbvio para muitos”, explica-nos no centro de Paris o investigador que, em 2018, deixou a liderança dessa divisão para passar a ser apenas investigador-chefe do Facebook e poder dividir o seu tempo com a universidade de Nova Iorque, onde dá aulas.
Já o responsável do centro de Paris, outro reputado investigador francês em deep machine learning, Antoine Bordes, adianta-nos que, quando o escândalo do Cambridge Analytica rebentou, no início de 2018, Zuckerberg lembrou-se do Facebook AI: “Veio bater-nos à porta em busca de soluções para implementar e melhorar a proteção dos dados e limitar o discurso de ódio ou a desinformação.” Com 37 anos, o doutorado na área e já com alguns prémios recebidos admite que na divisão de IA do Facebook estão “a investigar para resolver problemas que ainda não sabemos que temos e podem até surgir dentro de alguns anos”. O mesmo se passa com a área recente de robótica, que até pode servir a empresa no futuro: “Não sabemos.”
Este centro de Paris nasceu em 2015 e é o terceiro mais importante para o Facebook, depois do de Menlo Park, na Califórnia, e do de Nova Iorque (têm mais quatro – Montreal, Seattle, Pittsburgh e Telavive). O escândalo do Cambridge Analytica no início de 2018 deu força a essa área da empresa gerida pelo millennial de 35 anos, Mark Zuckerberg, e o centro de Paris recebeu novo investimento de dez milhões de euros – no total existem já 80 investigadores de IA e vários candidatos a doutoramento. O seu objetivo? Fazer o mesmo que fazem na universidade, ter ideias e desenvolvê-las à sua vontade e com meios significativos. “Ninguém nos diz que áreas devemos cobrir, funcionamos tal e qual como uma universidade.”
Se querem um bom exemplo sobre o que não fazer no uso do reconhecimento facial para espiar a população, olhem para a China.”
Yann LeCunn, que conhece bem dois portugueses peritos em inteligência artificial na JP Morgan (Manuela Veloso) e Google (Fernando Pereira), admite que ainda há um longo caminho para a inteligência artificial. “O objetivo é que as máquinas aprendam cada vez mais como os humanos e adquiram algum tipo de senso comum. Atualmente os sistemas são muito estúpidos, têm menos senso comum do que um gato doméstico.”
Leia também | Facebook abriu-nos a porta do seu quartel-general. Veja-o aqui
E como prevenir vídeos de ataques terroristas como o de Christchurch, na Nova Zelândia? Embora admita que é muito difícil evitar a publicação desses conteúdos, até porque muitas vezes essas mortes “não são óbvias nos vídeos e são bem menos percetíveis do que vemos em filmes de ação”, nos próximos dois anos vai ser possível melhorar e criar sistemas para evitar essa propagação. “A primeira intervenção é na análise de imagens, mas a outra deve ser na perceção de quem é que está a fazer estes posts.”
O investigador admite que o Facebook Live pode não estar disponível para todos e há critérios para isso como impossibilitar que quem “peque” seja impedido de usar todas as funcionalidades da rede social. O mais difícil, no entanto, é definir o limite e, para isso, “o Mark pediu aos governos para definirem as regras e assinou um memorando com esse pedido, até porque não deve ser uma empresa privada a defini-lo.
Sobre a tecnologia e o seu uso para o mal, o que o preocupa são os estados não democráticos. “Se querem um bom exemplo sobre o que não fazer no uso do reconhecimento facial para espiar a população, olhem para a China.” Elogia cidades que baniram o uso generalizado de reconhecimento facial e lembra que essa tecnologia que ajudou a desenvolver é a mesma técnica usada para identificar tumores em imagens médicas e é fulcral nos diagnósticos na saúde mas “elemento fundamental nos carros autónomos”. No fundo, Yann LeCunn acredita que o lado bom da tecnologia irá acabar por vingar.
Irene Cano: “Já temos 6,2 milhões de utilizadores do Facebook em Portugal”