Falámos com o chefe da investigação do Facebook em inteligência artificial, Yann LeCun, que nos explicou que o chamado deep machine learning e os algoritmos usados pelo próprio Facebook ainda não são propriamente inteligentes.
Foi durante a nossa visita ao quartel-general europeu de inteligência artificial do Facebook, o chamado Facebook AI, em Paris, que pudémos falar com aquele que é considerado um dos principais cientistas a nível mundial precisamente nessa área. O francês Yann LeCun recebeu recentemente aquele que é considerado o prémio Nobel da computação, o prémio Turing. Há cinco anos que está no Facebook e foi ele que criou a divisão de inteligência artificial, onde hoje é o seu investigador chefe – também se dedica à investigação na universidade de Nova Iorque.
O que LeCun criou para Mark Zuckerberg foi uma verdadeira universidade de inteligência artificial que pertence ao Facebook, onde o melhor da investigação nessa área é usada depois na rede social e nos seus projetos, mesmo que os investigadores não trabalhem diretamente para a plataforma, já que podem escolher os projetos em que trabalham.
Os 250 investigadores e engenheiros do Facebook AI pensam na tecnologia “desde a curto prazo em soluções que podem ser aplicadas em produtos em poucos meses, até à investigação típica de longo prazo”, explica Yann LeCun. Tradução linguística automática e reconhecimento facial têm tido uso imediato, mas depois há a chamada aprendizagem reforçada ou a robótica para o longo prazo. “O objetivo é que as máquinas aprendam cada vez mais como os humanos e as máquinas, para que consigam adquirir algum tipo de senso comum”.
Certo é que o nível atual está longe de ser próximo dos humanos: “Atualmente os sistemas são muito estúpidos, têm menos senso comum do que um gato doméstico”. É isso que o Facebook, bem como outras empresas e universidades querem mudar, para que “a máquina aprenda como o mundo funciona como se tivesse a inteligência de um animal pequeno, o que é um grande desafio”. Ainda assim, LeCun admite que a inteligência mais próxima da humana ainda está a uma distância considerável, mesmo que os algoritmos de deep machine learning já permitam fazer coisas que os ser humano simplesmente não consegue, especialmente pela capacidade quase ilimitada de tratar de muitos dados (e ter acesso a um sem fim de dados) de uma só vez – “as máquinas têm uma memória ilimitada e notável”.
Nos últimos anos foi criada uma segunda área chamada de investigação aplicada (AML) que aproveita de forma concreta a tecnologia desenvolvida “tornando-a real e útil para o Facebook”. Há muitas tecnologias que têm entrado desta forma no Facebook, como a tradução automática, o reconhecimento de discurso para gerar legendas para os vídeos ou a filtragem do conteúdo. “É tecnologia que reconhece o conteúdo de uma imagem, fotografia ou vídeo e decide assim se nos deve mostrar, se estiver dentro dos nossos interesses ou a remover se for violenta ou se tiver lá discurso de ódio ou nudez”.
Mesmo “não sendo perfeito, longe disso, resulta”. Também fornecem já o entendimento de linguagem natural (permite traduções mesmo de línguas que ainda não estão totalmente traduzidas) o que ajuda na criação dos chamados chatbots, a forma como se pode interagir com assistentes digitais online que são robôs nas mensagens, por exemplo, de empresas.
Depois há ainda tecnologias básicas que estão nos bastidores. “Por exemplo, percebemos se dois pedaços de informação são a mesma coisa, o que nos permite tirar conteúdos terroristas, por exemplo, ou propaganda do Daesh”. É assim que conseguem detectar pessoas que partilham o mesmo conteúdo que já tínham apagado, desde texto, imagem ou vídeos e conseguem “apagar muito rapidamente esses reposts ou colocação dos mesmos conteúdos, mesmo que os editem”.
Leia também | Viagem à ‘universidade’ parisiense do Facebook, onde a inteligência artificial é rainha
E a fotogaleria | Veja o interior da divisão de inteligência artificial do Facebook
Como prevenir ataques vídeos terroristas?
Um dos temas mais quentes nos últimos tempos tem a ver com o discurso de ódio e a inclusão de vídeos em direto com ataques terroristas, como se viu na Nova Zelândia, no atentado de Christchurch, transmitido no Facebook Live pelo próprio terrorista. Embora admita que é muito difícil evitar a publicação desses conteúdos, até porque muitas vezes essas mortes “não são óbvias nos vídeos e são bem menos percetíveis do que vemos em filmes de ação”, nos próximos dois anos é possível melhorar e criar sistemas para evitar essa propagação.
“A primeira intervenção é na análise de imagens, mas a outra deve ser na percepção de quem é que está a fazer estes posts”. O investigador admite que o Facebook Live pode não estar disponível para todos e há critérios para isso como impedir que quem “peque” seja impedido de usar todas as funcionalidades da rede social: “no caso de Christchurch havia comportamentos anteriores com discurso de ódio do autor do atentado”.
O mais difícil, no entanto, é definir o limite. “Quem decide que conteúdo é ou não possível ou quem deve ter limitações (ou até ser banido) por ter certos comportamentos?” No passado, LeCun admite que o Facebook não quis decidir e foi deixando as pessoas comunicar à vontade. “Nos últimos três anos tornou-se evidente que o Facebook tinha de fazer algo para parar o conteúdo que fomentava o ódio e estava a prejudicar a sociedade”, mesmo que alguns o acusem de censura. Daí que Zuckerberg tenha pedido já em maio “aos governos para ajudar a decidir, porque não é uma empresa privada que deve decidir sozinha qual é o conteúdo permitido”. Foi assinada, entretanto, uma declaração em Paris com várias redes sociais a pedir regras que possam implementar.
Leia também | Acesso ao Facebook Live passa a ser limitado após ataques da Nova Zelândia
LeCun, amigo de portugueses
O mentor da divisão de IA do Facebook não encontra explicação direta para tantos investigadores de referência na área sejam franceses – não só no Facebook mas também na Google e nas universidades -, embora admita que o bom sistema de ensino francês “deva estar relacionador”. Yann LeCun confidenciou-nos ainda que conhece bem dois portugueses que têm estado em destaque em inteligência artificial nos EUA.
Com Manuela Veloso, a investigadora portuguesa líder da divisão de inteligência artificial do maior banco norte-americano, o JP Morgan, partilha o desejo de aliar as vantagens de estar associado a uma empresa gigante, ao de manter a ligação à universidade assistindo alunos e dando aulas. “Falei ainda há dias com a Manuela e eu tenho uma vantagem relativamente a ela, só tenho de andar a pé uns minutos para ir da Universidade de Nova Iorque ao Facebook, ela tem sempre 1h30 de voo [vai de Nova Iorque, onde está a JP Morgan, a Pittsburgh onde está a Carnegie Mellon University]. Com o vice presidente da Google, o português Fernando Pereira, é “amigo pessoal há vários anos”, desde que trabalharam juntos na AT&T.
Já sobre o papel da tecnologia e a inteligência artificial na sociedade atual, LeCun admite não saber com pormenor as questões de privacidade levantadas pelo Cambridge Analytica – “eu não trabalho com essa área especifíca da rede social” -, mas dá outro exemplo pela negativa: “se querem um bom exemplo sobre o que não fazer, olhem para a China. Eles têm usado de forma geral o reconhecimento facial um pouco por todo o lado, isto também usa redes convolucionais, a minha invenção”.
Essa técnica usada em vigilância tem outras componentes bem mais úteis para a sociedade, como “identificar tumores em imagens médicas”. O seu entusiasmo é claro quando fala nos benefícios desse tipo de tecnologia: “É o tópico mais importante no reconhecimento facial na saúde é como usar estas redes neurais para ajudar os diagnósticos. Pode acelerar os Raios X e torná-los mais baratos e mais simples. É usado em todos os processos dos carros autónomos. Todos os carros autónomos ou semi autónomos do mundo usam uma rede convolucional que permite reconhecimento de voz e de imagem. É muito usado para coisas boas para a humanidade, mas pode ser usado para coisas más. É o que acontece com todas as tecnologias”.
Daí que aplauda a iniciativa da cidade de São Francisco em proibir o uso de câmaras para reconhecimento facial nas ruas. “O que temos em países razoáveis são instituições democráticas fortes em que esperamos poder confiar para prevenir usos problemáticos da tecnologia. É bom para São Francisco tentar proteger a privacidade dos seus cidadãos”, explica.
Leia também | Como será a Universidade do futuro em Portugal? “Aprender é para a vida”