Se a inteligência artificial é o futuro, então precisa de estar em todas as ‘coisas’. A Google está mais próxima de concretizar essa visão.
Os novos chips da Google, desenhados especificamente para tarefas de inteligência artificial, são mais pequenos do que uma moeda. Chamam-se Edge TPU e têm a capacidade de executar tarefas de aprendizagem automática diretamente no dispositivo em que são colocados.
Estes processadores são conhecidos como aceleradores e foram criados para serem integrados em equipamentos de pequena dimensão, como os que são utilizados em infraestruturas da Internet das Coisas (IoT na sigla em inglês).
Se já está a pensar quando vai ter um destes chips no seu smartphone ou computador, vai precisar de esperar mais um pouco, pois esse não é o principal objetivo.
Os pequenos chips executam uma tarefa conhecida como inferência, no qual o algoritmo aprende novos dados com base numa ‘missão’ prévia que lhe foi dada. Se um Edge TPU for programado para reconhecer imagens de cães, é sobre este elemento que vai fazer toda a sua nova aprendizagem.
Leia também | Google cria algoritmo que diz quando um paciente vai morrer
A Google diz que esta nova abordagem vai permitir às empresas criarem novos avanços na inteligência artificial e com um grande controlo sobre os custos – devido ao menor consumo energético destes chips. Quem apostar nos Edge TPU deverá, em teoria, conseguir acelerar os seus desenvolvimentos em inteligência artificial, pois estará a adicionar outra camada de aprendizagem automática aos seus desenvolvimentos.
Aos poucos, a Google está a montar um ecossistema completo na área da inteligência artificial. A tecnológica norte-americana tem serviços de aprendizagem automática na cloud, tem hardware específico para estas tarefas – os chips de processamento tensor (TPU) e agora os chips Edge TPU – e também tem a plataforma de desenvolvimento de software TensorFlow.