O robô estava debruçado sobre um cesto cheio de objetos aleatórios, que iam de uma caixa de aveia a um tubaraozinho de brinquedo. Este autômato de dois braços não reconheceu nada disso, mas não importava. Alcançou a pilha e começou a escolher coisas, uma após a outra.
— Ele descobre a melhor maneira de pegar cada objeto no meio da bagunça — disse Jeff Mahler, um dos pesquisadores que desenvolveram o robô em um laboratório na Universidade da Califórnia, em Berkeley.
Para o humano típico, essa é uma tarefa fácil. Para um robô, é um talento notável – algo que pode gerar mudanças significativas dentro de alguns dos maiores negócios do mundo e mudar o mercado de trabalho humano.
Hoje, os robôs desempenham papéis importantes dentro de gigantes varejistas como a Amazon e empresas de manufatura como a Foxconn. Mas essas máquinas são programadas para tarefas muito específicas, como mover um determinado tipo de recipiente através de um armazém ou colocar um chip específico em uma placa de circuito. Elas não conseguem classificar uma grande quantidade de coisas, ou realizar tarefas mais complexas. Dentro dos enormes centros de distribuição da Amazon – onde selecionar coisas é a principal tarefa – exércitos humanos ainda fazem a maior parte do trabalho.
O robô de Berkeley é ainda mais notável porque poderia pegar coisas que nunca havia visto antes. Mahler e o resto da equipe de Berkeley treinaram a máquina, mostrando centenas de objetos puramente digitais e, depois desse treinamento, ela pode pegar itens que não estavam representados em seu conjunto de dados.
— Estamos aprendendo com modelos simulados e depois aplicamos isso ao trabalho real — disse Ken Goldberg, o professor de Berkeley que supervisiona o laboratório de automação da universidade.
O robô estava longe de ser perfeito, e poderia demorar vários anos até ser visto fora dos laboratórios de pesquisa. Embora estivesse apenas equipado com uma ventosa ou uma pinça paralela – uma espécie de mão com dois dedos –, poderia lidar de forma confiável com apenas alguns itens. E não era possível alternar entre a ventosa e a pinça no processo. Mas as técnicas utilizadas para treiná-lo representaram uma mudança fundamental na pesquisa robótica, uma mudança que poderia transformar não apenas os armazéns da Amazon, mas indústrias inteiras.
Ao invés de tentar programar o comportamento no robô – uma tarefa árdua – Mahler e sua equipe fizeram com que ele aprendesse tarefas por conta própria. Pesquisadores em locais como a Universidade de Notheastern, a Universidade Carnegie Mellon, o Google e o OpenAI – laboratório de inteligência artificial fundado pelo executivo-chefe da Tesla, Elon Musk – estão desenvolvendo técnicas semelhantes e muitos acreditam que essa aprendizagem de máquina permitirá, em última análise, que os robôs dominem uma gama muito mais ampla de tarefas, incluindo a fabricação.
— Isso pode se estender a tarefas de montagem e operações mais complexas. Esse é o caminho — disse Juan Aparicio, chefe de automação avançada de fabricação na gigante industrial alemã Siemens, que está ajudando a financiar a pesquisa em Berkeley.
Fisicamente, o robô de Berkeley não é nada novo. Mahler e sua equipe usaram hardware existente, incluindo dois braços robóticos da multinacional suiça ABB e uma câmera que capturava a profundidade.
A diferença é o software, que conseguiu demonstrar um novo uso para as chamadas redes neurais. Vagamente baseado na rede de neurônios do cérebro humano, uma rede neural é um algoritmo complexo que pode aprender tarefas, analisando grandes quantidades de dados. Ao procurar padrões em milhares de fotos para cães, por exemplo, uma rede neural pode aprender a reconhecer um cachorro.
Nos últimos cinco anos, esses algoritmos mudaram radicalmente a forma como as maiores empresas da internet criam seus serviços on-line, acelerando o desenvolvimento de todas as áreas, desde o reconhecimento de imagem e fala até a pesquisa na internet. Mas também podem acelerar o desenvolvimento da robótica.
A equipe de Berkeley começou por pesquisar na internet modelos CAD (abreviação de design assistido por computador em inglês). Eles são representações digitais de objetos físicos construídos por engenheiros, físicos e designers ao executar experimentos ou criar novos produtos. Usando esses modelos, Mahler e sua equipe geraram muitos outros objetos digitais, eventualmente criando uma base de dados de mais de 7 milhões de itens. Então eles simularam o aspecto físico de cada item, mostrando o ponto preciso onde um braço robótico deveria apanhá-lo.
Essa foi uma grande tarefa, mas o processo foi majoritariamente automatizado. Quando a equipe alimentou uma rede neural com esses modelos, ela aprendeu a identificar um ponto semelhante em potencialmente qualquer objeto digital com qualquer forma. E quando a equipe conectou essa rede neural ao robô de dois braços, era possível fazer o mesmo com objetos físicos.
Ao enfrentar um único objeto cotidiano com superfícies cilíndricas ou pelo menos parcialmente planas – como uma espátula, um grampeador, um recipiente cilíndrico de Froot Loops ou mesmo um tubo de pasta de dente – normalmente poderia pegá-lo, com taxas de sucesso muitas vezes acima de 90 por cento. Mas as porcentagens caíram com formas mais complexas, como o tubarão de brinquedo.
Além disso, quando a equipe construiu pilhas simuladas de objetos aleatórios e as inseriu na rede neural, pode aprender a levantar itens de pilhas físicas também. Pesquisadores da Universidade Brown e Northeastern têm pesquisas na mesma linha e a esperança é que esse tipo de trabalho possa ser combinado com outros métodos.
Como a Siemens e o Toyota Research Institute, a Amazon está ajudando a financiar o trabalho em Berkeley, e tem uma necessidade aguda por esse tipo de robô. Nos últimos três anos, a empresa realizou um concurso no qual pesquisadores buscam resolver o problema de "escolher e colocar no lugar". Mas a promessa de métodos de aprendizagem mecânica como o utilizado em Berkeley, é que eles podem eventualmente se estender a muitas outras áreas, incluindo indústria e robótica doméstica.
— Escolher um objeto é a primeira coisa que você quer que um robô manipulador faça — explicou Stefanie Tellex, professora da Brown. — Um comportamento muito mais sofisticado começa com isso. Se você não conseguir escolher, fim de jogo.
A pesquisa demonstrou como uma tarefa aprendida no mundo digital pode ser transferida para o físico. Como a câmera no robô de Berkeley podia ver a profundidade, capturava imagens tridimensionais que não eram diferentes dos modelos de CAD que a equipe usa para treinar sua rede neural.
Outros pesquisadores estão desenvolvendo formas para que os robôs aprendam diretamente da experiência física. Por exemplo, no Google, usando uma técnica algorítmica chamada aprendizagem de reforço, os robôs estão treinando para abrir as portas através de tentativas e erros extremos. Mas esse tipo de treinamento físico é demorado e caro, e o digital é mais eficiente.
Por isso, algumas organizações esperam formar robôs usando mundos virtuais complexos – recriações digitais de nosso ambiente físico. Se um sistema pode se treinar para navegar em um jogo de corrida de carros como Grand Theft Auto, o pensamento seguinte é que ele pode navegar por estradas reais.
Isso ainda é amplamente teórico. Mas em lugares como Berkeley e Northeastern, os pesquisadores estão mostrando que a aprendizagem digital pode efetivamente dar um salto ao mundo real.
Rob Platt, professor da Northeastern, disse que "esse é um desafio. Mas estamos lidando com ele".
Por Cade Metz