Inteligência Artificial: Quando a máquina acelera
A “cultura de triunfalismo” que reina no mundo da Inteligência Artificial impede-nos de perceber os verdadeiros avanços e as apostas neste ramo da Ciência
Em meados de Maio, o laboratório DeepMind apresentou uma nova Inteligência Artificial “generalista” chamada “Gato”. Sabe jogar videojogos Atari, legendar imagens, conversar e empilhar cubos com um braço robótico real. Tudo isto foi anunciado por este centro de pesquisa que depende da Alphabet, empresa-mãe da Google. O “Gato” pode realizar 604 tarefas.
Mas se (o ou a) “Gato” é inegavelmente fascinante, alguns investigadores ficaram pouco animados com o seu lançamento. Nando de Freitas, um dos principais cientistas que lideram o projecto DeepMind e coautor de um artigo sobre o “Gato”, deu rédea livre à sua alegria no Twitter: “Aumentámos a parada!”
E insinuou que o “Gato” está claramente a preparar o caminho para a Inteligência Artificial geral (AGI), um conceito confuso de IA tão poderoso como a inteligência humana, senão mais. Segundo ele, a construção de um AGI é, acima de tudo, uma questão de escala: por outras palavras, temos de desenhar modelos como o “Gato”, mas melhores e em versões mais ambiciosas.
O anúncio do cientista, claro, incendiou a imprensa, que divulgou que o DeepMind estava “à beira” de criar uma Inteligência Artificial equivalente à dos humanos. Esta não é a primeira vez que a imaginação ultrapassa a realidade.
Outros modelos de IA muito promissores, como o gerador de texto GPT-3 da OpenAI e o gerador de imagem DALLE, desencadearam declarações igualmente grandiloquentes. Para muitos, nesta disciplina, discursos ardentes deste tipo ofuscam outras áreas críticas de investigação da IA.
E isso é uma pena, porque o “Gato” até é um marco interessante. Alguns modelos começam a combinar várias habilidades: o DALL-E, por exemplo, cria imagens a partir de descrições num texto. Outros confiam numa única técnica de aprendizagem para reconhecer imagens e frases.
E o AlphaZero da DeepMind aprendeu a jogar o jogo de ir, xadrez e shogi.
No entanto, há uma diferença crucial: o AlphaZero só foi capaz de executar uma tarefa de cada vez. Quando a IA dominou o jogo, teve de esquecer tudo antes de aprender xadrez. Não sabia aprender simultaneamente estes dois jogos. E é isso que distingue o “Gato” dos restantes: este AGI aprende várias tarefas em simultâneo, e isso permite-lhe mover-se de uma para a outra sem ter de desistir de uma competência para aprender outra. O que é um passo modesto mas absolutamente crucial.
A desvantagem é que o “Gato” não realiza as tarefas atribuídas, assim como as IA que fazem apenas uma coisa. Os robotos ainda têm de aprender “bom senso” para saber como funciona o mundo, diz Jacob Andreas, professor do Massachusetts Institute of Technology (MIT), especialista em Inteligência Artificial, processamento de linguagem natural e processamento da fala.
O que pode ser útil em robotsdomésticos, por exemplo. “Quando colocamos [um roboot] na cozinha e lhe pedimos para preparar uma chávena de chá pela primeira vez, ele sabe os passos dessa preparação e em que armário o chá provavelmente está”, acrescenta Andreas.
Alguns cientistas de outras instituições não escondem as suas divergências com Nando de Freitas. “Está longe de ser ‘inteligente’”, disse Gary Marcus, um investigador da IA que denuncia a aprendizagem automática. Segundo ele, a euforia despertada pelo “Gato” mostra que esta disciplina sofre de uma “cultura de triunfalismo”.
Os modelos de aprendizagem automática que são mais apaixonantes porque parecem ter o potencial da inteligência humana cometem erros que Gary Marcus descreve da seguinte forma: “Se um ser humano cometesse este tipo de erro, era caso para realmente ficarmos preocupaddos.” E acrescenta: “A Natureza está a tentar passar-nos uma mensagem, para dizer-nos que não está realmente a funcionar, mas os investigadores estão tão convencidos que, no meio da sua euforia, não conseguem entendê-la.”
Até os colegas de Nando de Freitas, Jackie Kay e Scott Reed, que trabalharam com ele no “Gato”, foram mais circunspectos sobre as suas posições. O “Gato” está a aproximar-se de uma AGI? Preferiram não se pronunciar. “Acho que não se podem fazer previsões com esse tipo de coisas. Prefiro abster-me. É como fazer conjecturas na bolsa”, afirma Jackie Kay.
Scott Reed disse: “Acho que a maioria das pessoas no nosso ramo fará tudo o que puder para não responder. É muito difícil de prever, mas espero que possamos fazê-lo um dia.”
Demasiado entusiasmo?
De alguma forma, o facto de o DeepMind ter apelidado o “Gato” de “generalista” pode tê-lo feito vítima do entusiasmo excessivo das IGA no sector. As inteligências artificiais de hoje são consideradas “fracas”, ou seja, só sabem executar tarefas precisas e limitadas, como a criação de texto.
Os tecnólogos, nomeadamente na DeepMind, acreditam que os seres humanos um dia desenvolverão IA mais “diversificadas” que funcionarão tão bem, senão melhor, do que os humanos.
Se alguns a vêem como uma Inteligência Artificial geral, outros dizem que os leva a “acreditar em magia”. Muitos cientistas de topo, incluindo o cientista sénior de IA na Meta [ex-Facebook], Yann LeCun, não estão convencidos de que isso seja possível.
O “Gato” é “generalista” no sentido em que pode fazer coisas diferentes em simultâneo. Mas é muito diferente de uma IA “geral”, que pode realmente adaptar-se a novas tarefas distintas das do modelo em que treinou, diz Jacob Andreas do MIT: “Ainda estamos muito longe desse objectivo.”
Os modelos “mais amplos” também não são uma solução para o facto de não terem “conhecimento ao longo da vida”, ou seja, ao aprenderem algo uma vez deveriam entender todas as repercussões disso e usá-las para informar futuras decisões. O avanço que ferramentas como o “Gato” está a criar prejudica o avanço da Inteligência Artificial como um todo, argumenta Emmanuel Kahembwe, investigador de IA e robótica e membro da organização Black in AI, co-fundada por Timnit Gebru [ex-codirector da equipa de ética da IA da Google, que o forçou a demitir-se]. “Muitos domínios interessantes permanecem à margem e estão sub-financiados. Merecem a nossa atenção, mas os grandes grupos tecnológicos e a maioria dos seus investigadores negligenciam-nos.”
As empresas tecnológicas precisam de dar um passo atrás e fazer um balanço da razão de ser do que fazem, assinala Vilas Dhar, presidente da Fundação Patrick J. McGovern, que financia projectos de IA “para o bem público”.
“A AGI mobiliza algo profundamente humano, a ideia de que podemos superar-nos, projectando ferramentas que nos impulsionem para a excelência”, continua. “Sendo uma grande ideia, distrai-nos dos problemas concretos que deveríamos estar a tentar resolver com a IA.”
MIT Technology Review