IA
YEJIN CHOI
“Especula-se demais e há demasiados receios em torno da IA”
A investigadora pioneira em Inteligência Artificial (IA) disseca equívocos sobre o poder das máquinas e não afirmar que as IA não chegam a domínios inerentes aos seres humanos: bom senso, incerteza, emoções.
A cientista, nascida na Coreia, está a liderar trabalhos sobre o processamento da linguagem natural em programas de Inteligência Artificial, com vista a desenvolver modelos de conhecimento e capacidades de raciocínio. Aos 45 anos, é titular da prestigiada bolsa MacArthur Genius Fellowship e investigadora da Paul G. Allen School of Computer & Engineering da Universidade de Washington, e do Allen Institute for AI Research em Seattle.
Mais do que qualquer outra tecnologia, a IA é um domínio em torno do qual há tantas ambições como medos. Como se a sedutora promessa prometeica de máquinas capazes de executar tarefas com uma destreza de sonho implicasse um pesadelo, o da substituição por obsolescência da Humanidade. Apesar dos recentes avanços da IA em campos como a linguagem e as artes visuais, anteriormente exclusivos das pessoas – basta pensar nas composições em prosa do modelo de linguagem GPT- 3 [na fonte do chatbot ChatGPT] ou nas criações visuais do DALL-E [gerador de imagens].
Quem assim pensa é a cientista da computação, vencedora, em 2022, da prestigiada bolsa Genius da Fundação MacArthur, que coordena um trabalho sem precedentes em torno do desenvolvimento pela IA de senso comum e raciocínio ético numa entrevista recente ao The New York Times aqui transcrita.
Quais são os principais equívocos sobre a IA?
As pessoas tendem a generalizar demasiado depressa. “Extraordinário, GPT-3 é capaz de escrever uma publicação nas redes sociais. Talvez o GPT-4 venha a ser jornalista da revista do The New York Times” [risos]. Mas acho que não substituirá ninguém, porque não entenderia os meandros do contexto político e, portanto, não seria capaz de escrever algo relevante para o leitor. Soma-se a isso o problema da senciência da IA [a capacidade de sentir emoções]. Haverá sempre gente capaz de acreditar em coisas que não são verdadeiras. Há quem acredite nas cartas de tarôt. Há quem embarque em teorias da conspiração. Então, porque não haverá pessoas a acreditar que as IA tenham sentimentos.
Talvez seja uma pergunta trivial, mas será que um dia criaremos uma IA dotada de senciência?
Posso ter de mudar de opinião, mas neste momento duvido. Existe muito essa impressão, mas nós que trabalhamos em IA encontramos muitas limitações. Esse é o problema. Quem esteja de fora pensará: “Isto é uma loucura!” Mas quem trabalha na área vê muitas falhas. Tratando-se de processar uma infinidade de modelos e dados, a IA é muito forte, como, por exemplo, em jogos como o Go ou o xadrez. Tende-se, por isso a pensar que, se a IA for capaz de enfrentar desafios complexos, como tradução ou xadrez, certamente será boa em qualquer tarefa simples. Na verdade, o que é fácil para as máquinas pode ser difícil para os humanos e vice-versa. É surpreendente como uma IA ‘patina’ quando se trata de usar o senso comum mais básico.
Consegue definir “bom senso” na perspectiva de uma IA?
Uma maneira de o fazer é dizer que o senso comum é a matéria negra da inteligência. A matéria normal é o que vemos, aquilo com que podemos interagir. Durante muito tempo, acreditou-se que só havia isso à nossa volta. Nada mais existiria no mundo físico. No entanto, é o oposto que se passa: a matéria que vemos ou sentimos corresponde apenas a 5% do Universo. Os restantes 95% são matéria negra e energia negra, que são invisíveis. Sabemos que estão lá porque, se assim não fosse, não conseguiríamos explicar a existência de matéria normal. Sabemos por observação experimental e teorização e sabemo-lo há muito tempo. O mesmo acontece com o bom senso. Faz tanto sentido que, na maioria das vezes, não falamos sobre isso. Por exemplo, quantos olhos tem um cavalo? Dois. Não falamos sobre isso, mas todos o sabem. Não sabemos a quantidade exata de conhecimento que você e eu temos, e acerca da qual não falamos, mas julgo que será enorme.
Pareceu séptica quando aludiu ao GPT-3. Não o acha impressionante?
Estou muito admirada com o GPT-3, mas, ao mesmo tempo, sinto que as pessoas tendem a sobrestimá-lo. Há até quem ache que o teste de Turing foi ultrapassado [para passar neste teste, criado em 1950, as máquinas devem demonstrar inteligência indistinguível da de um humano]. Não concordo.
Podemos ter essa impressão se nos detivermos apenas aos melhores desempenhos do GPT-3, mas se olharmos para o seu desempenho médio, ainda estamos longe de um bom nível de inteligência humana. E é para as médias que devemos olhar. Porque, se nos limitarmos ao melhor desempenho, na verdade é a inteligência humana que faz o difícil trabalho de selecção. Embora seja promissor em muitos aspetos, há muitas coisas que não é capaz de fazer bem. Mas as pessoas tendem a generalizar, dizendo: uma vez que é capaz de realizar essa tarefa brilhantemente, a AGI pode estar ao virar da esquina [inteligência geral artificial, semelhante à inteligência flexível que os humanos possuem e que uma máquina deveria adquirir para executar tarefas intelectuais ao nível humano]. Não há provas que sustentem esta ideia.
O que lhe parece mais promissor na IA?
Fascina-me o pluralismo de valores, ou seja: o valor não ser singular. Outra maneira de o dizer é que não existe uma verdade universal. Muita gente tem problemas com isto. Como cientistas, fomos ensinados a ser precisos e a lutar por uma única verdade.
Como ensinar a IA a tomar decisões de tipo moral, quando quase todas as regras ou verdades têm excepções?
A IA tem de aprender que há casos sobre os quais pode decidir, enquanto outros devem ser sujeitos a avaliação. É preciso apreender a incerteza e a pluralidade de opiniões. Vou tentar simplificar, olhando para o modelo linguístico. Neste caso, o objetivo é treinar a IA para prever a próxima palavra. Com base no exposto, qual é a palavra que se seguirá? Não existe uma verdade universal sobre isso. Às vezes, só há uma palavra possível, mas em quase todos os casos as possibilidades são múltiplas. Portanto, há incerteza e, no entanto, a formação é eficaz porque a IA aprende, através da análise estatística, quais são as palavras mais lógicas para se seguirem.
As decisões morais podem ser tomadas da mesma maneira. Em vez de adoptar decisões taxativas, tipo sim ou não, a IA às vezes terá de tomar decisões com base em avaliações como “isso soa mal”.
Poderá a IA tomar decisões éticas imparciais ou mesmo contrárias aos objectivos eventualmente imorais dos seus criadores? Ou haverá sempre alguém, em última análise, para garantir os valores éticos?
Quanto à primeira pergunta, é o que gostaríamos de obter [em 2021, Yejin Choi e os seus colegas da Paul G. Allen School of Computer & Engineering da Universidade de Washington e do Allen Institute for AI Research em Seattle lançaram o Delphi, um protótipo que permite ao utilizador fazer perguntas éticas, com – muitas vezes – respostas convincentes].
Em relação à segunda, é o que inevitavelmente acontece. Na realidade, o Delphi tende bastante para a esquerda, porque muitas das pessoas que trabalham para nós têm uma sensibilidade de esquerda. Isso pode criar receios tanto à esquerda quanto à direita, dado que, para as pessoas à esquerda, o Delphi não vai suficientemente longe, enquanto os que estão à direita temem que o modelo não seja suficientemente inclusivo. Mas o Delphi foi apenas um teste. Ainda temos um longo caminho a percorrer. Seria óptimo poder resolver a questão do pluralismo de valores na IA. Garantir que os valores da IA não sejam sistemáticos, mas sim multi-dimensionais, como num grupo humano.
Como se resolve o pluralismo de valores?
Não tenho uma resposta taxativa. Não sei como, mas a IA deve respeitar o pluralismo de valores e a diversidade, em vez de impor um quadro moral padronizado a todos.
Se chegarmos ao ponto em que dependeremos da IA para tomar decisões éticas, não estaremos no caminho errado? A ética não é daquelas coisas que não se devem subcontratar?
Vão desculpar-me, mas estão a ser vítimas de uma confusão muito comum sobre o modelo Delphi que concebemos. Este modelo baseia-se em perguntas e respostas. Parece-me que foi dada ênfase suficiente ao facto de não fornecer conselhos morais. Seria um exemplo do que a IA não deve fazer. O que eu queria era que a IA aprendesse a tomar decisões no plano ético, para que pudesse interagir com os humanos de uma forma mais segura e respeitosa. Por exemplo, que a IA não sugira que os seres humanos se comportem de forma perigosa, especialmente para com as crianças, ou que não faça comentários potencialmente racistas e sexistas.
A IA nunca deve ser uma autoridade universal em nenhum assunto, mas estar ciente da diversidade dos pontos de vista humanos, entender no que discordam e, seguidamente, ser capaz de evitar enviesamentos. Nunca devemos desenhar uma IA com o objetivo de otimizar uma única coisa. Neste caso, o erro estaria mais do lado dos humanos do que da IA. É por isso que as normas e valores humanos devem fazer parte do conhecimento fundamental da IA. Algumas pessoas pensam que, se ensinarmos a IA a optimizar a produção de grampos de fixação de plantas sem intervenção humana, o problema estaria resolvido. Ora, nesse caso, a máquina poderia muito bem erradicar todas as plantas. É por isso que também precisa de bom senso, é bom senso não matar todas as plantas para preservar a vida humana. É senso comum não optar por soluções extremas e devastadoras.
The New York Times