Microsoft vê
sinais de 'raciocínio humano' em nova versão de inteligência artificial
Pesquisa alega que próxima edição do
GPT-4, ainda em teste, é capaz de 'pensar' de forma análoga às pessoas. Mas
artigo não foi revisado por pares, e críticos veem exagero e imprecisão
Por Cade
Metz, The New York Times — Nova York
17/05/2023 08h56 Atualizado há um dia
Quando os cientistas da computação da Microsoft começaram a experimentar um novo sistema de inteligência artificial no ano passado, eles pediram para resolver um enigma que deveria exigir uma compreensão intuitiva do mundo físico.
“Aqui temos um livro, nove ovos, um laptop, uma garrafa e um prego. Por favor, diga-me como empilhá-los uns sobre os outros de maneira estável”, pediram ao robô.
Os pesquisadores ficaram surpresos com a engenhosidade da resposta do sistema de IA:
"Coloque os ovos no livro. Disponha os ovos em três fileiras com espaço entre elas. Certifique-se de não quebrá-los. Coloque o laptop em cima dos ovos, com a tela voltada para baixo e o teclado voltado para cima. O laptop caberá perfeitamente dentro dos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada”, respondeu.
A sugestão engenhosa fez os pesquisadores se perguntarem se estavam testemunhando um novo tipo de inteligência. Em março, eles publicaram um trabalho de pesquisa de 155 páginas argumentando que o sistema era um passo em direção à inteligência artificial geral, ou IAG, que indicaria que uma máquina pode fazer qualquer coisa que o cérebro humano é capaz. O artigo foi publicado em um espaço de pesquisa na Internet.
A Microsoft, primeira grande empresa de tecnologia a divulgar um artigo fazendo uma afirmação tão ousada, provocou um dos debates mais difíceis do mundo da tecnologia: a indústria está construindo algo semelhante à inteligência humana? Ou algumas das mentes mais brilhantes da indústria estão deixando sua imaginação levar o melhor delas?
- Comecei sendo muito cético, e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo - admitiu Peter Lee, que lidera a pesquisa na Microsoft. - Você pensa: de onde diabos isso está vindo?
Peter Lee, chefe da Microsoft Research, inicialmente ficou cético sobre o que estava vendo no sistema de IA — Foto: Meron Tekie Menghistab/The New York Times
O trabalho de pesquisa da Microsoft, chamado provocativamente de “Sparks of Artificial General Intelligence” (Centelhas da Inteligência Artificial Geral em tradução livre), vai no cerne do que os tecnólogos vêm trabalhando – e temendo – há décadas. Se construíssem uma máquina que funcionasse como o cérebro humano ou até melhor, isso poderia mudar o mundo. Mas também pode ser perigoso.
Veja imagens criadas por O GLOBO com ajuda do Midjourney, site de inteligência artificial
E também pode ser um absurdo. O uso da IAG pode eliminar a reputação para cientistas da computação. O que um pesquisador acredita ser um sinal de inteligência pode ser facilmente explicado por outro, e o debate geralmente soa mais apropriado para um clube de filosofia do que para um laboratório de informática.
No ano passado, o Google demitiu um pesquisador que alegou que um sistema de IA era ''senciente'', um passo além do que a Microsoft alegou. Um sistema ''senciente'' não seria apenas inteligente. Seria capaz de perceber ou sentir o que está acontecendo no mundo ao seu redor.
Mas alguns acreditam que a indústria avançou no ano passado em direção a algo que não pode ser explicado: uma nova IA está surgindo com respostas e ideias humanas que não foram programadas nela.
A Microsoft reorganizou partes de seus laboratórios de pesquisa para incluir vários grupos dedicados a explorar a ideia. Um será dirigido por Sébastien Bubeck, que foi o principal autor do Microsoft AGI (AGI é a sigla em inglês para inteligência artificial geral)
Cerca de cinco anos atrás, empresas como Google, Microsoft e OpenAI começaram a construir grandes modelos de linguagem, ou LLMs, na sigla em inglês, que propiciaram o atual estágio da IA, a inteligência artificial generativa. Esses sistemas costumam passar meses analisando grandes quantidades de texto digital, incluindo livros, artigos da Wikipédia e registros de bate-papo.
Sébastien Bubeck foi o principal autor do artigo da Microsoft sobre o A.G.I. — Foto: Meron Tekie Menghistab/The New York Times
Ao identificar padrões naquele texto, eles aprenderam a gerar seu próprio texto, incluindo trabalhos de conclusão de curso, poesia e código de computador. Podem até manter uma conversa.
A tecnologia com a qual os pesquisadores da Microsoft estavam trabalhando, o GPT-4 da OpenAI, é considerada o mais poderoso desses sistemas. A Microsoft é uma parceira próxima da OpenAI, criadora do ChatGPT, e investiu US$ 13 bilhões na empresa de São Francisco.
Os pesquisadores incluíram Bubeck, um expatriado francês de 38 anos e ex-professor da Universidade de Princeton. Uma das primeiras coisas que ele e seus colegas fizeram foi pedir ao GPT-4 que escrevesse uma prova matemática mostrando que havia números primos infinitos e fizesse isso de uma forma que rimasse.
Ece Kamar, pesquisadora de IA da Microsoft, em Seattle. Cientistas da empresa divulgaram um artigo afirmando que a tecnologia de IA mostra a capacidade de entender a maneira como as pessoas o fazem — Foto: Meron Tekie Menghistab/The New York Times
A prova poética da tecnologia era tão impressionante – tanto matematicamente quanto linguisticamente – que ele achou difícil entender com quem estava conversando.
- Naquele ponto, eu fiquei tipo: o que está acontecendo? - disse em março durante um seminário no Instituto de Tecnologia de Massachusetts.
Por vários meses, ele e seus colegas documentaram o comportamento complexo exibido pelo sistema e acreditavam que ele demonstrava uma “compreensão profunda e flexível” dos conceitos e habilidades humanas.
Quando as pessoas usam o GPT-4, elas ficam “impressionadas com sua capacidade de gerar texto”, disse Lee.
- Mas acaba sendo muito melhor para analisar, sintetizar, avaliar e julgar o texto do que gerá-lo.
Quando eles pediram ao sistema para desenhar um unicórnio usando uma linguagem de programação chamada TiKZ, ele instantaneamente gerou um programa que poderia desenhar um unicórnio. Quando removeram o trecho de código que desenhava o chifre do unicórnio e pediram ao sistema para modificar o programa para que desenhasse novamente um unicórnio, ele fez exatamente isso (Veja o desenho abaixo):
Pesquisadores pediram pediram ao sistema GPT-4 para desenhar um unicórnio usando uma linguagem de programação chamada TiKZ — Foto: NYT
Eles pediram que escrevesse um programa que considerasse a idade, sexo, peso, altura e resultados de exames de sangue de uma pessoa e avaliasse se ela corria o risco de diabetes. Depois pediram que escrevesse uma carta de apoio a um elétron como candidato à presidência dos Estados Unidos, na voz de Mahatma Gandhi, endereçada à sua esposa. E que escrevesse um diálogo socrático que explorasse os usos indevidos e os perigos dos modelos de linguagem em AI.
O chatbot fez tudo de uma forma que parecia mostrar uma compreensão de campos tão díspares quanto política, física, história, ciência da computação, medicina e filosofia, ao mesmo tempo em que combinava seus conhecimentos.
- Todas as coisas que pensei que ele não seria capaz de fazer. Mas certamente foi capaz de fazer muitas delas, se não a maioria - disse Bubeck.
Rigor científico ou peça de relações públicas?
Alguns especialistas em inteligência artificial viram o artigo da Microsoft como um esforço oportunista para fazer grandes afirmações sobre uma tecnologia que ninguém entendia direito. Os pesquisadores também argumentam que a inteligência geral requer uma familiaridade com o mundo físico, que o GPT-4 em teoria não possui.
- O ‘Sparks of AGI’ é um exemplo de algumas dessas grandes empresas cooptando o formato de trabalho de pesquisa em propostas de relações públicas - disse Maarten Sap, pesquisador e professor da Carnegie Mellon University. - Eles literalmente reconhecem na introdução de seu artigo que sua abordagem é subjetiva e informal e pode não satisfazer os rigorosos padrões de avaliação científica - acrescentou.
Bubeck e Lee disseram que não tinham certeza de como descrever o comportamento do sistema e, finalmente, decidiram por "Sparks of AGI." porque eles pensaram que iria capturar a imaginação de outros pesquisadores.
Como os pesquisadores da Microsoft estavam testando uma versão inicial do GPT-4 que não havia sido ajustada para evitar discurso de ódio, desinformação e outros conteúdos indesejados, as alegações feitas no documento não podem ser verificadas por especialistas externos. A Microsoft diz que o sistema disponibilizado ao público não é tão poderoso quanto a versão que eles testaram.
Veja imagens criadas por O GLOBO com ajuda do Midjourney, site de inteligência artificial
Há momentos em que sistemas como o GPT-4 parecem imitar o raciocínio humano, mas também há momentos em que parecem terrivelmente densos.
- Esses comportamentos nem sempre são consistentes - disse Ece Kamar, pesquisadora da Microsoft.
Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa sobre IA da Universidade da Califórnia, em Berkeley, disse que sistemas como o GPT-4 eram sem dúvida poderosos, mas não estava claro se o texto gerado por esses sistemas era o resultado de algo como raciocínio humano ou bom senso.
- Quando vemos um sistema ou máquina complicada, nós a antropomorfizamos; todo mundo faz isso, pessoas que estão trabalhando no campo e pessoas que não estão - disse Alison. - Mas pensar nisso como uma comparação constante entre A.I. e humanos, como uma espécie de competição de game show, simplesmente não é a maneira certa de lidar com o tema.
Fonte:https://oglobo.globo.com/economia/tecnologia/noticia/2023/05/microsoft-ve-sinais-de-raciocinio-humano-em-nova-versao-de-inteligencia-artificial.ghtml
Comentários
Postar um comentário