POR QUE ESPECIALISTAS DIZEM QUE INTELIGÊNCIA ARTIFICIAL PODE LEVAR À EXTINÇÃO DA HUMANIDADE

 

Homem faz protesto com placa de papelão contra a Inteligência Artificial

CRÉDITO,GETTY IMAGES

Legenda da foto,

O Centro de Segurança de Inteligência Artificial sugere uma série de possíveis cenários de desastre por mau uso dessa tecnologia

  • Author,
  • Por que especialistas dizem que inteligência artificial pode levar à extinção da humanidade

  • Chris Vallance
  • Role,Repórter de Tecnologia da BBC

A inteligência artificial (IA) pode levar a humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI e do Google Deepmind.

Dezenas apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco, nos Estados Unidos.

"Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", aponta a carta aberta.

Mas outros dizem que os medos são exagerados.

Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.

O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:

  • As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;
  • A desinformação gerada pela IA pode desestabilizar a sociedade e "minar as tomadas de decisões coletivas";
  • O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que "regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva";
  • Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, "num cenário semelhante ao retratado no filme Wall-E".

Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety.

Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto.

Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são frequentemente descritos como os "padrinhos da IA" pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.

Mas o professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocalípticos são "exagerados" e que "a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa".

Muitos outros especialistas também acreditam que o medo de a IA acabar com a humanidade é irreal e uma distração de questões como preconceito em relação aos sistemas, que já são um problema.

Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas.

"A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA", avalia ele.

Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos.

"Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita ela.

Estes avanços "podem impulsionar um aumento exponencial no volume e na disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital".

Muitas ferramentas de IA essencialmente "pegam carona" em "toda a experiência humana até o momento", destaca Renieris.

Várias dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos — e seus criadores "transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas".

Pausa solicitada

A cobertura da imprensa sobre a suposta ameaça "existencial" da IA aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.

Essa carta perguntava se deveríamos "desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem".

Em contraste, a nova carta divulgada por especialistas tem uma declaração muito curta, destinada a "abrir a discussão".

A declaração compara o risco ao representado pela guerra nuclear.

Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear.

"É provável que eventualmente precisemos de algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços de superinteligência", escreveu a empresa.

Análises cuidadosas

Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.

Ao falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a sociedade.

"Você viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida", disse ele.

"É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar e qual é o tipo de regulamentação que deve ser criada para nos manter seguros."

"As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo está analisando isso com muito cuidado", concluiu.

Sunak disse que havia discutido a questão recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve.

A cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.

Comentários