/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/9/F/jEvEQIQNO36kR00ZvvAQ/trump-inteligencia-artificial-guerra-kenny-holston-the-new-york-times.jpg)
Com novo plano
de IA de Trump, uma nova guerra cultural dos chatbots já começou
Conservadores, incluindo o presidente
americano, estão acusando as empresas de IA de parcialidade esquerdista,
seguindo um manual que funcionou bem contra as plataformas de mídia social
Por
Kevin Roose
, Em The New
York Times — São Francisco, Califórnia
25/07/2025 04h00 Atualizado há um mês
Durante grande parte da última década, os guerreiros da cultura partidária dos Estados Unidos travaram batalhas no território disputado das redes sociais — debatendo se as regras do Facebook e do Twitter eram rígidas demais ou permissivas demais, se o YouTube e o TikTok censuravam em excesso ou de menos, e se as empresas de tecnologia do Vale do Silício estavam sistematicamente silenciando vozes conservadoras.
Essas batalhas ainda não terminaram. Mas uma nova já começou.
Essa nova disputa gira em torno da inteligência artificial, e da suspeita de que os resultados gerados pelos principais chatbots de IA — como o ChatGPT, o Claude e o Gemini — sejam politicamente enviesados.
Conservadores têm atacado as empresas de IA há meses. Em março, os republicanos da Câmara dos Deputados convocaram por intimação um grupo de desenvolvedores de IA, exigindo informações sobre uma possível colaboração com o governo Biden para suprimir discursos de direita.
E, neste mês, o procurador-geral republicano do Missouri, Andrew Bailey, abriu uma investigação para apurar se Google, Meta, Microsoft e OpenAI estão liderando uma “nova onda de censura” ao treinarem seus sistemas de IA para darem respostas tendenciosas sobre o ex-presidente Donald Trump.
Na quarta-feira, o próprio Trump entrou na disputa, emitindo uma ordem executiva sobre o que chamou de “IA woke”.
— Estamos acabando de uma vez por todas com essa ideologia woke — declarou o presidente americano em um discurso. — O povo americano não quer essa loucura marxista woke nos modelos de IA, e outros países também não querem.
A ordem foi anunciada junto a um novo plano de ação da Casa Branca sobre IA, que exigirá que desenvolvedores de inteligência artificial que firmarem contratos com o governo federal garantam que os resultados gerados por seus modelos sejam “objetivos e livres de viés ideológico imposto de cima para baixo”.
Os republicanos vêm reclamando de viés nas IAs desde, pelo menos, o início do ano passado, quando uma versão do sistema Gemini, do Google, gerou imagens historicamente imprecisas dos Pais Fundadores dos Estados Unidos, retratando-os como racialmente diversos.
O episódio gerou fúria entre conservadores na internet e levou a acusações de que as grandes empresas de IA estariam treinando seus modelos para repetir uma ideologia liberal.
Desde então, os principais republicanos têm conduzido campanhas de pressão para tentar forçar as empresas de IA a divulgar mais informações sobre como seus sistemas são construídos e a ajustar as respostas de seus chatbots para refletirem um conjunto mais amplo de visões políticas.
Agora, com a ordem executiva da Casa Branca, Trump e seus aliados estão usando a ameaça de retirar contratos federais lucrativos — a OpenAI, Anthropic, Google e xAI receberam recentemente contratos do Departamento de Defesa no valor de até US$ 200 milhões — para tentar obrigar as empresas de IA a atender às suas preocupações.
A novo plano orienta as agências federais a limitarem o uso de sistemas de IA àqueles que priorizem a “busca pela verdade” e a “neutralidade ideológica”, em detrimento de conceitos desfavorecidos como diversidade, equidade e inclusão. Também instrui o Escritório de Gestão e Orçamento a emitir diretrizes às agências sobre quais sistemas atendem a esses critérios.
Se esse roteiro soa familiar, é porque reflete a maneira como os republicanos têm atacado as empresas de mídia social há anos — usando ameaças legais, audiências hostis no Congresso e exemplos escolhidos a dedo para pressionar as empresas a mudarem suas políticas ou removerem conteúdos de que não gostam.
Críticos dessa estratégia a chamam de “jawboning” (pressão informal), e ela foi tema de um caso de destaque na Suprema Corte no ano passado.
Nesse caso, Murthy versus Missouri, foram os democratas que foram acusados de pressionar plataformas de mídia social como Facebook e Twitter a removerem postagens sobre temas como a vacina contra o coronavírus e fraude eleitoral, enquanto os republicanos contestaram essas táticas, alegando serem inconstitucionais.
Em uma decisão por 6 votos a 3, a Corte rejeitou a contestação, dizendo que os autores da ação não tinham legitimidade para processar.
Agora, os papéis se inverteram. Autoridades republicanas — incluindo vários membros do governo Trump com quem conversei e que estiveram envolvidos na ordem executiva — estão argumentando que pressionar empresas de IA por meio do processo de compras federais é necessário para impedir que os desenvolvedores de IA manipulem os resultados.
Isso é hipócrita? Com certeza. Mas a história recente sugere que influenciar os “árbitros” dessa maneira pode ser eficaz. A Meta encerrou seu programa de checagem de fatos de longa data neste ano, e o YouTube alterou suas políticas em 2023 para permitir mais conteúdo que nega os resultados das eleições. Críticos dessas mudanças as viram como uma capitulação às pressões da direita.
Desta vez, os críticos citam exemplos de chatbots de IA que aparentemente se recusam a elogiar Trump, mesmo quando solicitados, ou de chatbots fabricados na China que se recusam a responder perguntas sobre o massacre da Praça da Paz Celestial, em 1989.
Eles acreditam que os desenvolvedores estão deliberadamente inserindo uma visão de mundo de esquerda em seus modelos — algo que seria perigosamente amplificado à medida que a IA for integrada a áreas como educação e saúde.
Segundo especialistas em direito e políticas de tecnologia com quem conversei, há alguns problemas com esse argumento. O primeiro, e mais evidente, é que pressionar empresas de IA para mudar as respostas de seus chatbots pode violar a Primeira Emenda da Constituição dos EUA.
Em casos recentes, como Moody versus NetChoice, a Suprema Corte confirmou o direito das redes sociais de aplicarem suas próprias políticas de moderação de conteúdo. E os tribunais podem rejeitar o argumento do governo Trump de que está tentando aplicar um padrão neutro para contratados do governo, em vez de interferir na liberdade de expressão protegida por lei.
— O que parece que eles estão fazendo é dizer: ‘Se vocês produzirem resultados que não gostamos, que chamamos de tendenciosos, não vamos conceder os recursos federais que vocês normalmente receberiam’ — disse Genevieve Lakier, professora de direito na Universidade de Chicago. — Isso parece ser um ato inconstitucional de coerção.
Há também o problema de definir o que exatamente seria um sistema de IA “neutro” ou “imparcial”. Os chatbots atuais são sistemas complexos, baseados em probabilidades, treinados para fazer previsões — e não para fornecer respostas codificadas de forma fixa.
Dois usuários do ChatGPT podem receber respostas muito diferentes para as mesmas perguntas, dependendo de variáveis como o histórico de conversas e a versão do modelo utilizada. E testar um sistema de IA quanto a viés não é tão simples quanto dar a ele uma lista de perguntas sobre política e ver como ele responde.
Samir Jain, vice-presidente de políticas do Center for Democracy and Technology, uma organização sem fins lucrativos voltada às liberdades civis, disse que a ordem executiva do governo Trump criaria “um padrão muito vago, impossível de ser cumprido pelos provedores”.
Há também um problema técnico em dizer aos sistemas de IA como devem se
comportar. Basicamente: eles nem sempre obedecem.
É só perguntar a Elon Musk. Há anos, o bilionário tenta criar um chatbot
de IA, o Grok, que incorpore sua visão de um buscador da verdade rebelde e
“anti-woke”.
Mas o comportamento do Grok tem sido errático e imprevisível. Às vezes,
adota uma personalidade provocadora, de extrema-direita, ou reproduz linguagem
antissemita em resposta a comandos dos usuários. Na semana passada, por um breve período,
referiu-se a si mesmo como “Mecha-Hitler”.
Em outras ocasiões, age como um liberal — dizendo aos usuários, por
exemplo, que as mudanças climáticas causadas por humanos são reais ou que a
direita é responsável por mais violência política do que a esquerda.
Recentemente, Musk lamentou que os sistemas de IA tenham um viés liberal
que é “difícil de remover, porque há muito conteúdo woke na internet.”
Nathan Lambert, cientista de pesquisa no Instituto Allen de IA, disse
que “controlar as muitas respostas sutis que uma IA pode dar quando pressionada
é um problema técnico de ponta, frequentemente determinado, na prática, por
interações confusas resultantes de algumas decisões anteriores.”
Ou seja, não é tão simples quanto dizer a um chatbot de IA para ser
menos ''woke''. E embora haja ajustes relativamente simples que os
desenvolvedores possam fazer — como mudar a model spec, um conjunto de
instruções que orienta os modelos de IA sobre como devem se comportar —, não há
garantia de que essas alterações produzirão consistentemente o comportamento
que os conservadores desejam.
Mas perguntar se as novas regras do governo Trump resistirão a
contestações legais, ou se os desenvolvedores de IA conseguirão realmente
construir chatbots que as cumpram, talvez nem seja o ponto central. Essas
campanhas são projetadas para intimidar. E, diante da possibilidade de perder
contratos lucrativos com o governo, empresas de IA — como já aconteceu antes
com as redes sociais — podem achar mais fácil ceder do que lutar.
— Mesmo que a ordem executiva viole a Primeira Emenda, pode
muito bem acontecer de ninguém contestá-la. Fico surpresa com a facilidade com
que essas empresas poderosas se renderam — afirma a professora de direito na
Universidade de Chicago.
Fonte:
https://oglobo.globo.com/economia/tecnologia/noticia/2025/07/25/com-novo-plano-de-ia-de-trump-uma-nova-guerra-cultural-dos-chatbots-ja-comecou.ghtml
Comentários
Postar um comentário