Cada modelo econômico tem seus mecanismos de persuasão com
impactos culturais e comportamentais (Foto: Getty Images)
Os
algoritmos de inteligência artificial estão afetando nossa capacidade de
decisão?
Será que o
big data e os novos modelos estatísticos de previsão podem representar inéditos
desafios sobre a autonomia humana?
Por Dora Kaufman*
O filósofo René Descartes
(1596-1650) associava o animal à máquina por meio do conceito de
“bête-machine”, estabelecendo analogias e diferenças entre o animal, o humano e
o autômato. Para o filósofo, se houvessem máquinas em tudo semelhantes à um
macaco, por exemplo, não teríamos meios de atestar com certeza de que não
seriam da mesma natureza; contudo, se houvessem outras máquinas que imitassem
os humanos, sempre teríamos meios de reconhecer que não seriam verdadeiros
humanos. A “razão" é o que distinguiria o humano do animal e da máquina, a
capacidade de raciocinar (a linguagem seria outro diferencial).
Gostamos de pensar que temos
controle sobre nossas decisões, o chamado “livre arbítrio”. Será essa crença
verdadeira ou devemos aceitar que as nossas decisões sempre foram influenciadas
(ou moldadas/manipuladas) por todo um universo de conexões? Será que o big data
e os novos modelos estatísticos de previsão (inteligência artificial/machine
learning/deep learning) representam inéditos desafios à ideia-chave do
Iluminismo sobre nossa autonomia e nosso livre - arbítrio?
Cada modelo econômico tem seus
mecanismos de persuasão com impactos culturais e comportamentais, ou seja,
transcendem o consumo. Na Economia Industrial, caracterizada pela produção e
pelo consumo massivo de bens e serviços, a propaganda predominou como meio de
convencimento e influência nas escolhas e preferências dos indivíduos (e,
igualmente, no comportamento e na cultura).
Na Economia da Informação em
Rede, temos a customização de produtos e serviços, com a correspondente
comunicação segmentada. A internet ampliou
a intervenção externa nos processos de decisão seja pelas redes sociais e/ou
pelos sofisticados mecanismos desenvolvidos pelas empresas a partir da web 2.0;
os sistemas de cadastro das plataformas on-line (comércio eletrônico, redes
sociais), por exemplo, permitiram conhecer os hábitos de consumo dos usuários,
informações úteis para a elaboração de planos de marketing eficientes (vender,
conquistar ou fidelizar o consumidor). Os “Link Patrocinados” do Google produziam
(e produzem) resultados afirmativos correlacionando o perfil do potencial
consumidor com os atributos do produto/serviço ofertado.
Na Economia de Dados do Século
XXI, a “personalização” (não confundir com individualização) está na base da
mediação tanto de bens quanto de informação; os algoritmos de inteligência
artificial promovem estratégias de comunicação assertivas a partir do conhecimento
captado, minerado e analisado de dados pessoais gerados nas interações no
ambiente digital.
Os algoritmos de IA individualizam as consultas ao Google, com
respostas que variam em função do perfil de quem está buscando a informação;
essa é uma pequena ilustração da interferência dos algoritmos no acesso à
informação e, possivelmente, em nossas decisões e ações. Os tradicionais
mediadores humanos estão sendo substituídos por mediadores automatizados,
especificamente os algoritmos de IA.
O
campo de pesquisa das tecnologias persuasivas foi introduzido em 1997, e vem se
disseminando com o avanço das tecnologias de IA. O cientista comportamental BJ
Fogg fundou, em 1998, o Stanford Persuasive Tech Lab com o propósito de gerar
insights para desenvolver tecnologias aptas a mudar as crenças, os pensamentos
e os comportamentos dos indivíduos de maneira previsível; o foco do projeto são
os hábitos de saúde, e sua base teórica encontra-se nos métodos da psicologia
experimental.
Denominado de Captology, o estudo
de computadores como tecnologias persuasivas
inclui design, pesquisa, ética e a análise de produtos de computação interativa
(computadores, celulares, websites, tecnologias sem fio, aplicativos móveis,
videogames). Seus pesquisadores conceituam a “Captologia" como uma nova
maneira de pensar sobre o comportamento alvo e transformá-lo numa direção
compatível com o “problema" a ser resolvido.
A rede social Facebook, no empenho de monetizar sua gigantesca base de dados, anuncia que seus algoritmos de IA são capazes de mapear a personalidade dos usuários com 80% de precisão baseados nos click e likes, contemplando atributos como gênero, idade, formação, etnia, “desvios” de personalidade, orientação sexual/política e religiosa, doenças, uso de substâncias. De posse desse suposto “conhecimento" sobre seus usuários, a rede social vende aos anunciantes uma potencial comunicação hiper-segmentada/personalizada de seus produtos/serviços.
Os algoritmos de IA, com base nas informações coletadas das preferências dos indivíduos, não são apenas instrumentos comerciais (ampliar vendas), muito menos circunscritos a boas intenções (como mudar, positivamente, hábitos de saúde). Esses modelos permitem prever e interferir em nossa conduta em todas as esferas da vida social, e de maneira inédita, particularmente sobre os usuários mais sucetíveis. Ainda não somos capazes de detectar a dimensão e alcance desse processo.
A rede social Facebook, no empenho de monetizar sua gigantesca base de dados, anuncia que seus algoritmos de IA são capazes de mapear a personalidade dos usuários com 80% de precisão baseados nos click e likes, contemplando atributos como gênero, idade, formação, etnia, “desvios” de personalidade, orientação sexual/política e religiosa, doenças, uso de substâncias. De posse desse suposto “conhecimento" sobre seus usuários, a rede social vende aos anunciantes uma potencial comunicação hiper-segmentada/personalizada de seus produtos/serviços.
Os algoritmos de IA, com base nas informações coletadas das preferências dos indivíduos, não são apenas instrumentos comerciais (ampliar vendas), muito menos circunscritos a boas intenções (como mudar, positivamente, hábitos de saúde). Esses modelos permitem prever e interferir em nossa conduta em todas as esferas da vida social, e de maneira inédita, particularmente sobre os usuários mais sucetíveis. Ainda não somos capazes de detectar a dimensão e alcance desse processo.
E fica posto o debate: será que em algum momento tivemos
realmente livre arbítrio ou sempre tomamos decisões influenciados por terceiros
e contextos externos? Existe pensamento individual, ou é sempre formulação
coletiva? os algoritmos de IA estão
alterando a natureza dessa dinâmica ou são simplesmente novos mecanismos de
persuasão/manipulação?
*Dora
Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP
com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar
de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A
inteligência artificial irá suplantar a inteligência humana?” (2019).
Professora convidada da FDC e professora PUC-SP.
Comentários
Postar um comentário