A motivação inicial era protegê-los, contudo, a iniciativa
foi vista como potencial ameaça à privacidade e segurança, desencadeando
protestos (Foto: Pexels)
Os
algoritmos de inteligência artificial podem ser éticos?
O uso da
IA para decisões pré-programadas pelos humanos traz novos desafios éticos para
a sociedade
Por Dora Kaufman
Em seu último livro, “Máquinas como eu”
(2019), o escritor inglês Ian McEwan trata da distinção moral entre
Miranda, uma jovem de 22 anos vizinha-namorada de Charlie, e Adão, o humanóide
adquirido por ele com recursos herdados pela morte de sua mãe. O autor atribui
ao humanóide uma visão moral mais consistente e, indo além, levanta a
possibilidade de que nós, seres humanos, sejamos capazes de criar seres
artificiais moralmente superiores (suposição ficcional, não existe nenhuma base
científica no momento).
O tema da
ética permeia a sociedade humana desde Aristóteles e foi mudando de sentido ao
longo da história resguardando, contudo, a crença de que apenas o humano é
dotado da capacidade de pensar criticamente sobre os valores morais e dirigir
nossas ações em termos de tais valores.
Com o avanço recente das tecnologias de
inteligência artificial (IA), as questões éticas estão “na pauta". Associada
à robótica, como no caso do humanóide Adão de Mcewan, ou mediando as interações
sociais e os processos decisórios, os algoritmos de IA agregam inúmeros
benefícios, mas, simultaneamente, carecem de transparência, são difíceis de
serem explicados, e comprometem a privacidade. Diariamente, aparecem casos
ilustrativos no Brasil e mundo afora.
Nos Estados de Utah e Vermont, EUA, o FBI e o
Serviço de Imigração e Alfândega usaram tecnologia de reconhecimento facial na
análise de milhões de fotos das carteiras de habilitação com o propósito de
identificar imigrantes ilegais. A questão ética nesse procedimento é que,
aparentemente, não houve conhecimento, muito menos consentimento, dos
motoristas; ademais, vários estudos indicam que os modelos de reconhecimento de
imagem não são perfeitos, em alguns casos a margem de erro pode ser relevante
função, dentre outros, do viés contido nos dados.
Em 2018, o Facebook lançou um aplicativo
estimulando seus usuários a postarem fotos atuais e de dez anos atrás. Em julho
de 2019, o FaceApp alcançou o primeiro lugar na lista geral de app do Google
Play e App Store, envelhecendo as foto e projetando aparência futura. Ambos
foram sucesso e viralizaram. Longe de ser um mero entretenimento, esses
aplicativos servem para captar dados e utilizá-los no treinamento dos
algoritmos de reconhecimento de imagem (inteligência artificial/deep learning).
Em ambos os casos houve consentimento dos usuários, que aderiram
voluntariamente ao desafio, mas não houve transparência quanto ao propósito.
Em meados
de 2017, pesquisadores da Universidade de Stanford tornaram público um
algoritmo de Inteligência Artificial, o Gaydar, com a finalidade de, com base
nas fotografias das plataformas de namoro, identificar os homossexuais. A
motivação inicial era protegê-los, contudo, a iniciativa foi vista como
potencial ameaça à privacidade e segurança, desencadeando protestos.
Nos EUA -
país com, provavelmente, o mais eficiente arcabouço legal de proteção aos seus
cidadãos e instituições -, existe o Conselho de Avaliação Institucional
(Institutional Review Board - IRB), que é um comitê de ética independente
voltado para garantir a ética nas pesquisas e norteia os conselhos dos centros
de pesquisa e universidades; o estudo que originou o Gaydar foi previamente
aprovado pelo Conselho de Avaliação de Stanford.
A questão é que as regras foram fixadas há 40
anos. "A grande e vasta maioria do que chamamos de pesquisa de 'grandes
dados’ não é abrangida pela regulamentação federal", diz Jacob Metcalfe do
Data & Society, instituto de NY dedicado aos impactos sociais e culturais
do desenvolvimento tecnológico centrado em dados.
No evento
"Sustainable Brands”, David O’Keefe, da Telefonica Dynamic Insights,
controladora da operadora de telefonia móvel Vivo, apresentou alguns produtos
derivados dos dados captados das linhas móveis (Mobile Phone Data). Com o
título "usando dados comuns globais e aprendizado de máquina para fornecer
informações de relacionamento digital em multinacionais” (using global comms
data and machine learning to provide digital relationship insights in
multinationals), O’Keefe descreveu o “produto" em que, por meio dos dados
dos celulares dos funcionários de uma empresa multinacional (quem ligou para
quem, com que frequência, quanto tempo durou a ligação, etc.) é possível
identificar as redes informais internas, importante elemento nas estratégias de
gestão (sem conhecimento e consentimento dos usuários).
Se no Rio
de Janeiro, e outros estados, os órgão de segurança estão usando livremente a
tecnologia de reconhecimento facial, em São Francisco foi proibido seu uso pela
polícia e por outros órgãos da administração municipal (14/maio). São Francisco
é a primeira grande cidade dos EUA a proibir o uso da tecnologia de
reconhecimento facial como aparato de vigilância/controle público.
Os modelos estatísticos buscam padrões e
fazem previsões, contudo, seus resultados não são objetivos nem garantidos, em
parte, porque são baseados em amostras que nem sempre são representativas do
universo total (incerteza, margem de erro). Adicionalmente, os fatores
intangíveis não são quantificáveis.
Se em
muitas situações do cotidiano a imprecisão não incomoda, o mesmo não se pode
dizer, por exemplo, de processos relacionados à saúde; até aceita-se que os
algoritmos de IA diagnostiquem tumor cancerígeno, mas dificilmente o paciente
aceita numa quimioterapia automatizar a decisão do tipo de medicação e da dose.
Uma das
críticas legítimas é que esses sistemas são "black box” - não são
transparentes/explicáveis -, mas devemos lembrar que os humanos nem
sempre sabem explicar o porque de determinadas decisões; a diferença, talvez, é
que os humanos inventam explicações, produzem justificativas nem sempre fidedignas,
o que as máquinas não são capazes de fazer.
O avanço
recente da inteligência artificial, quando as máquinas não mais seguem
processos de decisão pré-programados pelos humanos e começam a aprender por si
mesmas (Machine Learning, Deep Learning), coloca para a sociedade novos
desafios éticos e a premência de estabelecer arcabouços legais a partir de uma
regulamentação que, simultaneamente, proteja os indivíduos e instituições, e
preserve o grau de liberdade necessário ao desenvolvimento científico.
Será que a lei brasileira de proteção de
dados, que entra em vigor em agosto de 2020, dá conta dessa complexidade?
*Dora Kaufman é pós-doutora
COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na
Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os
desafios das empresas nas redes digitais” (2017), e “A inteligência artificial
irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e
professora PUC-SP.
Comentários
Postar um comentário