Inteligências artificiais estão reproduzindo os preconceitos humanos

21/07/2022 às 10:023 min de leitura

A proposta de uma inteligência artificial (IA) é que ela seja mais evoluída do que a mente humana, porém, ainda assim, apesar de sua capacidade quase ilimitada de conhecimento, ela é construída e operada por uma mente humana, que carrega construções sociais que podem ser facilmente transferidas durante a criação de qualquer tipo de máquina.

Em maio de 2016, um relatório apresentado e discutido no artigo "Machine Bias" do jornal investigativo ProPublica, mostrou que o programa Correctional Offender Management Profilling for Alternative Sanctions (Compas), usado por vários tribunais dos Estados Unidos para avaliação de risco, estava sendo tendencioso contra pessoas negras. Dados da máquina rotularam que réus negros são mais propensos a se tornarem reincidentes, sinalizando erroneamente quase o dobro da taxa com relação à pessoas branca (45% a 24%).

Nesse caso, o problema é que o Compass e programas semelhantes de perfil estão presentes em vários tribunais pelo país, informando e influenciando na decisão de juízes e outros funcionários. E é irônico imaginar que o sistema judiciário americano, com seu longo histórico de preconceito racial, recorreu à IA na tentativa de parecer mais justo, só para descobrir que são preconceituosos.

Alertando sobre um problema

(Fonte: University of Toronto/Reprodução)(Fonte: University of Toronto/Reprodução)

A empresa que fornece o software, Northpointe, contestou as conclusões do relatório apresentado no artigo do jornal, porém se recusou a revelar o funcionamento interno do Compas, alegando que o produto é "comercialmente sensível".

Mas o problema não parou por aí, um estudo de 2015 mostrou que a pesquisa de imagens do Google pela palavra "CEO" mostrou apenas 11% das pessoas como mulheres, embora 27% dos executivos-chefes nos EUA sejam mulheres. Outro estudo liderado por Anupam Datta, da Universidade Carnegie Mellon, em Pittsburgh, descobriu que o sistema de publicidade online do Google mostrava empregos de alta renda para homens com muito mais frequência do que para mulheres.

(Fonte: Brookings Institution/Reprodução)(Fonte: Brookings Institution/Reprodução)

A pesquisadora Joy Buolamwini, do Instituto de Tecnologia de Massachusetts (MIT) descobriu mais problemas de gêneros vinculados a IA ao perceber que as inteligências desenvolvidas pela IBM Microsoft e a empresa chinesa Megvii conseguiam identificar corretamente o gênero de uma pessoa em uma fotografia em 99% das vezes, mas apenas se fossem homens brancos. Para mulheres de pele escura, a precisão do reconhecimento facial do software caía para 35%.

Em uma indústria que lucrará, só em 2022, US$ 432,8 bilhões com o mercado de inteligência artificial, incluindo software, hardware e serviços, segundo o International Data Corporation (IDC) —, é alarmante que esse problema seja recorrente, principalmente porque mostra um medo inevitável que existe há muitos anos: que as ferramentas computacionais se tornem cada vez mais opacas, conforme ficam mais avançadas.

O debate do século

Timnit Gebru. (Fonte: The Verge/Reprodução)Timnit Gebru. (Fonte: The Verge/Reprodução)

Em 2016, a conferência mais importante do mundo sobre inteligência artificial reuniu mais de 5 mil pessoas em um auditório em Barcelona, na Espanha, das quais apenas 6 delas eram negras, sendo que todas eram homens e branco, — o que perturbou a doutora Timnit Gebru, pós-graduada na Universidade de Stanford.

Do seu computador em Menlo Park, Califórnia, ela escreveu em uma postagem no Facebook dizendo que não estava preocupada com as máquinas dominando o mundo, apenas com o pensamento de grupo, insularidade e arrogância na comunidade IA. 

“As pessoas que criam a tecnologia são uma grande parte do sistema. Se muitos forem ativamente excluídos de sua criação, essa tecnologia beneficiará alguns e prejudicará muitos”, escreveu ela.

Seu pequeno manifesto chamou atenção da Google, que na época estava trabalhando na construção de um grupo de ética IA. O que Gebru fez revolucionou a indústria, mostrando que esta precisa de pessoas com perspectivas diferentes se quiser concretizar um futuro menos discriminatório e mais igualitário, longe dos problemas criados pelas estruturas sociais.

Ainda assim, isso não é o suficiente. Na verdade, o trabalho para desassociar palavras e estereótipos é muito difícil, isso porque uma IA produz associações e correlações de palavras através de cálculos extremamente complexos com base em uma grande quantidade de dados não filtrados pela internet, indo desde o Reddit até sites de pornografia.

(Fonte: Dice Insights/Reprodução)(Fonte: Dice Insights/Reprodução)

“Esses algoritmos são como bebês que podem ler muito rapidamente milhões e milhões de sites, mas que não tem uma boa compreensão do que é algo útil ou prejudicial”, disse James Zou, professor assistente de ciência de dados biomédicos e engenharia da computação e elétrica da Universidade de Stanford, em matéria à CBC.

O estudo co-assinado por Zou sugeriu que até os melhores programas de linguagem com inteligência artificial apresentam problemas raciais e de gênero, e que a filtragem de dados por palavras e estereótipos levaria à censura de textos históricos, músicas e outras referências culturais.

Ou seja, a tarefa para tentar solucionar o problema não é nada simples, e é o motivo de haver um extenso debate. De um lado, há especialistas que argumentam que seria melhor que esses programas continuassem aprendendo por conta própria até que alcançassem a sociedade; e do outro, estão aqueles que acham que os programas precisam, sim, de intervenção humana no nível de código para combater o preconceito embutido nos dados.

Para Sasha Luccioni, pesquisadora do Instituto Mila, a solução pode estar em que tipo de pessoa se envolve com o modelo de AI, pois ela é responsável por projetar os seus vieses ideológicos, preconceitos e formas de absorver o mundo.

NOSSOS SITES

  • TecMundo
  • TecMundo
  • TecMundo
  • TecMundo
  • Logo Mega Curioso
  • Logo Baixaki
  • Logo Click Jogos
  • Logo TecMundo

Pesquisas anteriores: