Em uma época em que a inteligência artificial e o aprendizado de máquina (ML) estão cada vez mais integrados ao nosso cotidiano, crescem as preocupações com os preconceitos inerentes a essas tecnologias. Um estudo recente intitulado "Exploring gender biases in academic ML and AI research through a systematic literature review" (Explorando preconceitos de gênero na pesquisa acadêmica de AM e IA por meio de uma revisão sistemática da literatura), realizado por Sunny Shrestha e Sanchari Das, da Universidade de Denver, oferece uma visão geral abrangente do estado atual da pesquisa nessa área.
O estudo, publicado na Frontiers in Artificial Intelligence, analisou 120 artigos para mapear o cenário de preconceitos específicos de gênero presentes em sistemas automatizados de AM e assistidos por IA. Os autores descobriram que esses sistemas podem herdar e propagar preconceitos raciais e de gênero, prejudicando as populações minoritárias. A pesquisa destaca os aspectos menos explorados da pesquisa de preconceito de gênero em AM/IA, concentrando-se na falta de estudos de usuários e de inclusão no campo. Ela também esclarece o problema do preconceito de gênero vivenciado pelos projetistas de algoritmos. Os autores argumentam que o preconceito nos sistemas de IA e ML não é apenas um problema técnico, mas também social. Eles sugerem que são necessárias mais pesquisas para entender a extensão total desses preconceitos e como eles podem ser atenuados.
Uma preocupação crescente entre os especialistas que pesquisam sistemas de inteligência artificial é o viés de gênero predominante nos algoritmos de IA. Esses sistemas geralmente apresentam respostas e suposições tendenciosas, com uma tendência a favorecer as entradas masculinas. O Dr. Timnit Gebru, que realizou uma extensa pesquisa sobre IA no Google, destacou a gravidade desse problema por meio de evidências empíricas.
Estratégias propostas para combater o preconceito
Na Suécia, foi apresentada uma proposta para atenuar esse viés com uma abordagem estratégica e multifacetada, que envolve o refinamento dos conjuntos de dados que treinam a IA, enfatizando a diversidade e garantindo que as equipes que desenvolvem essas tecnologias sejam diversificadas. Ao se comprometer com essas mudanças, o setor de tecnologia pode trabalhar para que a IA seja justa e imparcial. Como as máquinas continuam a influenciar vários aspectos da vida, garantir sua neutralidade e imparcialidade torna-se fundamental.
O viés de gênero na IA pode levar ao desenvolvimento de produtos que não atendem efetivamente a metade da população. Em alguns casos, os algoritmos tendenciosos podem causar danos, como quando os sistemas de IA relacionados à saúde não conseguem diagnosticar corretamente as condições das mulheres porque os padrões dos homens estavam super-representados nos dados de treinamento.
O estudo conclui fornecendo uma visão holística da amplitude dos estudos realizados no campo da exploração, detecção e atenuação do viés de gênero em sistemas de ML e IA. Ele sugere uma direção futura para estudos que visam fornecer sistemas de AM e IA justos e acessíveis a todos os usuários. Esta pesquisa é uma contribuição significativa para a discussão em andamento sobre a justiça algorítmica e o potencial de preconceito em sistemas de AM e IA. Ela ressalta a importância da inclusão e da diversidade na pesquisa e no desenvolvimento da IA.
Este estudo serve como um lembrete para nos esforçarmos e trabalharmos em prol da justiça e da igualdade em todos os aspectos da IA, desde os algoritmos que projetamos até os sistemas que implementamos.