En una era en la que la inteligencia artificial y el aprendizaje automático (ML) se integran cada vez más en nuestra vida cotidiana, las preocupaciones sobre los sesgos inherentes en estas tecnologías están creciendo. Un reciente estudio titulado "Explorando los sesgos de género en la investigación académica de ML y AI a través de una revisión sistemática de la literatura" de Sunny Shrestha y Sanchari Das de la Universidad de Denver proporciona una visión completa del estado actual de la investigación en esta área.
El estudio, publicado en Frontiers in Artificial Intelligence, analizó 120 documentos para mapear el panorama de los sesgos de género específicos presentes en los sistemas automatizados asistidos por ML y AI. Los autores encontraron que estos sistemas pueden heredar y propagar sesgos de género y raciales, desfavoreciendo a las poblaciones minoritarias. La investigación destaca los aspectos menos explorados de la investigación de sesgos de género en ML/AI, centrándose en la falta de estudios de usuarios e inclusividad en este campo. También arroja luz sobre el problema del sesgo de género tal como lo experimentan los diseñadores de algoritmos. Los autores argumentan que los sesgos en los sistemas de IA y ML no son solo un problema técnico, sino también social. Sugieren que se necesita más investigación para entender la totalidad de estos sesgos y cómo pueden mitigarse.
Una creciente preocupación entre los expertos que investigan los sistemas de inteligencia artificial es el sesgo de género prevalente dentro de los algoritmos de IA. Estos sistemas a menudo muestran respuestas y suposiciones sesgadas, con una tendencia a favorecer las entradas masculinas. La Dra. Timnit Gebru, quien ha realizado una extensa investigación dentro de la IA en Google, ha destacado la gravedad de este problema a través de evidencia empírica.
Estrategias propuestas para contrarrestar el sesgo
En Suecia, se ha presentado una propuesta para mitigar este sesgo con un enfoque estratégico y multifacético, esto implica refinar los conjuntos de datos que entrenan la IA, enfatizar la diversidad y asegurar que los equipos que desarrollan estas tecnologías sean diversos. Al comprometerse con estos cambios, la industria tecnológica puede trabajar hacia una IA que sea justa e imparcial. A medida que las máquinas continúan influyendo en varios aspectos de la vida, garantizar su neutralidad y equidad se vuelve primordial.
El sesgo de género en la IA puede llevar al desarrollo de productos que no sirven eficazmente a la mitad de la población. En algunos casos, los algoritmos sesgados pueden causar daño, como cuando los sistemas de IA relacionados con la salud no diagnostican correctamente las condiciones en las mujeres porque los patrones en los hombres estaban sobrerrepresentados en los datos de entrenamiento.
El estudio concluye proporcionando una visión holística de la amplitud de los estudios realizados en el campo de la exploración, detección y mitigación de los sesgos de género en los sistemas de ML y AI. Sugiere una dirección futura para los estudios a fin de proporcionar sistemas de ML y AI justos y accesibles a todos los usuarios. Esta investigación es una contribución significativa a la discusión en curso sobre la equidad algorítmica y el potencial de sesgos en los sistemas de IA y ML. Subraya la importancia de la inclusividad y la diversidad en la investigación y el desarrollo de la IA.
Este estudio sirve como un recordatorio de que hay que esforzarse y trabajar por la equidad y la igualdad en todos los aspectos de la IA, desde los algoritmos que diseñamos hasta los sistemas que implementamos.