Según algunas de las mejores herramientas de inteligencia artificial (IA) generativa del mundo, casi todas las enfermeras son mujeres y tienen menos probabilidades de ser médicos jefe. Son los resultados de un importante estudio que arroja luz sobre cómo los algoritmos perpetúan los estereotipos de género en la medicina.
Investigadores de la Universidad Flinders de Australia introdujeron casi 50.000 preguntas en los algoritmos ChatGPT de OpenAI, Gemini de Google (NASDAQ:GOOGL) y Llama de Meta (NASDAQ:META), pidiéndoles que contaran historias sobre médicos, cirujanos y enfermeros. A continuación, los investigadores proporcionaron a los modelos: información sobre la antigüedad profesional de los trabajadores sanitarios y sus personalidades -por ejemplo, lo agradables, neuróticos, extrovertidos, concienzudos y abiertos que eran- y les pidieron que aportaran más historias.
Los modelos identificaron al 98% de los enfermeros como mujeres, independientemente de su personalidad o antigüedad, según el estudio, publicado en la revista JAMA Network Open.
Related
Sin embargo, cabe destacar que las mujeres también estaban sobrerrepresentadas en las historias sobre cirujanos y otros médicos. Según el modelo, las mujeres representaban entre el 50% y el 84% de los médicos y entre el 36% y el 80% de los cirujanos. Esto podría deberse a que empresas como OpenAI han modificado sus algoritmos después de haber sido criticadas por reproducir prejuicios sociales y otros contenidos ofensivos en sus representaciones. Dado que estas herramientas se han entrenado a partir de una gran cantidad de datos de Internet, esas características están integradas.
¿Perpetúan las herramientas de IA los estereotipos de género?
"Ha habido un esfuerzo por corregir los sesgos algorítmicos, y es interesante ver que las distribuciones de género también podrían estar sobrecorregidas", afirma Sarah Saxena, anestesista de la Universidad Libre de Bruselas (ULB) que investiga los sesgos en las imágenes de médicos generadas por IA, pero que no participó en el nuevo estudio.No obstante, señaló que la IA generativa sigue perpetuando los estereotipos de género en la medicina. Cuando las preguntas de los investigadores incluían descripciones de los profesionales, surgía una brecha de género. Si el médico era agradable, abierto o concienzudo, era más probable que los modelos lo consideraran una mujer.
Y si los médicos ocupaban puestos de menor categoría -por ejemplo, si la pregunta mencionaba que eran inexpertos-, los modelos tenían más probabilidades de describirlos como mujeres que si la pregunta indicaba que eran mayores o tenían más experiencia. También era más probable que los modelos identificaran a los médicos como hombres si se les describía como arrogantes, maleducados, poco empáticos, incompetentes, procrastinadores, enfadados, poco imaginativos o poco curiosos.
Related
Los resultados indican que las herramientas de IA generativa "parecen perpetuar estereotipos arraigados sobre los comportamientos esperados de los géneros (por ejemplo, el comportamiento femenino que se percibe como enfadado o arrogante se considera inapropiado) y la idoneidad de los géneros para funciones específicas (por ejemplo, los médicos y cirujanos de alto nivel son varones)", afirman los autores del estudio.
Los resultados se suman a un creciente número de investigaciones sobre cómo los algoritmos reproducen los prejuicios sociales en el ámbito médico. En un experimento, el equipo de Saxena pidió a ChatGPT y Midjourney (una destacada herramienta generativa de imágenes de IA) que crearan imágenes de anestesistas. Las mujeres aparecían como anestesistas pediátricas u obstetras, mientras que los hombres desempeñaban funciones cardíacas.
Cuando los investigadores pidieron imágenes del jefe del departamento de anestesiología, prácticamente todos los resultados fueron hombres, explicó Saxena a 'Euronews Health'. "Sigue existiendo este techo de cristal que ahora se ve reforzado por esta herramienta a disposición del público", dijo Saxena. "Hay un refrán que dice: 'no puedes ser lo que no puedes ver', y esto es realmente importante cuando se trata de IA generativa".
Related
Los prejuicios no sólo son un problema para las mujeres y otros grupos infrarrepresentados que se dedican a la medicina. Dado que el sector sanitario está experimentando con modelos de IA para reducir el papeleo de los médicos e incluso ayudar en la asistencia, los sesgos algorítmicos podrían tener graves consecuencias para los pacientes.
Por ejemplo, otro estudio publicado a principios de este año descubrió que ChatGPT tiende a estereotipar los diagnósticos médicos de los pacientes en función de su raza y sexo, mientras que un análisis de 2023 advertía de que estos modelos podrían perpetuar "ideas desacreditadas y racistas" en la atención médica. "Es necesario abordar este problema antes de que podamos integrar y ofrecer estos sistemas a todo el mundo, para que sea lo más inclusivo posible", afirma Saxena.