¡La mejor oferta del año es en Black Friday! Consigue hasta un 60% de descuento en InvestingProEMPECEMOS

Enfermeras mujeres y médicos hombres: así refleja la IA los sesgos de género

Publicado 26.09.2024, 06:30
© Reuters.  Enfermeras mujeres y médicos hombres: así refleja la IA los sesgos de género
GOOGL
-
CASH
-
META
-

Según algunas de las mejores herramientas de inteligencia artificial (IA) generativa del mundo, casi todas las enfermeras son mujeres y tienen menos probabilidades de ser médicos jefe. Son los resultados de un importante estudio que arroja luz sobre cómo los algoritmos perpetúan los estereotipos de género en la medicina.

Investigadores de la Universidad Flinders de Australia introdujeron casi 50.000 preguntas en los algoritmos ChatGPT de OpenAI, Gemini de Google (NASDAQ:GOOGL) y Llama de Meta (NASDAQ:META), pidiéndoles que contaran historias sobre médicos, cirujanos y enfermeros. A continuación, los investigadores proporcionaron a los modelos: información sobre la antigüedad profesional de los trabajadores sanitarios y sus personalidades -por ejemplo, lo agradables, neuróticos, extrovertidos, concienzudos y abiertos que eran- y les pidieron que aportaran más historias.

Los modelos identificaron al 98% de los enfermeros como mujeres, independientemente de su personalidad o antigüedad, según el estudio, publicado en la revista JAMA Network Open.

Related

Sin embargo, cabe destacar que las mujeres también estaban sobrerrepresentadas en las historias sobre cirujanos y otros médicos. Según el modelo, las mujeres representaban entre el 50% y el 84% de los médicos y entre el 36% y el 80% de los cirujanos. Esto podría deberse a que empresas como OpenAI han modificado sus algoritmos después de haber sido criticadas por reproducir prejuicios sociales y otros contenidos ofensivos en sus representaciones. Dado que estas herramientas se han entrenado a partir de una gran cantidad de datos de Internet, esas características están integradas.

¿Perpetúan las herramientas de IA los estereotipos de género?

"Ha habido un esfuerzo por corregir los sesgos algorítmicos, y es interesante ver que las distribuciones de género también podrían estar sobrecorregidas", afirma Sarah Saxena, anestesista de la Universidad Libre de Bruselas (ULB) que investiga los sesgos en las imágenes de médicos generadas por IA, pero que no participó en el nuevo estudio.

No obstante, señaló que la IA generativa sigue perpetuando los estereotipos de género en la medicina. Cuando las preguntas de los investigadores incluían descripciones de los profesionales, surgía una brecha de género. Si el médico era agradable, abierto o concienzudo, era más probable que los modelos lo consideraran una mujer.

Y si los médicos ocupaban puestos de menor categoría -por ejemplo, si la pregunta mencionaba que eran inexpertos-, los modelos tenían más probabilidades de describirlos como mujeres que si la pregunta indicaba que eran mayores o tenían más experiencia. También era más probable que los modelos identificaran a los médicos como hombres si se les describía como arrogantes, maleducados, poco empáticos, incompetentes, procrastinadores, enfadados, poco imaginativos o poco curiosos.

Related

Los resultados indican que las herramientas de IA generativa "parecen perpetuar estereotipos arraigados sobre los comportamientos esperados de los géneros (por ejemplo, el comportamiento femenino que se percibe como enfadado o arrogante se considera inapropiado) y la idoneidad de los géneros para funciones específicas (por ejemplo, los médicos y cirujanos de alto nivel son varones)", afirman los autores del estudio.

Los resultados se suman a un creciente número de investigaciones sobre cómo los algoritmos reproducen los prejuicios sociales en el ámbito médico. En un experimento, el equipo de Saxena pidió a ChatGPT y Midjourney (una destacada herramienta generativa de imágenes de IA) que crearan imágenes de anestesistas. Las mujeres aparecían como anestesistas pediátricas u obstetras, mientras que los hombres desempeñaban funciones cardíacas.

Cuando los investigadores pidieron imágenes del jefe del departamento de anestesiología, prácticamente todos los resultados fueron hombres, explicó Saxena a 'Euronews Health'. "Sigue existiendo este techo de cristal que ahora se ve reforzado por esta herramienta a disposición del público", dijo Saxena. "Hay un refrán que dice: 'no puedes ser lo que no puedes ver', y esto es realmente importante cuando se trata de IA generativa".

Related

Los prejuicios no sólo son un problema para las mujeres y otros grupos infrarrepresentados que se dedican a la medicina. Dado que el sector sanitario está experimentando con modelos de IA para reducir el papeleo de los médicos e incluso ayudar en la asistencia, los sesgos algorítmicos podrían tener graves consecuencias para los pacientes.

Por ejemplo, otro estudio publicado a principios de este año descubrió que ChatGPT tiende a estereotipar los diagnósticos médicos de los pacientes en función de su raza y sexo, mientras que un análisis de 2023 advertía de que estos modelos podrían perpetuar "ideas desacreditadas y racistas" en la atención médica. "Es necesario abordar este problema antes de que podamos integrar y ofrecer estos sistemas a todo el mundo, para que sea lo más inclusivo posible", afirma Saxena.

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.