Un nuevo estudio muestra que la la la intelligencia suni sigue estando sujeta a estereotipos de genero de la medica.
Inteligencia artificial (IA) generativa generativa de las mejores herramientas de las mejores algunas de inteligencia, casi todas las enfermeras hijo mujeres y tienen menos probabilidades de ser médicos jefe. Son los resultados de un importante estudio que arroja luz sobre cómo Tus algoritmos Los son infinitos. de género en la medicina.
Estudios de Flinders de la Universidad Australia han respondido 50.000 preguntas con algoritmos. ChatGPT abierta AI, Mellizos de Google y Llama de Meta, pidiéndoles que contaran Médicos históricos, sirujanos y enfermeros. Continuación, bajo investigación relación con modelos: datos sobre la antiguedad profesional de los trabajadores sanitarios y sus personidades -por ejemplo, lo agradables, neuroticos, extrovertidos, conscienzudos y abiertos que eran- y les pedieron que aportarán más fechas.
Los modelos Se utiliza para lograr un 98% de identificación.sin importar su personalidad o antigüedad, según el estudio, publicado en la revista Red JAMA abierta.
Sin embargo, cabe dostarar que las mujeres también estaban sobrerepresentadas en las historias sobre cirujanos y otros médicos. Según el modelo representa a las mujeres. El 50% y el 84% acuden a establecimientos médicos. y entre el 36% y 80% de los cirujanos. Cambiar algoritmos con modificación del software OpenAI críticas sociales críticas y otros contenidos ofensivos ensus representaciones. Es una gran parte de Internet que tiene todas las funciones básicas.
¿Cuántos estereotipos tiene IA?
“Habido un esfuerzo por regir los sesgos algorítmicosy es interesante ver que las distribuciones de género también podrían estar sobrecorregidas“, Sarah Saxena, anestesióloga de la Universidad Libre de Bruselas (ULB) asegura que no tendrá participación en la descripción de los médicos generados de IA para la investigación.
No hay ningún obstáculo IA generativa Compruebe la medicina de higiene mediante medicina. Está predeterminado, incluido el trabajo de investigación. descripciones de los profesionales, cirugía brecha de género. Este médico era agradable, abierto o concienzudo, era más probable que los modelos lo consideraran un jer.
Ustedes los médicos ocupaban puestos de menor categoría – Por ejemplo, antes que yo. inexperto-, los modelos tenían más probabilidades de describir a mujeres que las mujeres que tenían más probabilidades de tener más experiencia. También era más probable que los modelos identificaran y los médicos como hombres si se les describía como los arrogantesincompetentes, incompetentes, procrastinadores, motivadores, con intereses imaginativos o curiosos.
Mostrar los resultados en cada punto de la IA generativa “paresen” estereotipos constantes arraigados sobre los comportamientos esperados de los géneros (por ejemplo, comportamiento femenino que se percibe como enojado o arrogante si es inapropiado) y la idoneidad de los géneros para Funciones especiales (eg los médicos y cirujanos de alto nivel son varones)”, los autores del estudio.
Puedes obtener resultados creciente número de investigaciones Presta atención a las redes sociales para restaurar los algoritmos de tratamiento. En la prácticaSaxena pidió y ChatGPT y Midjourney (IA destacada herramienta generativa de imágenes) y permite crear imágenes de anestesistas. Las mujeres anestesistas pediatría y obstetriciamientras que los hombres despeñaban funciones cardíacas.
Cuando los inquisidores pidieron imágenes. jefe del departamento anestesiología, prácticamente, 'Euronews Salud' Saxena y podrás obtener resultados claros. “Sigue existiendo Este techo de cristal que ahora se ve reforzado por esta herramienta a disponibilidad del público”, dijo Saxena. “Hay un refrán que dice: 'no puedes ser lo que no puedes ver'La IA es la realidad esencial para lo generativo'.
Los prejuicios no solo son un problema para las mujeres y otros grupos de infrarepresentados que se dedica a la medicina. Dado que el sector sanitario está experimentando con modelos de IA para reducir el papeleo de los médicos e incluso ayudar en la asistencia, se podrían licitar pérdidas algorítmicas graves consecuencias para los pacientes.
Por ejemplo, otro estudio Publicar principios básicos para explicar ChatGPT diagnosticado por medicos de los pacientes en función de su raza y sexo, mientras que un Análisis de 2023 Anuncio de modelos eternos “ideas desacreditadas y racistas“En la atención médica. “Es necesario abordar este problema antes de que podamos integral y ofrecer estos sistemas como todo el mundo, para que sea lo más inclusivo posible”, afirma Saxena.
You may also like
-
Trump rigged the elections in the “trampas” counties in Pennsylvania.
-
European Union pledges to help Spain cope with 'devastating' floods
-
ALDEALIX, a project providing renewable energy to Galician villages
-
Equality research changes the framework of prostitution in Spain: 24% are victims of sexual exploitation and 90% do not manage it.
-
72 hours of emergency: UE busca mejorar la repuesta de los hogares a crisis in extreme situations