MAMOGRAFÍAS
La edad y la raza afectan el rendimiento de la IA en las mamografías digitales
Un estudio ha señalado que algunas pruebas como mamografías donde se usaba Inteligencia Artificial para su interpretación arrojó algunos falsos positivos en pacientes.
Publicidad
En un estudio de casi 5000 mamografías de detección interpretadas mediante un algoritmo de inteligencia artificial aprobado por la FDA, las características de las pacientes, como la raza y la edad, influyeron en los resultados falsos positivos. Los resultados del estudio, realizado por la Universidad de Duke (EEUU), se publican en Radiology, una revista de la Sociedad Radiológica de América del Norte (RSNA).
"La IA se ha convertido en un recurso para que los radiólogos mejoren su eficiencia y precisión en la lectura de mamografías de detección y, al mismo tiempo, mitiguen el agotamiento del lector", comenta Derek L. Nguyen, profesor asistente de la Universidad de Duke en Durham, Carolina del Norte. "Sin embargo, el impacto de las características del paciente en el rendimiento de la IA no se ha estudiado bien".
El doctor Nguyen comenta que, si bien los datos preliminares sugieren que los algoritmos de IA aplicados a los exámenes de mamografía de detección pueden mejorar el rendimiento diagnóstico de los radiólogos para la detección del cáncer de mama y reducir el tiempo de interpretación, hay algunos aspectos de la IA que se deben tener en cuenta.
"Hay pocas bases de datos demográficamente diversas para el entrenamiento de algoritmos de IA, y la FDA no requiere conjuntos de datos diversos para su validación", expone. "Debido a las diferencias entre las poblaciones de pacientes, es importante investigar si el software de IA puede adaptarse y funcionar al mismo nivel para diferentes edades, razas y etnias de pacientes".
En el estudio retrospectivo, los investigadores identificaron pacientes con exámenes de detección de tomosíntesis digital de mama negativos (sin evidencia de cáncer) realizados en el Centro Médico de la Universidad de Duke entre 2016 y 2019. Todas las pacientes fueron seguidas durante un período de dos años después de las mamografías de detección, y ninguna paciente fueron diagnosticadas con un cáncer de mama.
Los investigadores seleccionaron al azar un subconjunto de este grupo que constaba de 4.855 pacientes (edad media de 54 años) distribuidos ampliamente en cuatro grupos étnicos/raciales. El subconjunto incluyó a 1.316 (27%) pacientes blancos, 1.261 (26%) negros, 1.351 (28%) asiáticos y 927 (19%) pacientes hispanos.
Un algoritmo de IA disponible comercialmente interpretó cada examen en el subconjunto de mamografías, generando tanto una puntuación de caso (o certeza de malignidad) como una puntuación de riesgo (o riesgo de malignidad posterior a un año).
"Nuestro objetivo era evaluar si el rendimiento de un algoritmo de IA era uniforme según la edad, los tipos de densidad mamaria y las diferentes razas/etnias de los pacientes", explica el doctor Nguyen.
Dado que todas las mamografías del estudio dieron resultados negativos para la presencia de cáncer, cualquier cosa que el algoritmo señalara como sospechosa se consideró un resultado falso positivo. Las puntuaciones de casos falsos positivos fueron significativamente más probables en pacientes negros y mayores (71 a 80 años) y menos probables en pacientes asiáticos y pacientes más jóvenes (41 a 50 años) en comparación con pacientes blancos y mujeres entre 51 y 60 años.
"Este estudio es importante porque destaca que cualquier software de IA adquirido por una institución de atención médica puede no funcionar de manera igual en todas las edades, razas/etnias y densidades mamarias de todos los pacientes", apunta el doctor Nguyen. "En el futuro, creo que las actualizaciones del software de IA deberían centrarse en garantizar la diversidad demográfica".
El doctor Nguyen dijo que las instituciones de atención médica deben comprender la población de pacientes a la que atienden antes de comprar un algoritmo de inteligencia artificial para la interpretación de mamografías de detección y preguntar a los proveedores sobre su capacitación en algoritmos.
"Tener un conocimiento básico de la demografía de su institución y preguntarle al proveedor sobre la diversidad étnica y de edad de sus datos de capacitación lo ayudará a comprender las limitaciones que enfrentará en la práctica clínica", concluye.
Publicidad