La inteligencia artificial predice la raza de los pacientes a partir de sus imágenes médicas |  Noticias del MIT

La inteligencia artificial predice la raza de los pacientes a partir de sus imágenes médicas | Noticias del MIT



El error de juicio del algoritmo es un problema crítico; Cuando la inteligencia artificial refleja pensamientos inconscientes, racismo y prejuicios de las personas que generaron estos algoritmos, puede causar daños graves. Por ejemplo, los programas informáticos han señalado incorrectamente que los acusados ​​negros tienen el doble de probabilidades de reincidir que los acusados ​​blancos. Cuando una IA usó el costo como indicador de las necesidades de atención médica, etiquetó incorrectamente a los pacientes negros como más saludables que los pacientes blancos igualmente enfermos porque se gastaba menos dinero en ellos. Incluso AI se ha basado en el uso de estereotipos dañinos para el casting al escribir una obra de teatro.

La eliminación de características confidenciales de los datos parece una optimización viable. Pero, ¿qué pasa si no es suficiente?

Los ejemplos de sesgos en el procesamiento del lenguaje natural son ilimitados, pero los científicos del MIT han estado investigando otra modalidad importante, en gran parte inexplorada: las imágenes médicas. Utilizando conjuntos de datos públicos y privados, el equipo descubrió que la IA puede predecir con precisión la carrera autoinformada de los pacientes utilizando solo imágenes médicas. Usando datos de imágenes de radiografías de tórax, radiografías de extremidades, tomografías computarizadas de tórax y mamografías, el equipo entrenó un modelo de aprendizaje profundo para identificar razas como blancas, negras o asiáticas, aunque las imágenes en sí mismas no contenían una mención explícita de la raza. raza del paciente. Esta es una hazaña que incluso los médicos más experimentados no pueden igualar, y no está claro cómo el modelo pudo hacerlo.

En un intento por descubrir y comprender el enigmático «cómo» de todo esto, los investigadores realizaron una serie de experimentos. Para explorar los posibles mecanismos de detección de carreras, examinaron variables como las diferencias en la anatomía, la densidad ósea, la resolución de las imágenes, y más, y los modelos aún se dieron cuenta con una alta capacidad para detectar carreras a partir de radiografías de tórax. «Estos resultados fueron inicialmente confusos porque los miembros de nuestro equipo de investigación no pudieron identificar un buen representante para esta tarea», dice Marzyeh Ghassemi, coautor del artículo, profesor asistente en el Departamento de Ingeniería Eléctrica e Informática del MIT. Science y el Instituto de Ingeniería y Ciencias Médicas (IMES), que es una subsidiaria del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y la Clínica MIT Jameel. “Incluso si filtra imágenes médicas más allá de los límites de lo que incluso identificaría las imágenes como imágenes médicas, los modelos profundos mantienen un rendimiento muy alto. Esto es preocupante porque las habilidades sobrehumanas son generalmente mucho más difíciles de controlar, regular y evitar que dañen a los humanos”.

En un entorno clínico, los algoritmos pueden ayudarnos a saber si un paciente es candidato para la quimioterapia, prescribir el triaje del paciente o decidir si es necesario trasladarlo a la UCI. «Creemos que los algoritmos solo analizan los signos vitales o las pruebas de laboratorio, pero es posible que también analicen su raza, etnia, género, si está encarcelado o no, incluso si toda esa información está oculta», dijo. dice el coautor del artículo, Leo Anthony Celi, científico investigador sénior de IMES en el MIT y profesor asociado de medicina en la Escuela de Medicina de Harvard. «El hecho de que represente a diferentes grupos en sus algoritmos no garantiza que las diferencias y desigualdades existentes no se perpetúen o amplíen. Alimentar los algoritmos con más datos con representación no es una panacea. Este documento debería hacernos detenernos y pensar realmente si estamos listos para llevar la IA al lado de la cama”.

El estudio «Detección de raza de pacientes con IA en imágenes médicas: un estudio de modelado» se publicó en Lancet Salud Digital el 11 de mayo. Celi y Ghassemi escribieron el artículo junto con otros 20 autores en cuatro países.

Para configurar las pruebas, los científicos primero demostraron que los modelos podían predecir carreras en múltiples modalidades de imágenes, diferentes conjuntos de datos y diferentes tareas clínicas, así como en una variedad de centros académicos y poblaciones de pacientes en los Estados Unidos. Utilizaron tres grandes conjuntos de datos de rayos X de tórax y probaron el modelo en un subconjunto invisible del conjunto de datos utilizado para entrenar el modelo y en uno completamente diferente. Luego, entrenaron a los modelos de detección de identidad racial en radiografías no torácicas de múltiples sitios del cuerpo, incluidas radiografías digitales, mamografías, radiografías laterales de la columna cervical y tomografías computarizadas de tórax, para ver si el rendimiento del modelo se limitaba a radiografías de tórax. rayos

El equipo cubrió muchas bases para explicar el comportamiento del modelo: diferencias en las características físicas entre diferentes grupos raciales (hábito corporal, densidad mamaria), distribución de enfermedades (estudios anteriores han demostrado que los pacientes negros tienen más probabilidades de tener problemas de salud como enfermedades cardíacas). ), las diferencias de sitio o tejido, los efectos del sesgo social y el estrés ambiental, la capacidad de los sistemas de aprendizaje profundo para detectar la raza cuando se combinaron múltiples factores demográficos y del paciente, y si regiones específicas de la imagen contribuyeron a la detección racial.

Lo que resultó ser realmente asombroso fue que la capacidad de los modelos para predecir la raza a partir de las etiquetas de diagnóstico por sí solas era mucho menor que la de los modelos basados ​​en radiografías de tórax.

Por ejemplo, la prueba de densidad ósea utilizó imágenes en las que la parte más gruesa del hueso aparecía blanca y la parte más delgada aparecía más gris o translúcida. Los científicos plantearon la hipótesis de que las diferencias de color ayudaron a los modelos de IA a identificar la raza, ya que los negros generalmente tienen una mayor densidad mineral ósea. Para reducir eso, recortaron las imágenes con un filtro para que el modelo no pudiera ver ninguna diferencia de color. Resultó que cortar el suministro de pintura no alteró el modelo, aún podía predecir con precisión las carreras. (El área bajo la curva, la medida de la precisión de una prueba de diagnóstico cuantitativa, fue de 0,94 a 0,96). Por lo tanto, las funciones aprendidas del modelo parecían estar basadas en todas las regiones de la imagen, lo que significa que controlar este tipo de comportamiento algorítmico es un problema complicado y desafiante.

Los académicos reconocen la disponibilidad limitada de etiquetas de identidad racial, lo que los llevó a centrarse en las poblaciones asiáticas, negras y blancas, y que su verdad básica era un detalle autoinformado. El trabajo futuro adicional incluirá la investigación potencial del aislamiento de varias señales antes de la reconstrucción de la imagen ya que, al igual que los experimentos de densidad ósea, no pudieron explicar el tejido óseo residual presente en las imágenes.

En particular, otro trabajo de Ghassemi y Celi, dirigido por el estudiante graduado del MIT Hammaad Adam, descubrió que los modelos también pueden identificar la raza autoinformada por el paciente a partir de notas clínicas, incluso cuando esas notas están despojadas de indicadores raciales explícitos. Al igual que en este trabajo, los expertos humanos no pueden predecir con precisión la raza de los pacientes a partir de las mismas notas clínicas redactadas.

“Tenemos que poner en juego a los científicos sociales. Los expertos en dominios, que suelen ser médicos, profesionales de la salud pública, informáticos e ingenieros, no son suficientes. El cuidado de la salud es tanto un problema sociocultural como un problema médico. Necesitamos otro grupo de expertos para sopesar y proporcionar información y comentarios sobre cómo diseñamos, desarrollamos, implementamos y evaluamos estos algoritmos”, dice Celi. “También debemos preguntar a los científicos de datos si hay alguna diferencia antes de examinar los datos. ¿Qué grupos de pacientes están marginados? ¿Cuáles son los impulsores de estas diferencias? ¿Es el acceso a la atención? ¿Es por la subjetividad de los proveedores de servicios? Si no entendemos eso, no tenemos posibilidad de reconocer las consecuencias no deseadas de los algoritmos, y no hay forma de que podamos proteger los algoritmos de los prejuicios perdurables”.

“El hecho de que los algoritmos ‘vean’ la raza, como documentan convincentemente los autores, puede ser peligroso. Pero un hecho importante y relacionado es que los algoritmos, cuando se usan con cuidado, también pueden ayudar a contrarrestar el sesgo”, dice Ziad Obermeyer, profesor asociado de la Universidad de California, Berkeley, cuya investigación se centra en la IA en el cuidado de la salud. «En nuestro propio trabajo, dirigido por la científica informática de Cornell Emma Pierson, mostramos que los algoritmos que aprenden de las experiencias de dolor de los pacientes pueden encontrar nuevas fuentes de dolor de rodilla en las radiografías que afectan de manera desproporcionada a los pacientes negros y que los radiólogos pasan por alto de manera desproporcionada. » Entonces, como cualquier herramienta, los algoritmos pueden ser una fuerza para el mal o una fuerza para el bien; lo que depende de eso depende de nosotros y de las elecciones que hagamos al desarrollar algoritmos”.

El trabajo es apoyado en parte por los Institutos Nacionales de Salud.

Related post

Cómo la IA ayudará a abordar los problemas de exceso de existencias del mañana

Cómo la IA ayudará a abordar los problemas de…

El mundo cadena de suministro no es fácil de manejar. Líneas complejas conectan piezas fabricadas y piezas de casi todas las…
Cómo los objetos tecnológicos brillantes distraen la atención de la política climática

Cómo los objetos tecnológicos brillantes distraen la atención de…

Soy ingeniero de formación y me encantan las cosas nuevas. Los últimos gadgets, ideas, diseños. Pero cuando se trata del clima,…
El programa interactivo de los científicos informáticos ayuda a planificar el movimiento para entornos con obstáculos – ScienceDaily

El programa interactivo de los científicos informáticos ayuda a…

Al igual que nosotros, los robots no pueden ver a través de las paredes. A veces necesitan un poco de ayuda…

Leave a Reply

Tu dirección de correo electrónico no será publicada.