COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

El registro de imágenes médicas es una técnica común que implica la superposición de dos imágenes, como las imágenes de resonancia magnética (MRI), para comparar y analizar las diferencias anatómicas en gran detalle. Si un paciente tiene un tumor cerebral, por ejemplo, los médicos pueden superponer un escaneo cerebral de hace varios meses a un escaneo más reciente para analizar pequeños cambios en el progreso del tumor.

Sin embargo, este proceso a menudo puede tomar dos horas o más, ya que los sistemas tradicionales alinean meticulosamente cada uno de los potencialmente millones de píxeles en los escaneos combinados. En un par de próximas ponencias, los investigadores del MIT describen un algoritmo de aprendizaje automático que puede registrar escáneres cerebrales y otras imágenes tridimensionales más de 1.000 veces más rápido utilizando nuevas técnicas de aprendizaje.

El algoritmo funciona mediante el “aprendizaje” al registrar miles de pares de imágenes. Al hacerlo, adquiere información sobre cómo alinear imágenes y estima algunos parámetros de alineación óptimos. Después del entrenamiento, usa esos parámetros para asignar todos los píxeles de una imagen a otra, todo a la vez. Esto reduce el tiempo de registro a uno o dos minutos usando una computadora normal, o menos de un segundo usando una GPU con una precisión comparable a los sistemas de última generación.

“Las tareas de alinear una resonancia magnética cerebral no deberían ser tan diferentes cuando alinee un par de resonancias magnéticas cerebrales u otro”, dice el coautor de ambos artículos Guha Balakrishnan, un estudiante graduado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT ( CSAIL) y el Departamento de Ingeniería e Informática (EECS). “Hay información que debe ser capaz de transmitir en la forma en que realiza la alineación. Si puede aprender algo del registro de imágenes anterior, puede hacer una nueva tarea mucho más rápido y con la misma precisión”.

Los documentos se presentarán en la Conferencia sobre Visión por Computadora y Reconocimiento de Patrones (CVPR),y en la Conferencia de Informática Médica e Intervenciones Asistidas por Computadora (MICCAI), que se realizará en septiembre. Los coautores son: Adrian Dalca, un postdoc en el Hospital General de Massachusetts y CSAIL; Amy Zhao, una estudiante graduada en CSAIL; Mert R. Sabuncu, ex postdoctoral de CSAIL y ahora profesor en la Universidad de Cornell; y John Guttag, profesor Dugald C. Jackson en Ingeniería Eléctrica en el MIT.

Retención de información

Las imágenes por resonancia magnética son básicamente cientos de imágenes en 2D apiladas que forman imágenes tridimensionales masivas, llamadas “volúmenes”, que contienen un millón o más de píxeles 3-D, llamados “vóxeles”. Por lo tanto, es muy lento alinear todos los vóxeles en el primer volumen con esos en el segundo. Además, los escaneos pueden provenir de diferentes máquinas y tener diferentes orientaciones espaciales, lo que significa que el emparejamiento de voxels es aún más compleja desde el punto de vista informático.

“Tienes dos imágenes diferentes de dos cerebros diferentes, los colocas uno encima del otro y comienzas a mover uno hasta que uno se ajuste al otro. Matemáticamente, este procedimiento de optimización lleva mucho tiempo “, dice Dalca, autor principal del artículo de CVPR y autor principal del documento de MICCAI.

Este proceso se vuelve particularmente lento cuando se analizan escaneos de grandes poblaciones. Los neurocientíficos que analizan las variaciones en las estructuras cerebrales de cientos de pacientes con una enfermedad o condición particular, por ejemplo, podrían tomar cientos de horas.

Eso es porque esos algoritmos tienen un defecto importante: nunca aprenden. Después de cada registro, descartan todos los datos relacionados con la ubicación del vóxel. “Básicamente, comienzan de cero con un nuevo par de imágenes”, dice Balakrishnan. “Después de 100 registros, deberías haber aprendido algo de la alineación. Eso es lo que aprovechamos”.

El algoritmo de los investigadores, llamado “VoxelMorph”, está impulsado por una red neuronal convolucional (CNN), un enfoque de aprendizaje automático comúnmente utilizado para el procesamiento de imágenes. Estas redes constan de muchos nodos que procesan imágenes y otra información a través de varias capas de computación.

En el documento de CVPR, los investigadores entrenaron su algoritmo en 7.000 escaneos cerebrales MRI disponibles públicamente y luego lo probaron en 250 escaneos adicionales.

Durante el entrenamiento, los escáneres cerebrales se alimentaron en el algoritmo por parejas. Usando una CNN y una capa de computación modificada llamada transformador espacial, el método captura las similitudes de los vóxeles en una exploración MRI con los vóxeles en la otra exploración. Al hacerlo, el algoritmo aprende información sobre grupos de vóxeles, como las formas anatómicas comunes a ambos escaneos, que utiliza para calcular parámetros optimizados que se pueden aplicar a cualquier par de escaneo.

Cuando se alimentan dos escaneos nuevos, una simple “función” matemática usa esos parámetros optimizados para calcular rápidamente la alineación exacta de cada vóxel en ambos escaneos. En resumen, el componente CNN del algoritmo obtiene toda la información necesaria durante el entrenamiento, de modo que, durante cada nuevo registro, el registro completo puede ejecutarse usando una evaluación de función fácilmente computable.

Los investigadores encontraron que su algoritmo podía registrar con precisión todos sus 250 escáneres cerebrales de prueba, los registrados después del conjunto de entrenamiento, en dos minutos usando una unidad de procesamiento central tradicional y en menos de un segundo usando una unidad de procesamiento de gráficos.

Es importante destacar que el algoritmo es “no supervisado”, lo que significa que no requiere información adicional más allá de los datos de imagen. Algunos algoritmos de registro incorporan modelos CNN pero requieren una “verdad fundamental”, lo que significa que otro algoritmo tradicional se ejecuta por primera vez para computar registros precisos. El algoritmo de los investigadores mantiene su precisión sin esa información.

El documento de MICCAI desarrolla un refinado algoritmo de VoxelMorph que “dice cuán seguros estamos acerca de cada registro”, dice Balakrishnan. También garantiza la “suavidad” de registro, lo que significa que no produce pliegues, agujeros o distorsiones generales en la imagen compuesta. El documento presenta un modelo matemático que valida la precisión del algoritmo utilizando algo llamado puntaje de dados, un estándar métrica para evaluar la precisión de las imágenes superpuestas. En 17 regiones cerebrales, el refinado algoritmo VoxelMorph obtuvo la misma precisión que un algoritmo de registro de última generación comúnmente utilizado, al tiempo que proporciona mejoras metodológicas y de tiempo de ejecución.

Más allá de las exploraciones cerebrales

El algoritmo veloz tiene una amplia gama de aplicaciones potenciales además de analizar escaneos cerebrales, dicen los investigadores. Los colegas de MIT, por ejemplo, actualmente están ejecutando el algoritmo en imágenes de pulmón.

El algoritmo también podría allanar el camino para el registro de imágenes durante las operaciones. Varios escaneos de diferentes calidades y velocidades se usan actualmente antes o durante algunas cirugías. Pero esas imágenes no se registran hasta después de la operación. Al resecar un tumor cerebral, por ejemplo, los cirujanos a veces examinan el cerebro de un paciente antes y después de la cirugía para ver si se han extirpado todo el tumor. Si queda algo, están de vuelta en la sala de operaciones.

Con el nuevo algoritmo, dice Dalca, los cirujanos podrían potencialmente registrar escaneos casi en tiempo real, obteniendo una imagen mucho más clara de su progreso. “Hoy en día, realmente no pueden superponerse a las imágenes durante la cirugía, porque tomará dos horas y la cirugía está en curso”, dice. “Sin embargo, si solo lleva un segundo, puedes imaginar que podría ser factible”.

“Hay mucho trabajo usando las funciones existentes de marcos / funciones de aprendizaje profundo con poca creatividad o imaginación. Este trabajo parte de esa masa de investigación con una formulación muy inteligente de deformación no lineal como problema de aprendizaje … [donde] el aprendizaje lleva horas , pero la aplicación de la red lleva unos segundos “, dice Bruce Fischl, profesor de radiología de la Facultad de Medicina de Harvard y neurocientífico del Hospital General de Massachusetts. “Este es un caso donde un cambio cuantitativo suficientemente grande [de registro de imágenes] – de horas a segundos – se convierte en uno cualitativo, abriendo nuevas posibilidades como ejecutar el algoritmo durante una sesión de escaneo mientras el paciente aún está en el escáner, habilitando la toma de decisiones clínicas sobre qué tipo de datos se deben adquirir y en qué parte del cerebro se debe enfocar sin forzar al paciente a regresar días o semanas después”.

Fischl agrega que su laboratorio, que desarrolla herramientas de software de código abierto para análisis de neuroimágenes, espera usar el algoritmo pronto. “Nuestro mayor inconveniente es el tiempo que nos lleva analizar un conjunto de datos, y con mucho, la parte más intensiva en computación de ese análisis es la deformación no lineal, por lo que estas herramientas son de gran interés para mí”, dice.

Fuente: MIT

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO