Modelos de ML para detectar afecciones cerebrales

Los investigadores del Instituto de Tecnología de Massachusetts (Massachusetts Institute of Technology, MIT) han ideado un método novedoso para recopilar más información de las imágenes utilizadas y entrenar modelos de Aprendizaje Automático (Machine Learning, ML).

Este método de entrenamiento de ML incluye aquellos modelos que pueden analizar exploraciones médicas para ayudar a diagnosticar y tratar afecciones cerebrales.

Una nueva área activa en Medicina implicaría la capacitación de modelos de Aprendizaje Profundo (Deep Learning, DL) para detectar patrones estructurales en escáneres cerebrales asociados con enfermedades y trastornos neurológicos, como la enfermedad de Alzheimer y la esclerosis múltiple.

“Pero, recopilar los datos de entrenamiento es laborioso: todas las estructuras anatómicas en cada exploración deben estar delineadas por separado o etiquetadas a mano por expertos en neurología».

En la Conferencia sobre Visión por Computador y Reconocimiento de Patrones, los investigadores del MIT han presentado un artículo que describe un sistema que utiliza un solo escaneo etiquetado, junto con escaneos no etiquetados, para sintetizar automáticamente un conjunto de datos masivo de distintos ejemplos de entrenamiento.

El conjunto de datos se podría entonces utilizar para entrenar mejor los modelos de ML y encontrar estructuras anatómicas en nuevos escaneos. Así, cuantos más datos de entrenamiento, mejores serían las predicciones.

El punto crucial del trabajo sería la generación automática de datos para el proceso de “segmentación de imagen”, que divide una imagen en regiones de píxeles que son más significativas y fáciles de analizar.

Para hacerlo, se ha explicado que el sistema utiliza una Red Neuronal Convolucional (CNN), que no es más que un modelo de ML que se ha convertido en una fuente inagotable de tareas de procesamiento de imágenes.

La red posee la capacidad de analizar una gran cantidad de exploraciones sin etiquetar, de diferentes pacientes y diferentes equipos, para “aprender” las variaciones anatómicas, de brillo y de contraste.

“Luego, aplica una combinación aleatoria de esas variaciones aprendidas a un solo escaneo etiquetado para sintetizar nuevos escaneados que son realistas y están etiquetados con precisión».

Estas exploraciones recién sintetizadas se incorporarían a una CNN diferente que aprende a segmentar nuevas imágenes.

Segmentación de imágenes

Amy Zhao, primera autora de la investigación, además de estudiante graduada en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) y el Laboratorio de Informática e Inteligencia Artificial (CSAIL), espera que esto haga que la segmentación de imágenes sea más accesible en situaciones realistas en las que no se tiene mucha información de capacitación.

“En nuestro enfoque, puede aprender a imitar las variaciones en escaneos sin etiqueta para sintetizar de manera inteligente un gran conjunto de datos para capacitar a su red”.

También ha adelantado que existe el interés de usar el sistema para ayudar a entrenar modelos de análisis predictivo en el Hospital General de Massachusetts, donde solo pueden existir una o dos exploraciones etiquetadas de afecciones cerebrales particularmente infrecuentes en pacientes infantiles.

Junto a Zhao, en el papel están Guha Balakrishnan, con postdoctorado en EECS y CSAIL; Fredo Durand y John Guttag, profesores de EECS; y Adrian Dalca, autor principal, quien también es miembro de la Facultad de Radiología en la Escuela de Medicina de Harvard.

Aunque ahora se ha aplicado a imágenes médicas, el sistema realmente ha comenzado como un medio para sintetizar datos de entrenamiento para una aplicación de teléfono inteligente, que podría identificar y recuperar información sobre las tarjetas del popular juego de cartas coleccionables, “Magic: The Gathering”.

Precisión del modelo

Los investigadores del MIT, para probar la precisión de la segmentación automatizada, han utilizado las puntuaciones de los dados que miden qué tan bien se ajusta una forma 3D a otra, en una escala de 0 a 1.

Luego, han comparado su sistema con los métodos de segmentación tradicionales (manual y automatizado) en 30 diferentes estructuras cerebrales, a través de 100 exploraciones de prueba prolongadas.

Las estructuras grandes fueron comparativamente exactas entre todos los métodos, pero el sistema de los investigadores ha superado a todos los otros enfoques en estructuras más pequeñas, como el hipocampo, que ocupa solo alrededor del 0,6 % de un cerebro, por volumen.

Para Zhao, “eso demuestra que nuestro método mejora con respecto a otros métodos, especialmente a medida que te adentras en las estructuras más pequeñas.

A su juicio, esto puede ser muy importante para comprender la enfermedad. «Y lo hicimos mientras solo necesitábamos un solo escáner etiquetado a mano”.