COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

La visión de rayos X ha parecido desde hace mucho tiempo una fantasía de ciencia ficción descabellada, pero en la última década un equipo dirigido por la profesora Dina Katabi del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT nos ha acercado continuamente para ver a través de las paredes.

Su último proyecto, “RF-Pose”, usa inteligencia artificial (AI) para enseñar a los dispositivos inalámbricos a sentir las posturas y el movimiento de las personas, incluso desde el otro lado de la pared.

Los investigadores usan una red neuronal para analizar las señales de radio que rebotan en los cuerpos de las personas y luego pueden crear una figura dinámica que camina, se detiene, se sienta y mueve las extremidades a medida que la persona realiza esas acciones.

El equipo dice que RF-Pose podría usarse para controlar enfermedades como el Parkinson, la esclerosis múltiple (EM) y la distrofia muscular, proporcionando una mejor comprensión de la progresión de la enfermedad y permitiendo a los médicos ajustar los medicamentos en consecuencia. También podría ayudar a las personas mayores a vivir de manera más independiente, al tiempo que proporciona la seguridad adicional de monitorear las caídas, las lesiones y los cambios en los patrones de actividad. Actualmente, el equipo está trabajando con médicos para explorar las aplicaciones de RF-Pose en el cuidado de la salud.

Todos los datos que el equipo recopiló tienen el consentimiento de los sujetos y se anonimizan y encriptan para proteger la privacidad del usuario. Para futuras aplicaciones en el mundo real, planean implementar un “mecanismo de consentimiento” en el que la persona que instala el dispositivo tiene la instrucción de hacer un conjunto específico de movimientos para que pueda comenzar a monitorear el entorno.

“Hemos visto que monitorear la velocidad de caminar de los pacientes y la capacidad de realizar actividades básicas por sí solos les da a los proveedores de atención médica una ventana en sus vidas que no tenían antes, lo que podría ser significativo para toda una gama de enfermedades”, dice Katabi, quien co-escribió un nuevo documento sobre el proyecto. “Una ventaja clave de nuestro enfoque es que los pacientes no tienen que usar sensores ni recordar cargar sus dispositivos”.

Además del cuidado de la salud, el equipo dice que RF-Pose también podría usarse para nuevas clases de videojuegos donde los jugadores se mueven por la casa, o incluso en misiones de búsqueda y rescate para ayudar a localizar a los sobrevivientes.

Katabi co-escribió el nuevo documento con el estudiante de doctorado y autor principal Mingmin Zhao, el profesor del MIT Antonio Torralba, el postdoc Mohammad Abu Alsheikh, el estudiante de posgrado Tianhong Li y los estudiantes de doctorado Yonglong Tian y Hang Zhao. Lo presentarán más adelante este mes en la Conferencia sobre Visión por Computadora y Reconocimiento de Patrones (CVPR) en Salt Lake City, Utah.

Un desafío que los investigadores tuvieron que abordar es que la mayoría de las redes neuronales se entrenan usando datos etiquetados a mano. Una red neuronal entrenada para identificar gatos, por ejemplo, requiere que las personas observen un gran conjunto de datos de imágenes y etiqueten cada una de ellas como “gato” o “no gato”. Las señales de radio, mientras tanto, no pueden ser etiquetadas fácilmente por humanos.

Para abordar esto, los investigadores recogieron ejemplos usando tanto su dispositivo inalámbrico como una cámara. Reunieron miles de imágenes de personas que realizan actividades como caminar, hablar, sentarse, abrir puertas y esperar ascensores.

Luego usaron estas imágenes de la cámara para extraer las figuras de barras, que mostraron a la red neuronal junto con la señal de radio correspondiente. Esta combinación de ejemplos permitió que el sistema aprendiera la asociación entre la señal de radio y las figuras de las personas en la escena.

Después del entrenamiento, RF-Pose pudo estimar la postura y los movimientos de una persona sin cámaras, utilizando solo los reflejos inalámbricos que rebotan en los cuerpos de las personas.

Dado que las cámaras no pueden ver a través de las paredes, la red nunca fue entrenada explícitamente en datos del otro lado de la pared, lo que hizo que fuera particularmente sorprendente para el equipo del MIT que la red pudiera generalizar su conocimiento para poder manejarlo.

“Si piensas en el sistema de visión por computadora como el maestro, este es un ejemplo verdaderamente fascinante de que el alumno supera al maestro”, dice Torralba.

Además de detectar movimiento, los autores también demostraron que podían usar señales inalámbricas para identificar con precisión a alguien el 83 por ciento del tiempo de una fila de 100 personas. Esta capacidad podría ser particularmente útil para la aplicación de operaciones de búsqueda y rescate, cuando puede ser útil conocer la identidad de personas específicas.

Para este documento, el modelo genera una figura en 2-D, pero el equipo también está trabajando para crear representaciones tridimensionales que podrían reflejar micromovimientos aún más pequeños. Por ejemplo, podría ser capaz de ver si las manos de una persona mayor tiemblan con la regularidad suficiente como para que quieran hacerse un chequeo.

“Al utilizar esta combinación de datos visuales e inteligencia artificial para ver a través de las paredes, podemos permitir una mejor comprensión de la escena y entornos más inteligentes para vivir vidas más seguras y productivas”, dice Zhao.

Fuente: MIT

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO