COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

La inteligencia artificial se entrena en un laboratorio a través de aprendizaje automático, por lo que cuando se la enfrente al mundo real suele tener bastantes fallas. Científicamente este hecho es conocido como desplazamiento de datos, o data shift.

Pero un grupo de 40 investigadores de siete equipos diferentes de Google ha identificado otra causa importante del fracaso común de los modelos de aprendizaje automático en el mundo real.

Ver más: Google introducirá inteligencia artificial para potenciar las búsquedas

Denominado como underspecification o infraespecificación, podría ser un problema aún mayor que el data shift. El líder del estudio, Alex D’Amour, detalla: “Pedimos más a los modelos de aprendizaje automático de lo que podemos garantizar con nuestro enfoque actual”.

La investigación inicial de D’Amour se extendió y docenas de investigadores de Google terminaron analizando una variedad de diferentes aplicaciones de inteligencia artificial, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural (PLN) y la predicción de enfermedades. Descubrieron que la falta de especificación era la culpable del bajo rendimiento en todas las IA. El problema radica en la forma en la que se entrenan y prueban los modelos de aprendizaje automático, y no existe una solución fácil.

A grandes rasgos, construir un modelo de aprendizaje automático implica entrenarlo con una gran cantidad de ejemplos y luego probarlo con un montón de ejemplos similares que todavía no ha visto. Cuando el modelo pasa la prueba, ya está, funciona.

Ver más: Seis pronósticos para el mercado de la robótica en 2021

Lo que los investigadores de Google señalan es que este enfoque no basta. Este proceso de entrenamiento puede producir muchos modelos diferentes que pasan la prueba pero, (y esta es la parte crucial) estos modelos tendrán algunas diferencias pequeñas y arbitrarias, en función, por ejemplo, de los valores aleatorios dados a los nodos en una red neuronal antes del inicio del entrenamiento, de la forma en la que se seleccionan o representan los datos de entrenamiento, del número de ejecuciones del entrenamiento, etcétera. Estas pequeñas diferencias, a menudo aleatorias, generalmente se pasan por alto si no afectan el desempeño de un modelo en la prueba. Pero, resulta que en el mundo real pueden provocar una gran variación en el rendimiento.

En otras palabras, el proceso actual para construir la mayoría de los modelos de aprendizaje automático no puede determinar qué modelos funcionarán en el mundo real y cuáles no.

D’Amour y sus colegas aún no tienen una solución, pero están explorando formas de mejorar el proceso de entrenamiento. El responsable detalla: “Debemos mejorar a la hora de especificar exactamente cuáles son nuestros requisitos para nuestros modelos. Porque, a menudo, lo que pasa es que descubrimos estos requisitos después de que el modelo ha fallado en el mundo real“.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO