COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

La  IA (inteligencia artificial) se describe en términos de  algoritmos informáticos que usan nuestros cerebros para aprender y razonar sobre el mundo, creando superhumanos inteligentes que hacen que sus creadores humanos se vuelvan obsoletos rápidamente. La realidad no podría estar más lejos de la verdad. A medida que el aprendizaje profundo pasa del laboratorio al uso de producción en campos de misión crítica, desde la medicina hasta los autos sin conductor, debemos reconocer sus limitaciones muy reales ya que son nada más que un montón de código de software y estadísticas, en lugar de las inteligencias de aprendizaje y pensamiento como nos quieren hacer creer.

Cada día, los científicos de datos construyen algoritmos de aprendizaje automático para dar sentido al mundo y aprovechar grandes pilas de datos en información comercial. Como herramientas de asistencia de máquinas guiadas, funcionan como el gran equipo de observación clásico de las ciencias tradicionales, los microscopios y los telescopios en la sociedad. Sin embargo, un físico no proclama que su software de análisis esté vivo dándole vida a  sus propios pensamientos sobre el universo. Hacen una lista del algoritmo que utilizaron para analizar su conjunto de datos y hablar sobre cómo y por qué surgió un nuevo hallazgo. Para ellos, sin importar qué tan avanzado esté el software, todavía es estrictamente un algoritmo estadístico que encontró un patrón en los datos a través de estadísticas y programas.

En contraste, los científicos de datos a menudo tratan sus creaciones algorítmicas como si estuvieran vivas, proclamando que su algoritmo “aprendió” una nueva tarea, en lugar de simplemente inducir un conjunto de patrones estadísticos a partir de un conjunto de datos de entrenamiento seleccionados a mano bajo el control directo y la supervisión de un programador humano que eligió qué algoritmos, parámetros y flujos de trabajo para construirlo.

Los algoritmos que utilizan estadísticas para extrapolar los datos de entrenamiento conocidos para crear resultados inesperados se dice que han “creado” algo nuevo y se etiquetan de inmediato como entidades sobrehumanas que seguramente traerán el final de la vida humana como la conocemos. ¿Por qué un pasaje de texto “creado” por una red neuronal es diferente de uno “generado” a través de un modelo de probabilidad clásico tradicional?

Los algoritmos de confrontación generativos se describen como titanes sobrehumanos que luchan por más resultados en pocas horas que toda la humanidad desde el principio de la historia.

Más peligrosamente, tomamos algoritmos exitosos y asignamos historias a sus éxitos que extrapolan mucho más allá de lo que realmente hicieron. Se dice que una red neuronal que distingue correctamente a una raza de perros de otras “aprendió” las características biológicas innatas de esa raza. En realidad, simplemente se ha dado cuenta de que todos los ejemplos de esa raza llevaban collares rojos en el conjunto de datos de entrenamiento. De hecho, la red neuronal subyacente no comprende realmente lo que es un “perro” o una “raza” o “rojo” o un “collar”. Simplemente asocia agrupaciones espaciales específicas de colores y texturas con determinadas líneas de texto. Se aleja demasiado de los ejemplos que ha visto en el pasado y falla, con consecuencias desastrosas si se realiza una prueba de detección de cáncer o conduce un automóvil con pasajeros humanos.

Pocos clasificadores de imagen de IA son capaces de un razonamiento genuino. La capacidad de tomar una imagen de un objeto artificial totalmente desconocido y determinar qué podría ser, basado en sus características semánticas, como la presencia de una batería, un LED, un circuito de conducción y un interruptor de gran tamaño, no es factible. Los algoritmos de aprendizaje profundo de hoy en día, solo ven combinaciones de formas y texturas, no la presencia de una batería que indica una fuente de alimentación portátil y la combinación con un LED, un convertidor y un interruptor como lo sugiere una linterna. Algunos sistemas pueden aprender asociaciones básicas que pueden usarse para aproximar aspectos de este proceso descriptivo, pero los sistemas actuales son incapaces de un verdadero razonamiento de alto nivel sobre el mundo que los rodea.

Una red neuronal de hoy no más “aprende” o “razona” sobre el mundo a partir de una regresión lineal del pasado. Simplemente inducen patrones a través de las estadísticas. Esos patrones pueden ser mediados y más automáticos que los enfoques pasados y capaces de representar fenómenos estadísticos más complejos, pero siguen siendo simplemente encarnaciones matemáticas, no entidades inteligentes, sin importar cuán espectaculares sean sus resultados.

Ya sean redes neuronales, Naïve Bayes (un clasificador de estadísticas)o simplemente regresión lineal, los científicos de datos entrenan sus modelos de aprendizaje automático con grandes grupos de ejemplos de entrenamiento cuidadosamente construidos y luego afirman que sus algoritmos han “aprendido” sobre el mundo. Sin embargo, el aprendizaje automático es en realidad simplemente otra forma de instrucción automática, diferente de la codificación manual de reglas pura, pero aún así guiada, con los algoritmos y flujos de trabajo ajustados manualmente para cada aplicación.

Esto nos debería interesar porque a medida que implementamos cada vez más sistemas de inteligencia artificial en aplicaciones de misión crítica que afectan directamente a la vida humana, desde automóviles sin conductor hasta medicamentos, debemos entender sus limitaciones y su fragilidad para poder comprender adecuadamente sus riesgos.

Al darle “vida” a la inteligencia artificial estamos perdiendo de foco que son simples representaciones estadísticas de patrones de datos, perdemos la pista de sus limitaciones reales y pensamos en ellas en términos de hipérboles utópicas en lugar del cálculo de riesgo real necesario para garantizar su integración segura y firme en nuestras vidas.

La inteligencia artificial, como la conocemos hoy en día, es solo una herramienta más para entender el mundo y mientras no caigamos en el encandilamiento que nos quieren vender, la estaremos usando para beneficio de la humanidad, sin caer en la trampa.

Fuente: Forbes, TyN Magazine

 

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO