COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Hace diez años, si mencionabas el término “inteligencia artificial” en una sala de juntas, hay muchas posibilidades de que se hayan reído. Para la mayoría de las personas, recordaría máquinas inteligentes de ciencia ficción como 2001: A Space Odyssey’s HAL o Star Trek’s Data.
Hoy es una de las palabras de moda más populares en los negocios y la industria. La tecnología de IA es un eje crucial de gran parte de la transformación digital que tiene lugar hoy en día, ya que las organizaciones se posicionan para capitalizar la cantidad cada vez mayor de datos que se generan y recopilan.

Entonces, ¿cómo se ha producido este cambio? Bueno, en parte se debe a la revolución de Big Data en sí. El exceso de datos ha llevado a una investigación intensificada sobre las formas en que se puede procesar, analizar y actuar. Para que las máquinas se adaptaran mucho mejor que los humanos a este trabajo, el objetivo era entrenar a las máquinas para que hicieran esto de la manera más “inteligente” posible.
Este mayor interés en la investigación en el campo, en la academia, la industria y entre la comunidad de código abierto que se encuentra en el medio, ha llevado a avances que muestran su potencial para generar un tremendo cambio. Desde la atención médica hasta los autos autónomos y la predicción del resultado de los casos legales.

¿Qué es la inteligencia artificial?
El concepto de lo que define la IA ha cambiado con el tiempo, pero en el fondo siempre ha existido la idea de construir máquinas que sean capaces de pensar como los humanos.
Después de todo, los seres humanos han demostrado ser excepcionalmente capaces de interpretar el mundo que nos rodea y utilizar la información que recogemos para lograr un cambio. Si queremos construir máquinas que nos ayuden a hacer esto de manera más eficiente, entonces tiene sentido usarnos a nosotros mismos como modelo.

Entonces, se puede pensar que la IA simula la capacidad de pensamiento abstracto, creativo y deductivo, y particularmente la capacidad de aprender a lo que esto da lugar, utilizando la lógica digital y binaria de las computadoras.
El trabajo de investigación y desarrollo en IA se divide entre dos ramas. Uno está etiquetado como “IA aplicada”, que utiliza estos principios de simulación del pensamiento humano para llevar a cabo una tarea específica. El otro se conoce como “IA generalizada”, que busca desarrollar inteligencias de máquina que pueden dirigir sus manos a cualquier tarea, al igual que una persona.
La investigación sobre IA aplicada y especializada ya está proporcionando avances en los campos de estudio desde la física cuántica, donde se usa para modelar y predecir el comportamiento de sistemas compuestos por miles de millones de partículas subatómicas, hasta la medicina, donde se usa para diagnosticar pacientes con base en datos genómicos.

En la industria, se emplea en el mundo financiero para usos que van desde la detección de fraudes hasta la mejora del servicio al cliente al predecir qué servicios necesitarán los clientes. En la fabricación, se usa para administrar la fuerza de trabajo y los procesos de producción, así como para predecir fallas antes de que ocurran, lo que permite el mantenimiento predictivo.
En el mundo del consumidor, cada vez más de la tecnología que estamos adoptando en nuestra vida cotidiana se está volviendo potenciada por la inteligencia artificial, desde asistentes de teléfonos inteligentes como Siri de Apple y Google Assistant de Google, hasta autos autónomos que muchos predicen que superarán en número a los automóviles de manejo manual.
La IA generalizada está un poco más lejos: para llevar a cabo una simulación completa del cerebro humano se requeriría tanto una comprensión más completa del órgano que la que tenemos actualmente, y más potencia de cómputo de la que comúnmente están disponibles para los investigadores. Pero ese puede no ser el caso por mucho tiempo, dada la velocidad con la que la tecnología informática está evolucionando. Una nueva generación de tecnología de chip de computadora conocida como procesadores neuromórficos se está diseñando para ejecutar de manera más eficiente el código del simulador cerebral. Y sistemas como la plataforma de computación cognitiva Watson de IBM utilizan simulaciones de alto nivel de procesos neurológicos humanos para llevar a cabo una gama cada vez mayor de tareas sin que se les enseñe específicamente cómo hacerlas.
¿Cuáles son los desarrollos clave en IA?
Todos estos avances han sido posibles debido al enfoque en imitar los procesos de pensamiento humano. El campo de investigación que ha sido más fructífero en los últimos años es lo que se conoce como “aprendizaje automático”. De hecho, se ha vuelto tan integral para la IA contemporánea que los términos “inteligencia artificial” y “aprendizaje automático” a veces se usan indistintamente.

Sin embargo, este es un uso impreciso del lenguaje, y la mejor manera de pensarlo es que el aprendizaje automático representa el estado actual de la técnica en el campo más amplio de la IA. La base del aprendizaje automático es que, en lugar de tener que aprender a hacer todo paso a paso, las máquinas, si pueden programarse para pensar como nosotros, pueden aprender a trabajar observando, clasificando y aprendiendo de sus errores, tal como lo hacemos nosotros.
La aplicación de la neurociencia a la arquitectura del sistema de TI ha llevado al desarrollo de redes neuronales artificiales, y aunque el trabajo en este campo ha evolucionado durante el último medio siglo, es solo recientemente, que existen las computadoras con la potencia adecuada para hacer que la tarea sea una realidad cotidiana para cualquiera, excepto aquellos con acceso a las herramientas especializadas más caras.
Quizás el factor más importante ha sido la explosión de datos que se ha desatado desde que la sociedad dominante se fusionó con el mundo digital. Esta disponibilidad de datos, desde cosas que compartimos en las redes sociales hasta datos de máquinas generados por maquinaria industrial conectada, significa que las computadoras ahora tienen un universo de información disponible para ayudarles a aprender de manera más eficiente y tomar mejores decisiones.

¿Cuál es el futuro de la IA?
Los temores reales de que el desarrollo de inteligencia que iguale o supere la nuestra, pero que tenga la capacidad de trabajar a velocidades mucho más altas, podría tener implicaciones negativas para el futuro de la humanidad, y no solo por la ciencia ficción apocalíptica como The Matrix o Terminator, pero respetados científicos como Stephen Hawking.
Incluso si los robots no nos erradican ni nos convierten en baterías vivas, un escenario menos dramático pero aún de pesadilla es que la automatización del trabajo (tanto mental como físico) conducirá a un cambio social profundo, tal vez para mejor o tal vez para peor.
Esta preocupación comprensible ha llevado a la fundación el año pasado de la Asociación de IA, dado el gran avance de los gigantes tecnológicos, incluidos Google, IBM, Microsoft, Facebook y Amazon. Este grupo investigará y abogará por implementaciones éticas de IA y establecerá pautas para futuras investigaciones y despliegues de robots e IA.

Fuente: Forbes

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO