COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Microsoft adquirió Semantic Machines para mejorar las habilidades de conversación de bots y asistentes inteligentes mediante el uso de inteligencia artificial (IA), con el fin de abrir un centro de excelencia de Inteligencia Artificial.

En una publicación de blog David Ku, CTO de Microsoft AI and Research, dijo que el trabajo de Semantic Machines “utiliza el poder del aprendizaje automático para permitir a los usuarios descubrir, acceder e interactuar con información y servicios de una manera mucho más natural y con significativamente menos esfuerzo.”

La apertura de un centro de excelencia de Inteligencia Artificial conversacional en Berkeley, California (donde se basa Semantic Machines) “impulsará los límites de lo que es posible en las interfaces de idiomas”, afirmó Ku.

El equipo de Semantic Machines incluye al ex jefe de cómputo de Apple, Larry Gillick; empresario tecnológico Dan Roth; y dos investigadores de AI de lenguaje natural: la Universidad de California, el profesor de Berkeley Dan Klein y el profesor de la Universidad de Stanford Percy Liang.

Más de 1 millón de desarrolladores usan Microsoft Cognitive Services y alrededor de 300,000 usan su Azure Bot Service para hacer que la informática sea más conversacional.

Los detalles financieros del acuerdo no fueron revelados.

El gigante tecnológico cree que para una comunicación rica y efectiva, los asistentes inteligentes deben ser capaces de tener un diálogo natural en lugar de solo responder a comandos simples.

En el blog, Ku explicó que está desarrollando AI conversacional con su asistente digital Cortana, así como con chatbots sociales como XiaoIce.

XiaoIce ya ha tenido más de 30 mil millones de conversaciones, con un promedio de hasta 30 minutos cada una, con 200 millones de usuarios en distintas plataformas en China, Japón, EE. UU., India e Indonesia.

“Con XiaoIce y Cortana, hemos logrado avances en el reconocimiento de voz y, más recientemente, nos hemos convertido en los primeros en añadir sentido de voz de dúplex completo a un sistema de conversación AI, lo que permite a las personas mantener una conversación de forma natural”, explicó Ku.

La semana pasada, su rival Google aclaró que advertirá a los humanos cuando interactúen con su nuevo sistema Duplex, respondiendo a una protesta en torno a la capacidad basada en inteligencia artificial que está diseñada para imitar la voz humana para realizar ciertas tareas.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO