Inteligencia artificial de alto, medio y bajo riesgo: la UE busca regular y proteger a los ciudadanos

La Inteligencia Artificial ya es parte de nuestra vida cotidiana. Algoritmos, chabots, “machine learning” o “deep learning” de mayor o menor complejidad, todos tienen un factor en común: la necesidad de regulación en cuestiones de ética y privacidad.

“Con la reglamentación se busca regular los usos de este tipo de tecnología para evitar abusos. Se aspira a regular los usos permitidos de los mecanismos de inteligencia artificial (IA), y se establecen prohibiciones para usos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva. El fin es clasificar los sistemas según su uso para que aquellos designados como de alto riesgo pasen a tener una mayor supervisión.” comenta Juan Pablo Coletti, Latam Director Of international Strategy Partners de Dahua Technology.

Ver más: Cómo preparar tu empresa para la implementación de un chatbot

La Unión Europea es la punta de lanza de este estudio. El Consejo Europeo de Inteligencia Artificial es un organismo integrado por expertos en IA de todos los países miembros de la UE, que decidirán qué sistemas se consideran de alto riesgo y posibles cambios de regulación. Busca asegurar que se disponga de supervisión humana y que los sistemas no se hayan entrenado con datos sesgados. ¿Cómo saber si las aplicaciones que utilizamos en nuestro teléfono son de alto riesgo? Esta es la clasificación propuesta:

  • Sistemas IA prohibidos: son aquellos que propicien la manipulación del comportamiento humano provocando perjuicios; o utilizan información personal para detectar las vulnerabilidades de los sujetos. Un ejemplo podría ser la utilización de las autoridades públicas de deep fakes, como videos donde se vea alterada su imagen y su voz para transmitir mensajes falsos.
  • Sistemas IA de alto riesgo: “comprenden una gran cantidad de actividades entre las que se encuentran las utilizadas en la administración y operación de infraestructura crítica. Por ejemplo, accesos biométricos con detección facial para plantas de energía o espacios restringidos. La seguridad en los procesos productivos y en la seguridad física, se basa en la “redundancia”. Todos los sistemas pueden fallar. Por eso todas las soluciones deben contar con redundancia. En el caso de los accesos biométricos, realizan cross reference con Biometría Facial y con la tarjeta IR. Los perímetros de un predio industrial, cuentan con al menos dos líneas de tecnología redundante, como las cámaras térmicas y cámaras IP instaladas en línea.” explica Coletti.
  • Sistemas IA de uso sujeto a condiciones o medio: Son los que  conllevan obligaciones específicas de transparencia. “Es el caso de los asistentes conversacionales chatbots que interactúan con personas en situaciones como plataformas conversacionales como un e-commerce, por ejemplo.” completa el Director Of international Strategy Partners de Dahua Technology.
  • Sistemas IA de riesgo mínimo. La Comisión considera que la gran mayoría de los sistemas de IA entran en esta categoría. Permite el libre uso de aplicaciones de sistemas inteligentes en videojuegos con IA. “También los sistemas utilizados para filtro de spams o en sistemas automatizados de publicidad que no ponen ninguna obligación relevante entran en esta categoría” indica Coletti.

Ver más: El GPS nos está haciendo más tontos

El objetivo es regular en pos de proteger a las personas y a los ciudadanos. “En el caso de las empresas de la industria, todos debemos estar certificados y habilitados para lidiar con este tipo de tecnología. Dahua Technology hace foco sobre la privacidad de las personas y el uso de los datos personales, además de contar con todas las certificaciones globales y locales de ciberseguridad y de utilización de datos, exige a sus empleados los estándares más altos de la industria en términos de certificación. En Dahua Technology realizamos rigurosos exámenes y cursos vinculados a estos puntos sensibles.” finaliza Coletti.