IA explicable para sistemas de produccion ciber-fisicos: una aplicación práctica con el ejemplo del reconocimiento de actividades humanas

Manchado Rubio, Alejandro (2022). IA explicable para sistemas de produccion ciber-fisicos: una aplicación práctica con el ejemplo del reconocimiento de actividades humanas. Thesis (Master thesis), E.T.S.I. Industriales (UPM).

Description

Title: IA explicable para sistemas de produccion ciber-fisicos: una aplicación práctica con el ejemplo del reconocimiento de actividades humanas
Author/s:
  • Manchado Rubio, Alejandro
Contributor/s:
  • Schlund, Sebastian
  • Kostolani, David
Item Type: Thesis (Master thesis)
Masters title: Ingeniería Industrial
Date: March 2022
Subjects:
Faculty: E.T.S.I. Industriales (UPM)
Department: Automática, Ingeniería Eléctrica y Electrónica e Informática Industrial
Creative Commons Licenses: Recognition - No derivative works - Non commercial

Full text

[thumbnail of TFM_ALEJANDRO_MANCHADO_RUBIO.pdf] PDF - Requires a PDF viewer, such as GSview, Xpdf or Adobe Acrobat Reader
Download (595kB)

Abstract

El reciente aumento en complejidad de los productos y de los procesos productivos ha provocado una necesidad de transformación en la industria. El acortamiento en los plazos de desarrollo, la individualización de las necesidades de los clientes, la necesidad de flexibilidad en la empresa, la descentralización, el cambio demográfico son ejemplos de los retos a los que se tienen que enfrentar las empresas actuales. Por ello, se produce el surgimiento de una tecnología innovadora y aparece el concepto de los CPPSs.

Un sistema de producción ciber-físico es aquel en el que los componentes físicos y de software están profundamente entrelazados. Se controlan o supervisan mediante algoritmos informáticos y están estrechamente integrados con Internet. Sin embargo, la evolución de la industria no pretende reemplazar a los trabajadores humanos, si no que colaboren con estos sistemas inteligentes. Para colaborar con los trabajadores en este entorno de producción altamente automatizado es imprescindible el reconocimiento de sus actividades. Por lo tanto, el reconocimiento de actividades humanas, por sus siglas en inglés HAR, es una tarea clave para incorporar el conocimiento del entorno en los CPPSs.

En general, los algoritmos de machine learning utilizados actualmente, y más concretamente, los empleados para aplicaciones HAR son complejos y podrían ser considerados como cajas negras. Ya que es difícil entender cómo los datos introducidos son procesados para obtener el resultado. Sin embargo, en muchas situaciones no podemos permitirnos el lujo de sacrificar la interpretabilidad del modelo. La definición de interpretabilidad está íntimamente relacionada con los conceptos de comprensibilidad y transparencia. La necesidad de transparencia e interpretabilidad en un modelo de ML es crítica para conseguir seguridad. Aporta la posibilidad de extraer información del modelo, de identificar las malas decisiones y por tanto de aumentar la confianza en el modelo, de ayudar en la detección de sesgos, etc. Además, la interpretabilidad en la IA se ha visto motivada recientemente debido al incremento en la concienciación sobre la privacidad y la ciber-seguridad por las numerosas filtraciones de datos, y a la aprobación en 2018 de la UE del Reglamento General de Protección de Datos (GDPR).

El resultado principal que se espera obtener de este trabajo es la expansión del conocimiento sobre la inteligencia artificial explicable. Por ello se pretende responder a la siguiente pregunta: ¿Qué es la interpretabilidad y por qué es importante para la producción centrada en el ser humano? Para ello se aportarán argumentos a favor de la aplicación de esta tecnología concretamente en aplicaciones de reconocimiento de actividades. La revisión del estado del arte nos servirá como base para la implementación de la parte práctica. Además, se proporcionará información acerca de los métodos actualmente usados, y de las herramientas existentes para aportar interpretabilidad a los modelos tratando de responder a la siguiente pregunta: ¿Cómo conseguir la interpretabilidad y la explicabilidad en los modelos usados normalmente para el reconocimiento de actividades? Finalmente, con los resultados obtenidos de la parte práctica se pretende responder a la última pregunta: ¿Cómo puede ayudar la IA explicable a mejorar el diseño de los modelos de HAR para aplicaciones en CPPSs? Con esta pregunta, este trabajo aspira a obtener una metodología realista y replicable para mejorar las tareas de reconocimiento de actividades. También se evaluará si el algoritmo puede obtener un rendimiento parecido si se omiten los datos menos relevantes, de manera que se optimice la precisión mientras y a la vez se mantenga la privacidad de los datos del trabajador

More information

Item ID: 70317
DC Identifier: https://oa.upm.es/70317/
OAI Identifier: oai:oa.upm.es:70317
Deposited by: Biblioteca ETSI Industriales
Deposited on: 25 Jan 2023 11:46
Last Modified: 25 Feb 2023 23:30
  • Logo InvestigaM (UPM)
  • Logo GEOUP4
  • Logo Open Access
  • Open Access
  • Logo Sherpa/Romeo
    Check whether the anglo-saxon journal in which you have published an article allows you to also publish it under open access.
  • Logo Dulcinea
    Check whether the spanish journal in which you have published an article allows you to also publish it under open access.
  • Logo de Recolecta
  • Logo del Observatorio I+D+i UPM
  • Logo de OpenCourseWare UPM