Aprendizaje en robots sociales

Irusta Gonzalo, Koro (2017). Aprendizaje en robots sociales. Proyecto Fin de Carrera / Trabajo Fin de Grado, E.T.S.I. Industriales (UPM).

Descripción

Título: Aprendizaje en robots sociales
Autor/es:
  • Irusta Gonzalo, Koro
Director/es:
  • Galán López, Ramón
Tipo de Documento: Proyecto Fin de Carrera/Grado
Grado: Grado en Ingeniería en Tecnologías Industriales
Fecha: Septiembre 2017
Materias:
Palabras Clave Informales: Control inteligente, robots sociales, ingeniería emocional, interacción humano robot, modelo emocional
Escuela: E.T.S.I. Industriales (UPM)
Departamento: Automática, Ingeniería Eléctrica y Electrónica e Informática Industrial
Licencias Creative Commons: Reconocimiento - Sin obra derivada - No comercial

Texto completo

[img]
Vista Previa
PDF (Document Portable Format) - Se necesita un visor de ficheros PDF, como GSview, Xpdf o Adobe Acrobat Reader
Descargar (3MB) | Vista Previa

Resumen

Desde los años 60, han surgido diversas formas de modelar el conocimiento, como es el caso de las redes semánticas, que consisten en la representación del conocimiento a través de un grafo en el que se relacionan los conceptos. En consecuencia, uno de los objetivos del aprendizaje automático, en lo relativo a la ciencia de la computación, es desarrollar técnicas que permitan a las computadoras aprender. En otras palabras, se trata de desarrollar programas con la capacidad de generalizar comportamientos a partir de una información no estructurada en forma de ejemplos, tratándose de una disciplina que se basa en el análisis de datos. Es, por tanto, un proceso de inducción de conocimiento que trata el estudio de la complejidad computacional de los problemas. Actualmente, la investigación en el campo del aprendizaje automático gira en torno a tres temas, fundamentalmente. El primero son los estudios orientados a tareas, en los que se parte de una tarea y se analizan los sistemas de aprendizaje aplicados para mejorar el desarrollo de la misma. Otro es la exploración teórica de los métodos de aprendizaje existentes independientemente de la tarea que se quiera desarrollar con ellos. Por último, se encuentra la simulación cognoscitiva, que es la investigación y simulación informática del proceso de aprendizaje humano. Cabe destacar que en el aprendizaje automático es posible obtener tres tipos de conocimiento. Por un lado está el crecimiento, se trata del conocimiento que se va adquiriendo del entorno y se almacena en la memoria; por otro lado, la reestructuración, que se produce cuando el individuo razona al interpretar la información y que genera un nuevo conocimiento. Y por último el ajuste, que se obtiene cuando se generalizan varios conceptos o se generan nuevos conceptos propios. El objetivo de este trabajo es la creación de una base de conocimiento, en este caso en forma de ontología, a través de un aprendizaje automático. El término ontología proviene del griego y significa conocimiento del ser. Se trata de un término tomado de la filosofía, en la cual la ontología es una rama de la metafísica que estudia cualquier cosa que es o existe. Esta rama de la metafísica se ocupa del estudio de varios tipos de existencia, haciendo especial hincapié en las relaciones entre lo particular y lo universal, la esencia y la existencia. Además, el objetivo de este tipo de análisis consiste en dividir el mundo en conjuntos para descubrir las categorías en las cuales los objetos del mundo están naturalmente. Sin embargo, el término ontología en el campo de la informática, que es el que nos ocupa, ha adoptado unas connotaciones alejadas de este sentido filosófico original. Desde principios de la década de 1990 han proliferado numerosas definiciones de dicho término. Una de las primeras definiciones es la acuñada por Neches y otros en 1991 quienes afirmaron lo siguiente: "Una ontología define los términos básicos y relaciones que constituyen el vocabulario del área de un tema, así como las reglas para combinar términos y relaciones para definir extensiones del vocabulario." En la citada definición se establece qué hacer para construir una ontología y que no sólo se incluyen términos en ella, sino que también el conocimiento puede ser inferido. Sin embargo, la definición más citada y extendida ha sido la dada por Tom Gruber en 1993: "Una ontología es una especificación explícita de una conceptualización. El término proviene de la filosofía, donde una ontología es un recuento sistemático de la existencia. En sistemas de Inteligencia Artificial, lo que existe es lo que puede ser representado." En resumen, podemos concluir que una ontología es un esquema conceptual dentro de uno o varios dominios, con la finalidad de facilitar la comunicación entre sistemas o entidades, que posibilita almacenar, buscar y recuperar información. Además, define los términos y las relaciones básicas para la comprensión de un área de conocimiento, así como las reglas que permiten combinar los diferentes términos para definir un vocabulario. A pesar del rigor de las definiciones anteriores, es posible afirmar que todos poseemos ontologías en nuestro cerebro en las cuales se representa lo que se observa a nuestro alrededor. Por ejemplo, cuando citamos avión en nuestra mente estamos representando un medio de transporte que vuela. Esto normalmente no se formaliza debido a que todos entendemos este tipo de conceptos y de asociaciones, sin embargo, las máquinas carecen de estas ontologías y es necesario desarrollarlas en documentos o con diferentes metodologías y métodos para que, las máquinas, sean capaces de entender mejor el mundo y de comunicarse. Para la creación de una ontología se requiere un lenguaje lógico y formal. En este caso, se ha utilizado el lenguaje OWL, Ontology Web Language, que está basado en el lenguaje RDF pero posee una mayor capacidad expresiva. Surge como revisión al lenguaje DAML-OIL para que sirva como estándar para los investigadores de la Web semántica. El OWL es el resultado del trabajo del Web Ontology Working Group (W3C), que se formó en noviembre de 2001. Uno de sus principales usos deriva de la necesidad de la información almacenada en los documentos de ser procesada bien por programas o bien por aplicaciones. Este lenguaje también utiliza el modelo de tripletas del RDF, aunque con un mayor poder expresivo puesto que se puede utilizar tanto para representación de los términos como de las relaciones entre los mismos, fundamental a la hora de realizar una ontología. Además incluye propiedades como restricciones entre clases, inclusiones o equivalencias, así como alguna funcionalidad para el razonamiento que amplían el lenguaje RDF y sobre todo, sus usos. También permite expresar la cardinalidad, es decir, el número de elementos que puede componer una clase, o un objeto. OWL se separó en tres versiones distintas en función de su expresividad semántica, siendo éstas OWL Lite, la versión más simple que extiende RDF y reúne las características más comunes de OWL, por lo que está destinada a quienes quieren crear clases y utilizar las relaciones más sencillas; OWL DL, que incluye el vocabulario completo de OWL y por último OWL Full que incluye todo el vocabulario y carece de limitaciones para explorar su potencial. Además, este lenguaje permite la interoperabilidad y posee propiedades que facilitan la importación y exportación de clases, algo que resulta sumamente útil cuando se integran o se mezclan diversas ontologías. Asimismo, las ontologías que se crean con OWL son documentos web y por tanto, se referencian gracias a un identificador de recursos uniforme (URI), aspecto fundamental, puesto que esto permite la distribución de la ontología que se desarrolle. También es necesario un editor de ontologías. En este caso, se ha seleccionado Protégé, herramienta gratuita creada en la Universidad de Stanford y probablemente la herramienta de construcción de ontologías más utilizada. Se trata de una herramienta de software integrado, de código abierto, que permite la creación de sistemas basados en el conocimiento. Sus primeras versiones datan de 1998. Con esta herramienta se puede crear una ontología, insertar datos en la misma y hasta optimizar los datos de entrada. Además el editor posee una biblioteca de extensiones que permite aumentar sus funcionalidades. Contiene un conjunto de estructuras para el modelado del conocimiento y diversos formatos para la representación y visualización de los contenidos. Con este editor es posible manejar ontologías con más de 100.000 conceptos. Su código Java es libre y ofrece el acceso a la API utilizada en su desarrollo con la que poder crear aplicaciones Java para la manipulación de ontologías. Esto es algo fundamental de cara a la aplicación del diseño de bases de conocimiento para agentes artificiales a través de su representación mediante ontologías. Una de las utilidades de esta herramienta a destacar es que permite la visualización de las ontologías, lo que facilita la interacción con los seres humanos, ya sea en las labores de inspección o en la comprensión por parte de personas que no estén familiarizadas con este tema. Este editor ofrece la posibilidad de tener dos formas de modelar el conocimiento, el editor Protégé-Frames, que permite la construcción de ontologías basadas en marcos, o el editor Protégé-OWL que permite construir ontologías para la web semántica en lenguaje OWL y que es la funcionalidad escogida para la realización del proyecto. Protégé-OWL permite abrir y guardar las ontologías creadas en ficheros con extensión *.owl o bien desde una dirección de internet. Este tipo de ontologías también posee clases, propiedades e instancias y facilita la inferencia de conocimiento deducible a través de las relaciones semánticas. Se ha seleccionado este entorno puesto que el poder crear un archivo *.owl facilita su utilización por diversos sistemas. Es por esto que ha sido la herramienta seleccionada para permitir la interacción humana con la base de conocimiento creada, y permitir la creación de los ficheros en los cuales se almacenará la información de la misma. Por otro lado, la ontología que se ha creado en el proyecto está orientada a ser utilizada en un diálogo robot-humano, luego está pensada para ser implantada en los robots sociales. Un robot social es un robot autónomo que interactúa y se comunica con las personas, de una manera sencilla y agradable siguiendo una serie de comportamientos y normas sociales. Para que esta interacción robot-humano sea posible, es necesario que además de poseer sistemas perceptivos robustos, posea una serie de habilidades que se agrupan dentro de lo que se conoce como inteligencia social. Para esta interacción social, el robot debe poseer un modelo cognitivo-afectivo, es decir, capacidades como la comunicación, la comprensión y el aprendizaje, siendo este último el objeto de estudio de este documento. Existen diversos tipos de robots sociales, los robots socialmente evocativos (aquellos que se antropomorfizan para animar a las personas a interactuar con la tecnología), robots de interfaz social, socialmente receptivos y sociables. En este trabajo son interesantes estos últimos, que son aquellos que con sus propias metas y motivaciones internas tratan de involucrar a las personas de una manera social no sólo para el beneficio de las mismas, sino para beneficiarse ellos mismos, tratando por tanto de modelar a las personas en términos sociales y cognitivos para interactuar con ellos. Para la creación de un programa que permita la realización de un aprendizaje automático es fundamental poseer una base de conocimiento en la que ir almacenando lo aprendido. Por ello, a través del editor de ontologías Protégé, se ha creado una ontología en la que se irán guardando los conceptos que el robot vaya aprendiendo. Este aprendizaje es posible de dos formas, en primer lugar, el programa permite el tratamiento de un fichero de texto en forma de tripletas que puede ser gestionado por el usuario desde una interfaz gráfica. En segundo lugar, se ha creado un bucle de aprendizaje en el que el agente puede realizar búsquedas en la enciclopedia Wikipedia. Esta enciclopedia proporciona una información general en cada artículo, sin embargo gracias al acceso a Wikidata, almacenamiento estructurado de los datos de los proyectos hermanos del grupo Wikimedia, se obtiene una información más concreta y más sencilla de clasificar. Este aprendizaje automático puede ser para ampliar algún conocimiento sobre algo que se haya almacenado previamente en la ontología, o para añadir conocimiento totalmente nuevo mediante una búsqueda de contenido aleatoria en Wikipedia o por motivación del usuario. También es posible realizar un aprendizaje sistemático de dicha enciclopedia. Además, esta información obtenida es previamente analizada por Freeling (analizador sintáctico) para poder reducir la complejidad de las frases que se obtienen de la misma y reescribirlo en forma de tripletas para que pueda ser añadido a la ontología. Los términos que se introducen en la misma van acompañados por un índice de confianza que nos indica la fiabilidad de esos conceptos según los parámetros que se han establecido para ello. Este aprendizaje es gestionado mediante un sistema de ficheros que van almacenando la información en cada uno de los pasos. En primer lugar, de la búsqueda de contenido en Wikipedia, se extrae un fichero que contiene las sentencias con la información de los términos buscados al que se ha denominado input.txt. Por otro lado, una vez que este fichero pasa por el analizador sintáctico, se obtiene otro fichero de salida, al que se ha denominado output.txt. Este fichero de salida contiene el análisis sintáctico de toda esta información. En él la primera palabra es la palabra que toma del fichero input.txt, la segunda es la palabra genérica que hace referencia a la anterior; por ejemplo si se tiene la palabra es, la segunda palabra que aparece será el verbo ser. Por último, en tercer lugar aparece el tipo de palabra de la que se trata: verbo, sintagma nominal, adjetivo... proporcionando también información sobre el género y número si procede; la cuarta palabra es el índice de confianza del análisis de dicho término. Este fichero output.txt se pasa a la clase TripletaAnalizador. En esta clase lo que se hace es leer este fichero de salida del analizador y extraer una tripleta en base a esta salida. Una vez que se tienen creadas las tripletas, este archivo tiene que ser añadido a la ontología. Para ello lo que se ha hecho es crear una clase, TratFrases, en la que se realiza esta acción. Si la tripleta no cumpliese con la estructura deseada, lo que se hace es copiar esta frase a un fichero denominado rechazados.txt y no se almacena aún en la ontología. De este modo, en un futuro se puede buscar más información sobre las frases que vayan siendo rechazadas y de esta forma generar tripletas correctamente para ser añadidas a la ontología. Este sería un proceso que podría ser llevado a cabo en el robot en momentos de inactividad, fomentando la capacidad de analizar por qué no ha entendido antes esa información y realizando búsquedas en internet que le permitan comprender esos conceptos. Por otro lado, si se observa que las tripletas contienen la estructura deseada y cumplen los requisitos, son añadidas a la ontología. Una vez que son añadidas, estas tripletas se copian en un fichero denominado historicos.txt. Este fichero contendrá todas las tripletas que se han ido procesando en todos los aprendizajes realizados. Todo este aprendizaje es gestionado desde una interfaz gráfica desde la que el usuario puede ver también estadísticas sobre la ontología . Esta opción permite conocer el número de clase, instancias y relaciones que conforman la ontología. Así mismo, es posible consultar si existe en ella algún término, y en caso afirmativo el programa proporciona información sobre qué papel ocupa en ella (clase, relación o instancia). También es posible mostrar las clases de una relación o las instancias de una clase. Para facilitar la comunicación con el robot Urbano, el robot social desarrollado por el grupo de investigación de Control Inteligente de la Escuela Técnica Superior de Ingenieros Industriales, para quien en un principio ha sido desarrollado este trabajo, el programa posee una función que permite también la comunicación vía TCP. Es importante destacar que con esto queda resuelta la memoria a medio y largo plazo en los robots sociales, puesto que dota al agente de la capacidad de aprender de una forma autónoma, con búsquedas en internet y almacenar los conocimientos para que pueda usarlos cuando los necesite. De este modo, se intenta convertir a los robots sociales en algo más sociables, ya que les permite interactuar con las personas no sólo para el beneficio de las mismas, si no para el suyo propio, intentando satisfacer alguna motivación interna. En última instancia, a través del programa lo que se obtiene es un archivo con la extensión *.owl que contiene una base de conocimiento. La ontología se puede ir actualizando y es posible distribuirla para su implantación en robots sociales o en otros agentes. El trabajo realizado permite demostrar la capacidad de aprendizaje en un robot social mediante búsquedas en la enciclopedia Wikipedia o por el tratamiento de un fichero de texto en formato de tripletas. La información que se obtiene de Wikipedia es una información general de cada artículo, sin embargo con el acceso a Wikidata se puede obtener una información concreta que permite su clasificación. En un futuro, el trabajo que se plantea es modelar el aprendizaje en función de los gustos o preferencias del usuario.

Más información

ID de Registro: 48153
Identificador DC: http://oa.upm.es/48153/
Identificador OAI: oai:oa.upm.es:48153
Depositado por: Biblioteca ETSI Industriales
Depositado el: 17 Oct 2017 05:57
Ultima Modificación: 17 Oct 2017 05:57
  • Open Access
  • Open Access
  • Sherpa-Romeo
    Compruebe si la revista anglosajona en la que ha publicado un artículo permite también su publicación en abierto.
  • Dulcinea
    Compruebe si la revista española en la que ha publicado un artículo permite también su publicación en abierto.
  • Recolecta
  • e-ciencia
  • Observatorio I+D+i UPM
  • OpenCourseWare UPM