DSpace Repository

Sistema de mapeo y localización simultáneos implementado en un robot móvil para la exploración de zonas afectadas por desastres

Show simple item record

dc.contributor.author Juárez Terrazas, Aarón
dc.contributor.author Hernández Maya, Diego Alfredo
dc.contributor.author Martínez González, Luis Ángel
dc.date.accessioned 2022-09-24T01:01:53Z
dc.date.available 2022-09-24T01:01:53Z
dc.date.created 2022-06-21
dc.date.issued 2022-09-20
dc.identifier.citation Juárez Terrazas, A., Hernández Maya, D.A. y Martínez González, L.A. (2022). Sistema de mapeo y localización simultáneos implementado en un robot móvil para la exploración de zonas afectadas por desastres. (Ingeniería Mecatrónica). Instituto Politécnico Nacional, Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas, México. es
dc.identifier.uri http://tesis.ipn.mx/handle/123456789/30793
dc.description Trabajo terminal (Ingeniería Mecatrónica). Instituto Politécnico Nacional, UPIITA, 2022, 1 archivo PDF, (261 páginas). tesis.ipn.mx es
dc.description.abstract RESUMEN: En general, la robótica ha tenido, sin duda, un gran impacto en varias áreas destacando los brazos manipuladores para aplicaciones industriales como la soldadura o el empaquetado, así como los vehículos guiados automáticamente (en inglés, Automated guided vehicle, AGV) usados para el transporte de materiales tanto en la industria como en la medicina. Los robots móviles pueden utilizarse, además, para realizar la exploración de zonas desconocidas o zonas peligrosas para los seres humanos, como los utilizados para explorar otros planetas o para explorar zonas de desastres, por ejemplo, los que se usaron en la exploración de la zona cero resultantes del ataque al World Trade Center en 2001. La robótica de rescate presenta varios desafíos particulares inherentes a sus aplicaciones; sin embargo, comparte con todo tipo de robots la integración de diferentes áreas del conocimiento en el desarrollo de los diferentes sistemas que los constituyen, tales como el sistema de locomoción, el de control y el de percepción, cuya función es doble pues permite conocer el valor de las variables internas del robot (con sus sensores propioceptivos para medir posiciones, velocidades, etc.) y, además, obtiene información del entorno (con sus sensores exteroceptivos como cámaras de video, cámaras RGBD, radares laser o LIDAR, sensores infrarrojos, etc.). Un adecuado procesamiento de la información provista por los sensores exteroceptivos del robot puede permitir la autolocalización del mismo en entornos desconocidos, así como la realización de diferentes tipos de mapas de dicho entorno, por ejemplo, en zonas de desastre. En este proyecto se aborda el problema de la generación del mapa en una zona de desastre, así como la localización del robot dentro de la misma con base en información visual provista por la cámara de un robot móvil. Este problema es conocido como VideoSLAM, donde SLAM (Simultaneous Localization and Mapping) significa localización y mapeo simultáneos. Así, el robot móvil deberá conducirse de manera autónoma o de manera teleoperada en la zona de desastre evitando colisiones con los obstáculos presentes, generando el mapa de dicha zona y calculando su posición. La plataforma experimental correspondiente estará formada por un vehículo y un puesto de control externo. El vehículo contará con los sensores propioceptivos apropiados y un sistema de control embarcado encargado del movimiento del vehículo y de la adquisición y procesamiento de la información visual que generan dichos sensores y que es requerida por los algoritmos de VideoSLAM que serán implementados (en parte usando el sistema de cómputo embarcado y, en parte, usando el del puesto de control). Una vez construido el mapa quedará disponible en el puesto de control y podrá subirse a una página web. Todo el proceso es primeramente simulado y posterior a ello se realizan los experimentos correspondientes en el entorno real. ABSTRACT: In general, robotics has undoubtedly had a great impact on several scenarios. One of the most outstanding has been the use of manipulators for industrial applications, such as welding or packing, and the use of Automated guided vehicles (AGV) for transporting materials in industry and medicine. Mobile robots can be also used for exploration in unknown or dangerous zones for humans, like those built for exploring other planets or disaster zones, for example, robots that were used in the exploration of the cold zone after the attack of the World Trade Center in 2001. Rescue robotics presents several particular challenges inherent in its applications; however, it shares with all kind of robots the integration of different areas of knowledge in the development of the different systems that make them up, such as locomotion, control and perception. Perception has two functions because it allows to know the value of the robot (using proprioceptive sensors to measure distances, velocities, etc.), and to obtain information from the environment (using its exteroceptive sensors, like video cameras, RGBD cameras, laser or lidar radar, infrared sensors etc.). With the right processing of the information provided by the exteroceptive sensors of the robot, it can let itself autolocalization in unknow environments, and generate different kind of maps of such environment, for example, a disaster zone. This project coverts the problem of generate a map from a disaster zone, and the localization of a robot in it, based on visual information provided by the camera in the robot. This problem is better known as VideoSLAM, where SLAM stands for Simultaneous Localization and Mapping. This way, the robot should be able of driving itself autonomously, avoiding collisions and obstacles, generating the map of the zone, and calculating its position. The experimental platform will be made up by a vehicle and an external control station. The vehicle is going to have the proper proprioceptive sensors and a control system on board in charge of the movement of the vehicle and the acquisition and processing of visual data generated by those sensors as is needed by the Video SLAM algorithms, which will be implemented (in part by the control system on board and by the control station). Once the map is generated, it is going to be available in the control station in order to upload it to a website. All the process is first simulated and then the corresponding experiments are carried out in the real environment. es
dc.language.iso es es
dc.subject ORBSLAM es
dc.subject ROS es
dc.subject Robot es
dc.subject Visión es
dc.subject Artificial es
dc.title Sistema de mapeo y localización simultáneos implementado en un robot móvil para la exploración de zonas afectadas por desastres es
dc.contributor.advisor Salazar Silva, Gastón Hugo
dc.contributor.advisor Ibarra Zannatha, Juan Manuel
dc.programa.academico Ingeniería Mecatrónica es


Files in this item

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Browse

My Account