Mostrar el registro sencillo del ítem

dc.contributor.advisorGonzález Acuña, Hernán
dc.contributor.authorQuintero Quintana, William Fernando
dc.coverage.spatialPiedecuesta (Santander, Colombia)spa
dc.coverage.temporalNoviembre de 2022spa
dc.date.accessioned2023-02-28T12:31:48Z
dc.date.available2023-02-28T12:31:48Z
dc.date.issued2022-12-12
dc.identifier.urihttp://hdl.handle.net/20.500.12749/19139
dc.description.abstractEl proyecto de grado de ingeniería mecatrónica estudia los algoritmos del tipo SLAM que se basan en el diseño de un sistema que pueda hacer mapeo y localización de un entorno estructurado. Inicialmente el proyecto consta de la construcción del sistema completo tanto físico como virtual, separando las actividades en dos. Las actividades que van con respecto a la parte del programa consistieron en la programación de un algoritmo del tipo SLAM 3D a partir del software Matlab basado en los arquetipos de implementación utilizados en el sistema de ROS. El sistema contó con una cámara Intel RealSense 435i la cual se calibró a un sistema embebido configurado a partir de la tarjeta Jetson Nano de NVIDIA y se implementó el sistema ROS para localización y mapeo. Como objetivo de estudio se buscaba realizar pruebas a partir de código de Matlab para estudiar las etapas del procesamiento de imagen recibidas por la cámara y comparar los resultados obtenidos a través de las dos implementaciones (Matlab y ROS). Las actividades con respecto a la arquitectura del sistema consistieron en la construcción de un pequeño robot terrestre del tipo diferencial que pudiera moverse de forma inalámbrica a través de un módulo HC05, se programarían comandos básicos de movimiento para que este pudiera moverse a través de una interfaz diseñada en para Android Studio.spa
dc.description.tableofcontents1 INTRODUCCIÓN ............................................................................................ 12 2 OBJETIVOS .................................................................................................... 13 2.1 Objetivo general ...................................................................................... 13 2.2 Objetivos específicos ............................................................................... 13 3 PLANTEAMIENTO DEL PROBLEMA Y JUSTIFICACIÓN ............................. 14 4 ESTADO DEL ARTE ...................................................................................... 16 5 MARCO TEÓRICO ......................................................................................... 19 5.1 Visión por computador. ............................................................................ 19 5.2 Puntos característicos ............................................................................. 20 5.3 Robótica móvil ......................................................................................... 21 5.4 Cinemática ............................................................................................... 21 5.5 Rotaciones y traslaciones: ....................................................................... 21 5.6 Análisis de velocidades: .......................................................................... 22 5.7 Análisis de aceleraciones: ....................................................................... 22 5.8 SLAM ....................................................................................................... 23 5.9 Mapeo del terreno ................................................................................... 23 6 DISEÑO METODOLÓGICO ........................................................................... 25 6.1 Diagrama en V. ........................................................................................ 25 7 DISEÑO DEL ROBOT MÓVIL ........................................................................ 26 7.1 Configuración cinemática ........................................................................ 26 7.1.1 Robot diferencial .................................................................................. 26 7.1.2 Robot Ackerman .................................................................................. 27 7.1.3 Robot triciclo ........................................................................................ 29 7.2 Selección de la cámara ........................................................................... 30 7.3 Tarjetas de procesamiento ...................................................................... 31 7.4 Arduino para control de los motores: ....................................................... 32 7.5 Selección de las ruedas ........................................................................... 33 7.6 Selección de drivers ................................................................................ 34 7.7 Batería ..................................................................................................... 35 7.8 Selección del módulo de comunicación inalámbrico: .............................. 36 7.9 Selección de Motores .............................................................................. 36 7.9.1 Requerimientos de torque y velocidad: ................................................ 36 7.9.2 Cálculo del torque ................................................................................ 37 7.9.3 Cálculo de la velocidad ........................................................................ 37 7.10 Diseño de la estructura del robot ............................................................. 39 7.11 Ensamble ................................................................................................. 39 8 DISEÑO DEL ALGORITMO ............................................................................ 43 8.1 Extracción de puntos característicos ....................................................... 43 8.2 Cálculo de disparidad: ............................................................................. 45 8.3 Reconstrucción en 3D ............................................................................. 48 8.4 Extracción del movimiento. ...................................................................... 49 9 VALIDACIÓN DEL ALGORITMO .................................................................... 50 10 CONFIGURACIÓN DEL SISTEMA EMBEBIDO ......................................... 54 10.1 Configuración de Hardware ..................................................................... 54 10.2 Configuración de Software ...................................................................... 54 10.3 Actualización del Kernel .......................................................................... 55 10.4 Instalación de componentes de software de NVIDIA ............................... 55 10.4.1 Máquina Virtual DOCKER ................................................................ 55 10.4.2 JetPack versión 4.4.1: ...................................................................... 56 10.4.3 L4T 32.4.4: ....................................................................................... 56 10.4.4 CUDA versión 10.2: .......................................................................... 56 10.4.5 Libargus: ........................................................................................... 56 10.4.6 OpenGL® ES: .................................................................................. 56 10.5 Configuración ROS (Sistema Operativo Robótico) .................................. 56 10.5.1 Ros-versión: 1.14 (Melódico) ............................................................ 56 10.6 Configuración de rosdep .......................................................................... 57 10.7 Sensor RealSense™ SDK 2.0 ................................................................. 57 11 IMPLEMENTACIÓN EN EL SISTEMA EMBEBIDO .................................... 59 11.1 Simuladores RVIZ y Gazebo ................................................................... 59 11.2 Protocolo de comunicación en ROS ........................................................ 64 12 RESULTADOS DE LA IMPLEMENTACIÓN ............................................... 65 13 CREACIÓN DE LA INTERFAZ DE USUARIO ............................................ 69 13.1 Tabla de verdad ....................................................................................... 70 14 VALIDACIÓN EN UN ENTORNO ESTRUCTURADO ................................. 73 15 TRABAJO A FUTURO ................................................................................ 74 16 CONCLUSIONES ....................................................................................... 75 17 BIBLIOGRAFÍA Y REFERENCIAS ............................................................. 76 18 ANEXOS ..................................................................................................... 80spa
dc.format.mimetypeapplication/pdfspa
dc.language.isospaspa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.titleDiseño e implementación de sistema de localización y mapeo simultáneo SLAM 3D para reconocimiento de entornos mediante el uso de robot móvilspa
dc.title.translatedDesign and implementation of visual simultaneous Localization and Mapping SLAM 3D for recognize environment with a mobile robotspa
dc.degree.nameIngeniero Mecatrónicospa
dc.publisher.grantorUniversidad Autónoma de Bucaramanga UNABspa
dc.rights.localAbierto (Texto Completo)spa
dc.publisher.facultyFacultad Ingenieríaspa
dc.publisher.programPregrado Ingeniería Mecatrónicaspa
dc.description.degreelevelPregradospa
dc.type.driverinfo:eu-repo/semantics/bachelorThesis
dc.type.localTrabajo de Gradospa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.subject.keywordsMechatronicspa
dc.subject.keywordsVSLAM 3Dspa
dc.subject.keywordsPythonspa
dc.subject.keywordsMatlabspa
dc.subject.keywordsOdometryspa
dc.subject.keywordsArtificial visionspa
dc.subject.keywordsAlgorithmspa
dc.subject.keywordsMobile robotspa
dc.subject.keywordsMachine theoryspa
dc.subject.keywordsRoboticsspa
dc.subject.keywordsArtificial intelligencespa
dc.subject.keywordsProgramming (Mathematics)spa
dc.subject.keywordsMathematical modelsspa
dc.subject.keywordsProgramming languagespa
dc.identifier.instnameinstname:Universidad Autónoma de Bucaramanga - UNABspa
dc.identifier.reponamereponame:Repositorio Institucional UNABspa
dc.type.hasversioninfo:eu-repo/semantics/acceptedVersion
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.relation.referencesBaturone, A. O. (2001). Robotica, Manipuladores Y Robots Moviles (Spanish Edition). MARCOMBO, S.A.spa
dc.relation.referencesAlberola, Á. M., Gallego, G. M., & Maestre, U. G. (2019). Artificial Vision and Language Processing for Robotics. Packt Publishingspa
dc.relation.referencesKudriashov, A., Buratowski, T., Giergiel, M., & Malka, P. (2020). Slam Techniques Application for Mobile Robot in Rough Terrain: 87 (2020 ed.). Springer.spa
dc.relation.referencesTrucco, E., & Verri, A. (1998). Introductory Techniques for 3-D Computer Vision. Prentice Hall.spa
dc.relation.referencesCebollada, S., Payá, L., Flores, M., Peidro, A., & Reinoso, Ó. (2021). A state-ofthe- art review on mobile robotics tasks using artificial intelligence and visual data. Expert Syst. Appl., 167, 114195.spa
dc.relation.referencesWatanabe, K., Pathiranage, C.D., & Izumi, K. (2008). A Fuzzy Kalman Filter Approach to the SLAM Problem of Nonholonomic Mobile Robots. IFAC Proceedings Volumes, 41, 4600-4605.spa
dc.relation.referencesH. Jo, S. Jo, E. Kim, C. Yoon and S. Jun, "3D FastSLAM algorithm with Kinect sensor," 2014 Joint 7th International Conference on Soft Computing and Intelligent Systems (SCIS) and 15th International Symposium on Advanced Intelligent Systems (ISIS), 2014, pp. 214-217, doi: 10.1109/SCIS-ISIS.2014.7044862.spa
dc.relation.referencesPayá, L., Gil, A., & Reinoso, Ó. (2017). A State-of-the-Art Review on Mapping and Localization of Mobile Robots Using Omnidirectional Vision Sensors. J. Sensors, 2017, 3497650:1-3497650:20.spa
dc.relation.referencesH. Bavle, P. De La Puente, J. P. How and P. Campoy, "VPS-SLAM: Visual Planar Semantic SLAM for Aerial Robotic Systems," in IEEE Access, vol. 8, pp. 60704- 60718, 2020, doi: 10.1109/ACCESS.2020.2983121spa
dc.relation.referencesJ. P. M. Covolan, A. C. Sementille and S. R. R. Sanches, "A mapping of visual SLAM algorithms and their applications in augmented reality," 2020 22nd 77 Symposium on Virtual and Augmented Reality (SVR), 2020, pp. 20-29, doi: 10.1109/SVR51698.2020.00019.spa
dc.relation.referencesS. Shi, W. Zhou and S. Liu, "An Efficient Multi-Robot 3D SLAM Algorithm," 2017 IEEE 7th Annual International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER), 2017, pp. 1200-1205, doi: 10.1109/CYBER.2017.8446394.spa
dc.relation.referencesS. Cui, M. Chen, L. He, Y. Zhang, M. Sun and X. Duan, "Design of Mobile Robot Interaction System Based on Slam Particle Filter," 2021 IEEE 5th Advanced Information Technology, Electronic and Automation Control Conference (IAEAC), 2021, pp. 93-97, doi: 10.1109/IAEAC50856.2021.9390996spa
dc.relation.referencesJ. Ruan, B. Li, Y. Wang and Z. Fang, "GP-SLAM+: real-time 3D lidar SLAM based on improved regionalized Gaussian process map reconstruction," 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2020, pp. 5171-5178, doi: 10.1109/IROS45743.2020.9341028spa
dc.relation.referencesR. Maxence, H. Uchiyama, H. Kawasaki, D. Thomas, V. Nozick and H. Saito, "Mobile Photometric Stereo with Keypoint-Based SLAM for Dense 3D Reconstruction," 2019 International Conference on 3D Vision (3DV), 2019, pp. 574- 582, doi: 10.1109/3DV.2019.00069.spa
dc.relation.referencesK. Melbouci, S. N. Collette, V. Gay-Bellile, O. Ait-Aider and M. Dhome, "Model based RGBD SLAM," 2016 IEEE International Conference on Image Processing (ICIP), 2016, pp. 2618-2622, doi: 10.1109/ICIP.2016.7532833.spa
dc.relation.referencesDEPTH AND Semantic Segmentation Visualization Using Unreal Engine Simulation- MATLAB & Simulink- MathWorks América Latina MathWorks - Creadores de MATLAB y Simulink - MATLAB y Simulink - MATLAB & Simulink [página web]. Disponible en Internet: <https://la.mathworks.com/help/driving/ug/visualize-depth-semantic-segmentation- 3d-simulation.html>spa
dc.relation.referencesCAMERA SENSOR model with lens in 3D simulation environment - Simulink- MathWorks América Latina MathWorks - Creadores de MATLAB y Simulink - MATLAB y Simulink - MATLAB & Simulink [página web]. Disponible en Internet: <https://la.mathworks.com/help/driving/ref/simulation3dcamera.html>.spa
dc.relation.referencesRUN LINUX GUI apps with WSL Developer tools, technical documentation, and coding examples | Microsoft Docs [página web]. [Consultado el 23, junio, 2022]. Disponible en Internet: <https://docs.microsoft.com/en-us/windows/wsl/tutorials/guiapps>.spa
dc.relation.referencesFIXED FRAME [map] does not exist · Issue #1669 · cartographerproject/ cartographer_ros. GitHub [página web]. Disponible en Internet: <https://github.com/cartographer-project/cartographer_ros/issues/1669>.spa
dc.relation.referencesFIRMWARE FOR Intel® RealSense™ D400 Product Family. Intel [página web. Disponible en Internet: <https://www.intel.com/content/www/us/en/download/19242/27522/firmware-forintel- realsense-d400-product-family.html?v=t>.spa
dc.relation.referencesIN UBUNTU 18.04, using melodic ROS, cannot install octomap_rviz_plugins · Issue #15 · floatlazer/semantic_slam [Anónimo]. GitHub [página web]. [Consultado el 23, junio, 2022]. Disponible en Internet: <https://github.com/floatlazer/semantic_slam/issues/15>.spa
dc.relation.referencesSLAM WITH D435i · IntelRealSense/realsense-ros Wiki [Anónimo]. GitHub [página web]. [Consultado el 23, junio, 2022]. Disponible en Internet: <https://github.com/IntelRealSense/realsense-ros/wiki/SLAM-with-D435i>.spa
dc.relation.referencesVARGAS MUÑOZ, Jorge Leonardo y PEREZ SALAZAR, Pedro Elias. DISEÑO DE UN ROBOT MÓVIL CON TRACCIÓN DIFERENCIAL PARA SEGUIMIENTO DE TRAYECTORIAS. CICI - Unillanos [página web]. Disponible en Internet: <https://cici.unillanos.edu.co/media2020/memorias/CICI_2020_paper_125.pdf>.spa
dc.relation.referencesPIÑERA GARCÍA, J., et al. Diseño de un robot móvil con modelo cinemático Ackermann - PDF Free Download. Le proporcionamos las herramientas cómodas y gratuitas para publicar y compartir la información. [página web]. Disponible en Internet: <https://docplayer.es/83663588-Diseno-de-un-robot-movil-con-modelocinematico- ackermann.html>spa
dc.relation.referencesHOW-TO: GETTING IMU data from D435i and T265. Intel® RealSense™ Depth and Tracking Cameras [página web]. [Consultado el 29, noviembre, 2022]. Disponible en Internet: <https://www.intelrealsense.com/how-to-getting-imu-datafrom- d435i-and-t265/>.spa
dc.relation.referencesTHE KITTI Vision Benchmark Suite [Anónimo]. Andreas Geiger [página web]. Disponible en Internet: <https://www.cvlibs.net/datasets/kitti/eval_odometry.php>.spa
dc.relation.referencesPYTHON. Intel® RealSense™ Developer Documentation [página web]. Disponible en Internet: <https://dev.intelrealsense.com/docs/python2>.spa
dc.relation.referencesSCARAMUZZA, Anna. Algorithms for Projectivity and Extremal Classes of a Smooth Toric Variety. En: Experimental Mathematics [en línea]. Enero, 2009. vol. 18, no. 1, p. 71-84. Disponible en Internet: <https://doi.org/10.1080/10586458.2009.10128887>. ISSN 1944-950Xspa
dc.relation.referencesFRAUNDORFER, Friedrich y SCARAMUZZA, Davide. Visual Odometry: Part II: Matching, Robustness, Optimization, and Applications. En: IEEE Robotics & Automation Magazine [en línea]. Junio, 2012. vol. 19, no. 2. p. 78-90. Disponible en Internet: <https://doi.org/10.1109/mra.2012.2182810>. ISSN 1070-9932spa
dc.relation.referencesOCTOMAP 3D scan dataset - Arbeitsgruppe: Autonome Intelligente Systeme [Anónimo]. Herzlich willkommen! - Arbeitsgruppe: Autonome Intelligente Systeme [página web]. Disponible en Internet: <http://ais.informatik.unifreiburg. de/projects/datasets/octomap/>.spa
dc.relation.referencesRobotics and Perception Group [página web]. Disponible en Internet: <https://rpg.ifi.uzh.ch/docs/VO_Part_I_Scaramuzza.pdf>.spa
dc.relation.referencesPROGRAMMING ROBOTS with ROS and ROS2 using MATLAB and Simulink Video. MathWorks - Creadores de MATLAB y Simulink - MATLAB y Simulink - MATLAB & Simulink]. Disponible en Internet: <https://la.mathworks.com/videos/programming-robots-with-ros-and-ros2-usingmatlab- and-simulink- 1600976607866.html?fbclid=IwAR07cEf_K666Rip_GwFvZb9yda7S_EyeG6IdPiqtX v8Jdfz1FskvQagJtWk>.spa
dc.contributor.cvlacQuintero Quintana, William Fernando [0000145250]spa
dc.contributor.cvlacGonzález Acuña, Hernán [0000774774]spa
dc.contributor.googlescholarGonzález Acuña, Hernán [NUgEExkAAAAJ]spa
dc.contributor.orcidQuintero Quintana, William Fernando [0009-0003-9198-5529]spa
dc.contributor.orcidGonzález Acuña, Hernán [0000-0003-2118-2272]spa
dc.contributor.researchgateGonzález Acuña, Hernán [Hernan_Acuna2]spa
dc.subject.lembMecatrónicaspa
dc.subject.lembTeoría de las máquinasspa
dc.subject.lembRobóticaspa
dc.subject.lembInteligencia artificialspa
dc.subject.lembProgramación (Matemáticas)spa
dc.subject.lembModelos matemáticosspa
dc.subject.lembLenguaje de programaciónspa
dc.identifier.repourlrepourl:https://repository.unab.edu.cospa
dc.description.abstractenglishThe mechatronics engineering degree project studies SLAM-type algorithms that are based on the design of a system that can map and locate a structural environment Initially the project consists of the construction of the complete system both physical and virtual, separating the activities in: The activities that go with respect to the part of the program consisted in the programming a SLAM 3D’s algorithm from the Matlab software based on the implementation archetypes used by the ROS system. The system had an Intel RealSense 435i camera which was calibrated by an embedded system configured from the NVIDIA Jetson Nano card and the ROS system for location and mapping was implemented. The study’s objective wants to carry out tests from Matlab code to study the stages of image processing received by the camera and compare the results obtained through the two implementations (Matlab and ROS). The activities regarding the architecture of the system consisted in the construction of a small terrestrial diferrential robot that could move wirelessly through an HC05 Bluetooth module to get basics movements commands that would be programmed so that it could move through an interface designed on Android Studio.spa
dc.subject.proposalSLAM 3Dspa
dc.subject.proposalOdometríaspa
dc.subject.proposalAlgoritmospa
dc.subject.proposalRobot móvilspa
dc.subject.proposalVisión artificialspa
dc.type.redcolhttp://purl.org/redcol/resource_type/TP
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.contributor.researchgroupGrupo de Investigación Control y Mecatrónica - GICYMspa
dc.contributor.researchgroupGrupo de Investigaciones Clínicasspa
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aaspa
dc.relation.uriapolohttps://apolo.unab.edu.co/en/persons/hern%C3%A1n-gonz%C3%A1lez-acu%C3%B1aspa
dc.contributor.apolounabGonzález Acuña, Hernán [hernán-gonzález-acuña]spa
dc.coverage.campusUNAB Campus Bucaramangaspa
dc.description.learningmodalityModalidad Presencialspa


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 2.5 Colombia
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-SinDerivadas 2.5 Colombia