Repositorio UTM
Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.utm.mx:8080/jspui/handle/123456789/516
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.rights.licenseAtribución No Comercial Sin Derivadasen
dc.contributorJOSÉ ÁNIBAL ARIAS AGUILAR;44390en
dc.contributorALBERTO ELÍAS PETRILLI BARCELÓ;170294en
dc.contributor.advisorArias Aguilar, José A.-
dc.contributor.authorRodríguez Santiago, Armando L.-
dc.creatorARMANDO LEVID RODRIGUEZ SANTIAGO;730702en
dc.date.accessioned2025-11-15T01:14:10Z-
dc.date.available2025-11-15T01:14:10Z-
dc.date.issued2025-09-
dc.identifier.citationRodríguez, A. L. (2025). Reconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learning (Tesis para obtener el grado de Doctor en Robótica). Universidad Tecnológica de la Mixteca, Huajuapan de León, Oaxaca.en
dc.identifier.urihttp://repositorio.utm.mx:8080/jspui/handle/123456789/516-
dc.description.abstractEn este documento se presenta el enfoque a través de una arquitectura de Aprendizaje Profundo (Deep Learning) para la reconstrucción bidimensional y tridimensional en exteriores de terrenos en condiciones desafiantes mediante imágenes aéreas adquiridas por un vehículo aéreo no tripulado (UAV) comúnmente conocido como Dron. La arquitectura propuesta se configura con base en una arquitectura Autoencoder. Sin embargo, en lugar de las típicas capas convolucionales se proponen algunas diferencias para realizar el emparejamiento de imágenes. La etapa del Encoder se configura como una Red Residual o ResNet (del inglés: Residual Network) con cuatro bloques residuales mientras que, la etapa del Decoder se establece como una Red Generativa Adversaria o GAN (del inglés: Generative Adversarial Networks). Cada etapa ha sido dotada del conocimiento necesario para para extraer los mapas de características de imágenes aéreas de entornos exteriores y realizar el emparejamiento (en inglés: stitching) de éstas imágenes y obtener un ortomosaico con detalles en alta resolución. Por otra parte, para la reconstrucción tridimensional la arquitectura de red neuronal propuesta utiliza una etapa Encoder para la extracción del vector de características que describen la imagen de entrada mientras que el Decoder, llamado GAN-Decoder, genera una nube de puntos a partir de la información obtenida en la etapa anterior. Al proporcionar una secuencia de fotogramas con un porcentaje de superposición entre cada uno de ellos, es posible determinar la ubicación espacial de cada punto generado. Los experimentos muestran que, con esta propuesta es posible realizar una representación 3D de un área sobrevolada por un dron utilizando una nube de puntos generada con una arquitectura profunda que tiene como entrada una secuencia de imágenes aéreas 2D. En comparación con otros trabajos, el sistema propuesto es capaz de realizar recons- trucciones tridimensionales de paisajes urbanos desafiantes. Comparado con los resultados obtenidos usando software comercial, nuestra propuesta fue capaz de generar reconstrucciones en menor tiempo de procesamiento, trabaja con un menor porcentaje de superposición entre las imágenes 2D de entrada y es invariable al tipo de trayectoria de vuelo establecida para el dron.en
dc.language.isospaen
dc.publisherUniversidad Tecnológica de la Mixtecaen
dc.relation.ispartofREPOSITORIO NACIONAL SECIHTIen
dc.rightsembargoedAccessen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0en
dc.subjectVisión por computadoraen
dc.subjectDeep Learningen
dc.subjectRobóticaen
dc.subject.other7 INGENIERIA Y TECNOLOGIAen
dc.titleReconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learningen
dc.typedoctoralThesisen
dc.creator.cvu730702en
dc.creator.curpROSA880307HOCDNR01en
dc.creator.emaillevid.rodriguez@gmail.comen
dc.creator.studiesPDoctorado en Robóticaen
dc.creator.orcid0000-0001-5510-9394en
dc.type.statuspublishedVersionen
Aparece en las colecciones: Doctorado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2025-DR-ALRS.pdf42.9 MBAdobe PDFVisualizar
facebook


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons