Repositorio UTM
Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.utm.mx:8080/jspui/handle/123456789/516
Título : Reconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learning
Autor : JOSÉ ÁNIBAL ARIAS AGUILAR;44390
ALBERTO ELÍAS PETRILLI BARCELÓ;170294
Arias Aguilar, José A.
Rodríguez Santiago, Armando L.
Palabras clave : Visión por computadora
Deep Learning
Robótica
Fecha de publicación : sep-2025
Editorial : Universidad Tecnológica de la Mixteca
Citación : Rodríguez, A. L. (2025). Reconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learning (Tesis para obtener el grado de Doctor en Robótica). Universidad Tecnológica de la Mixteca, Huajuapan de León, Oaxaca.
Resumen : En este documento se presenta el enfoque a través de una arquitectura de Aprendizaje Profundo (Deep Learning) para la reconstrucción bidimensional y tridimensional en exteriores de terrenos en condiciones desafiantes mediante imágenes aéreas adquiridas por un vehículo aéreo no tripulado (UAV) comúnmente conocido como Dron. La arquitectura propuesta se configura con base en una arquitectura Autoencoder. Sin embargo, en lugar de las típicas capas convolucionales se proponen algunas diferencias para realizar el emparejamiento de imágenes. La etapa del Encoder se configura como una Red Residual o ResNet (del inglés: Residual Network) con cuatro bloques residuales mientras que, la etapa del Decoder se establece como una Red Generativa Adversaria o GAN (del inglés: Generative Adversarial Networks). Cada etapa ha sido dotada del conocimiento necesario para para extraer los mapas de características de imágenes aéreas de entornos exteriores y realizar el emparejamiento (en inglés: stitching) de éstas imágenes y obtener un ortomosaico con detalles en alta resolución. Por otra parte, para la reconstrucción tridimensional la arquitectura de red neuronal propuesta utiliza una etapa Encoder para la extracción del vector de características que describen la imagen de entrada mientras que el Decoder, llamado GAN-Decoder, genera una nube de puntos a partir de la información obtenida en la etapa anterior. Al proporcionar una secuencia de fotogramas con un porcentaje de superposición entre cada uno de ellos, es posible determinar la ubicación espacial de cada punto generado. Los experimentos muestran que, con esta propuesta es posible realizar una representación 3D de un área sobrevolada por un dron utilizando una nube de puntos generada con una arquitectura profunda que tiene como entrada una secuencia de imágenes aéreas 2D. En comparación con otros trabajos, el sistema propuesto es capaz de realizar recons- trucciones tridimensionales de paisajes urbanos desafiantes. Comparado con los resultados obtenidos usando software comercial, nuestra propuesta fue capaz de generar reconstrucciones en menor tiempo de procesamiento, trabaja con un menor porcentaje de superposición entre las imágenes 2D de entrada y es invariable al tipo de trayectoria de vuelo establecida para el dron.
URI : http://repositorio.utm.mx:8080/jspui/handle/123456789/516
Aparece en las colecciones: Doctorado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2025-DR-ALRS.pdf42.9 MBAdobe PDFVisualizar
facebook


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons