Please use this identifier to cite or link to this item:
http://repositorio.utm.mx:8080/jspui/handle/123456789/516| Title: | Reconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learning |
| Authors: | JOSÉ ÁNIBAL ARIAS AGUILAR;44390 ALBERTO ELÍAS PETRILLI BARCELÓ;170294 Arias Aguilar, José A. Rodríguez Santiago, Armando L. |
| Keywords: | Visión por computadora Deep Learning Robótica |
| Issue Date: | Sep-2025 |
| Publisher: | Universidad Tecnológica de la Mixteca |
| Citation: | Rodríguez, A. L. (2025). Reconstrucción de entornos esteriores mediante imágenes aéreas y técnicas de deep learning (Tesis para obtener el grado de Doctor en Robótica). Universidad Tecnológica de la Mixteca, Huajuapan de León, Oaxaca. |
| Abstract: | En este documento se presenta el enfoque a través de una arquitectura de Aprendizaje Profundo (Deep Learning) para la reconstrucción bidimensional y tridimensional en exteriores de terrenos en condiciones desafiantes mediante imágenes aéreas adquiridas por un vehículo aéreo no tripulado (UAV) comúnmente conocido como Dron. La arquitectura propuesta se configura con base en una arquitectura Autoencoder. Sin embargo, en lugar de las típicas capas convolucionales se proponen algunas diferencias para realizar el emparejamiento de imágenes. La etapa del Encoder se configura como una Red Residual o ResNet (del inglés: Residual Network) con cuatro bloques residuales mientras que, la etapa del Decoder se establece como una Red Generativa Adversaria o GAN (del inglés: Generative Adversarial Networks). Cada etapa ha sido dotada del conocimiento necesario para para extraer los mapas de características de imágenes aéreas de entornos exteriores y realizar el emparejamiento (en inglés: stitching) de éstas imágenes y obtener un ortomosaico con detalles en alta resolución. Por otra parte, para la reconstrucción tridimensional la arquitectura de red neuronal propuesta utiliza una etapa Encoder para la extracción del vector de características que describen la imagen de entrada mientras que el Decoder, llamado GAN-Decoder, genera una nube de puntos a partir de la información obtenida en la etapa anterior. Al proporcionar una secuencia de fotogramas con un porcentaje de superposición entre cada uno de ellos, es posible determinar la ubicación espacial de cada punto generado. Los experimentos muestran que, con esta propuesta es posible realizar una representación 3D de un área sobrevolada por un dron utilizando una nube de puntos generada con una arquitectura profunda que tiene como entrada una secuencia de imágenes aéreas 2D. En comparación con otros trabajos, el sistema propuesto es capaz de realizar recons- trucciones tridimensionales de paisajes urbanos desafiantes. Comparado con los resultados obtenidos usando software comercial, nuestra propuesta fue capaz de generar reconstrucciones en menor tiempo de procesamiento, trabaja con un menor porcentaje de superposición entre las imágenes 2D de entrada y es invariable al tipo de trayectoria de vuelo establecida para el dron. |
| URI: | http://repositorio.utm.mx:8080/jspui/handle/123456789/516 |
| Appears in Collections: | Doctorado |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| 2025-DR-ALRS.pdf | 42.9 MB | Adobe PDF | View/Open |
This item is licensed under a Creative Commons License

