Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.utm.mx:8080/jspui/handle/123456789/464
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.rights.license | Sin Derechos Reservados | en |
dc.contributor | RAÚL CRUZ BARBOSA;342911 | en |
dc.contributor | ARTURO TÉLLEZ VELÁZQUEZ;177179 | en |
dc.contributor.advisor | Cruz Barbosa, Raúl | - |
dc.contributor.author | Carrasco Jiménez, Jorge A. | - |
dc.creator | JORGE ARTURO CARRASCO JIMÉNEZ; 1081351 | en |
dc.date.accessioned | 2024-02-27T17:40:24Z | - |
dc.date.available | 2024-02-27T17:40:24Z | - |
dc.date.issued | 2023-05 | - |
dc.identifier.citation | Carrasco, J. A. (2023). Reconocimiento híbrido de emociones a partir del análisis de voz y de expresiones faciales (Tesis para obtener el título de Maestro en Tecnologías de Cómputo Aplicado). Universidad Tecnológica de la Mixteca, Huajuapan de León, Oaxaca. | en |
dc.identifier.uri | http://repositorio.utm.mx:8080/jspui/handle/123456789/464 | - |
dc.description.abstract | Con el fin de encontrar modelos precisos de alta exactitud de clasificación para el reconocimiento de emociones mediante la voz, se utilizan diferentes técnicas con redes neuronales convolucionales 1D y 2D. En la red 2D utilizada (FSER) se propone una transformación de información de audio a imagen a través de una representación espectral. Experimentalmente se determina que, para UTeMo, se extraen las características más representativas de cada emoción a partir de los cocleogramas, ya que con esta representación se alcanza un 95.08 % de exactitud de clasificación. En el caso del reconocimiento de emociones mediante expresiones faciales se toma en consideración el análisis temporal entre imágenes mediante técnicas de flujo óptico. Sin embargo, experimentalmente se determina que hay un mejor desempeño realzando las características de las imágenes de los rostros y utilizando éstas como fuente de información. Utilizando las imágenes de las expresiones faciales con realce de características y la arquitectura MobileNet se logra un 95.96 % de exactitud de clasificación. | en |
dc.language.iso | spa | en |
dc.publisher | Universidad Tecnológica de la Mixteca | en |
dc.relation.ispartof | REPOSITORIO NACIONAL CONAHCYT | en |
dc.rights | openAccess | en |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0 | en |
dc.subject | Reconocimiento de emociones; aprendizaje profundo; CNN | en |
dc.subject.other | 7 INGENIERIA Y TECNOLOGIA | en |
dc.title | Reconocimiento híbrido de emociones a partir del análisis de voz y de expresiones faciales | en |
dc.type | Tesis de Maestría | en |
dc.creator.cvu | 1081351 | en |
dc.creator.curp | CAJJ970901HOCRMR05 | en |
dc.creator.email | carrascojj.106@gmail.com | en |
dc.creator.studiesP | Maestría en Tecnologías de Cómputo Aplicado | en |
dc.type.status | submittedVersion | en |
Aparece en las colecciones: | Maestría |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
2023-MTCA-JACJ.pdf | 6.13 MB | Adobe PDF | Visualizar |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons