Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.usfq.edu.ec/handle/23000/14676
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorGrijalva, Felipe, dir.-
dc.contributor.authorMarin Alquinga, Edison Daniel-
dc.date.accessioned2025-10-20T16:42:31Z-
dc.date.available2025-10-20T16:42:31Z-
dc.date.issued2024-12-02-
dc.identifier.citationTesis (Magíster en Inteligencia Artificial), Universidad San Francisco de Quito, Colegio de Posgrados ; Quito, Ecuador, 2024es_ES
dc.identifier.urihttp://repositorio.usfq.edu.ec/handle/23000/14676-
dc.descriptionThanks to advances in artificial intelligence, the ability to decipher human emotions from the face has become a crucial mode of communication. Therefore, an emotion recognition model based on deep learning is proposed. From 283.9k images, data preparation is performed. This includes preprocessing, splitting, and augmentation, followed by fine-tuning a pre-trained convolutional neural network. For training, images from the AffectNet dataset are used, where the model classifies them into the original 7 categories. Then an evaluation is performed by analyzing frames of faces detected in videos using MTCNN. The result is an emotion timeline for the video, with the emotions grouped into positive, negative, and neutral categories.es_ES
dc.description.abstractGracias a los avances de inteligencia artificial, la capacidad en descifrar las emociones humanas a partir del rostro se ha convertido en un modo crucial de comunicación. Por lo que se propone un modelo de reconocimiento de emociones basado en aprendizaje profundo. A partir de 283,9k imágenes, se realiza la preparación de los datos. Este incluye el preprocesamiento, división y aumento, seguido de un ajuste fino de una red neuronal convolucional preentrenada. Para el entrenamiento escogen las imágenes provenientes de AffectNet, donde el modelo clasifica en 7 categorías originales. Luego, se realiza una evaluación, tomando como base los fotogramas de los rostos en videos detectados mediante MTCNN, teniendo como resultado una línea de tiempo de las emociones detectadas en el video de manera agrupada en positivo, negativo y neutro.es_ES
dc.format.extent17 h.es_ES
dc.publisherQuito,es_ES
dc.rightsopenAccesses_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Ecuador*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/ec/*
dc.subjectInteligencia artificial - Procesamiento digital de imagenes - Tesis y disertaciones académicases_ES
dc.subject.otherCienciases_ES
dc.subject.otherComputaciónes_ES
dc.titleEmotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videoses_ES
dc.typemasterThesises_ES
Aparece en las colecciones: Tesis - Maestría en Inteligencia Artificial

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
339450.pdfTexto completo2.63 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons