Campo DC | Valor | Lengua/Idioma |
dc.contributor.advisor | Grijalva, Felipe, dir. | - |
dc.contributor.author | Marin Alquinga, Edison Daniel | - |
dc.date.accessioned | 2025-10-20T16:42:31Z | - |
dc.date.available | 2025-10-20T16:42:31Z | - |
dc.date.issued | 2024-12-02 | - |
dc.identifier.citation | Tesis (Magíster en Inteligencia Artificial), Universidad San Francisco de Quito, Colegio de Posgrados ; Quito, Ecuador, 2024 | es_ES |
dc.identifier.uri | http://repositorio.usfq.edu.ec/handle/23000/14676 | - |
dc.description | Thanks to advances in artificial intelligence, the ability to decipher human emotions from the
face has become a crucial mode of communication. Therefore, an emotion recognition model based
on deep learning is proposed. From 283.9k images, data preparation is performed. This includes
preprocessing, splitting, and augmentation, followed by fine-tuning a pre-trained convolutional neural
network. For training, images from the AffectNet dataset are used, where the model classifies them
into the original 7 categories. Then an evaluation is performed by analyzing frames of faces detected
in videos using MTCNN. The result is an emotion timeline for the video, with the emotions grouped
into positive, negative, and neutral categories. | es_ES |
dc.description.abstract | Gracias a los avances de inteligencia artificial, la capacidad en descifrar las emociones humanas
a partir del rostro se ha convertido en un modo crucial de comunicación. Por lo que se propone un
modelo de reconocimiento de emociones basado en aprendizaje profundo. A partir de 283,9k imágenes,
se realiza la preparación de los datos. Este incluye el preprocesamiento, división y aumento, seguido
de un ajuste fino de una red neuronal convolucional preentrenada. Para el entrenamiento escogen
las imágenes provenientes de AffectNet, donde el modelo clasifica en 7 categorías originales. Luego,
se realiza una evaluación, tomando como base los fotogramas de los rostos en videos detectados
mediante MTCNN, teniendo como resultado una línea de tiempo de las emociones detectadas en el
video de manera agrupada en positivo, negativo y neutro. | es_ES |
dc.format.extent | 17 h. | es_ES |
dc.publisher | Quito, | es_ES |
dc.rights | openAccess | es_ES |
dc.rights | Atribución-NoComercial-SinDerivadas 3.0 Ecuador | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ec/ | * |
dc.subject | Inteligencia artificial - Procesamiento digital de imagenes - Tesis y disertaciones académicas | es_ES |
dc.subject.other | Ciencias | es_ES |
dc.subject.other | Computación | es_ES |
dc.title | Emotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videos | es_ES |
dc.type | masterThesis | es_ES |
Aparece en las colecciones: | Tesis - Maestría en Inteligencia Artificial
|