http://repositorio.usfq.edu.ec/handle/23000/14676
Tipo de material: | masterThesis |
Título : | Emotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videos |
Autor : | Marin Alquinga, Edison Daniel |
Director de Tesis : | Grijalva, Felipe, dir. |
Descriptores : | Inteligencia artificial - Procesamiento digital de imagenes - Tesis y disertaciones académicas |
Fecha de publicación : | 2-dic-2024 |
Editorial : | Quito, |
Citación : | Tesis (Magíster en Inteligencia Artificial), Universidad San Francisco de Quito, Colegio de Posgrados ; Quito, Ecuador, 2024 |
Páginas : | 17 h. |
Acceso: | openAccess Atribución-NoComercial-SinDerivadas 3.0 Ecuador |
Resumen : | Gracias a los avances de inteligencia artificial, la capacidad en descifrar las emociones humanas a partir del rostro se ha convertido en un modo crucial de comunicación. Por lo que se propone un modelo de reconocimiento de emociones basado en aprendizaje profundo. A partir de 283,9k imágenes, se realiza la preparación de los datos. Este incluye el preprocesamiento, división y aumento, seguido de un ajuste fino de una red neuronal convolucional preentrenada. Para el entrenamiento escogen las imágenes provenientes de AffectNet, donde el modelo clasifica en 7 categorías originales. Luego, se realiza una evaluación, tomando como base los fotogramas de los rostos en videos detectados mediante MTCNN, teniendo como resultado una línea de tiempo de las emociones detectadas en el video de manera agrupada en positivo, negativo y neutro. |
Descripción : | Thanks to advances in artificial intelligence, the ability to decipher human emotions from the face has become a crucial mode of communication. Therefore, an emotion recognition model based on deep learning is proposed. From 283.9k images, data preparation is performed. This includes preprocessing, splitting, and augmentation, followed by fine-tuning a pre-trained convolutional neural network. For training, images from the AffectNet dataset are used, where the model classifies them into the original 7 categories. Then an evaluation is performed by analyzing frames of faces detected in videos using MTCNN. The result is an emotion timeline for the video, with the emotions grouped into positive, negative, and neutral categories. |
URI : | http://repositorio.usfq.edu.ec/handle/23000/14676 |
Aparece en las colecciones: | Tesis - Maestría en Inteligencia Artificial |
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
339450.pdf | Texto completo | 2.63 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons