Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.usfq.edu.ec/handle/23000/14676
Tipo de material: masterThesis
Título : Emotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videos
Autor : Marin Alquinga, Edison Daniel
Director de Tesis : Grijalva, Felipe, dir.
Descriptores : Inteligencia artificial - Procesamiento digital de imagenes - Tesis y disertaciones académicas
Fecha de publicación : 2-dic-2024
Editorial : Quito,
Citación : Tesis (Magíster en Inteligencia Artificial), Universidad San Francisco de Quito, Colegio de Posgrados ; Quito, Ecuador, 2024
Páginas : 17 h.
Acceso: openAccess
Atribución-NoComercial-SinDerivadas 3.0 Ecuador
Resumen : Gracias a los avances de inteligencia artificial, la capacidad en descifrar las emociones humanas a partir del rostro se ha convertido en un modo crucial de comunicación. Por lo que se propone un modelo de reconocimiento de emociones basado en aprendizaje profundo. A partir de 283,9k imágenes, se realiza la preparación de los datos. Este incluye el preprocesamiento, división y aumento, seguido de un ajuste fino de una red neuronal convolucional preentrenada. Para el entrenamiento escogen las imágenes provenientes de AffectNet, donde el modelo clasifica en 7 categorías originales. Luego, se realiza una evaluación, tomando como base los fotogramas de los rostos en videos detectados mediante MTCNN, teniendo como resultado una línea de tiempo de las emociones detectadas en el video de manera agrupada en positivo, negativo y neutro.
Descripción : Thanks to advances in artificial intelligence, the ability to decipher human emotions from the face has become a crucial mode of communication. Therefore, an emotion recognition model based on deep learning is proposed. From 283.9k images, data preparation is performed. This includes preprocessing, splitting, and augmentation, followed by fine-tuning a pre-trained convolutional neural network. For training, images from the AffectNet dataset are used, where the model classifies them into the original 7 categories. Then an evaluation is performed by analyzing frames of faces detected in videos using MTCNN. The result is an emotion timeline for the video, with the emotions grouped into positive, negative, and neutral categories.
URI : http://repositorio.usfq.edu.ec/handle/23000/14676
Aparece en las colecciones: Tesis - Maestría en Inteligencia Artificial

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
339450.pdfTexto completo2.63 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons