<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
  <channel>
    <title>DSpace Collection:</title>
    <link>http://repositorio.usfq.edu.ec/handle/23000/13319</link>
    <description />
    <pubDate>Tue, 04 Nov 2025 08:03:09 GMT</pubDate>
    <dc:date>2025-11-04T08:03:09Z</dc:date>
    <item>
      <title>Monitoring Tunas and Sharks using YOLO models in the Galápagos Islands</title>
      <link>http://repositorio.usfq.edu.ec/handle/23000/14680</link>
      <description>Title: Monitoring Tunas and Sharks using YOLO models in the Galápagos Islands
Authors: Morales Arcos, Diego Santiago
Abstract: Los tiburones y las atunes desempeñan un papel fundamental en los ecosistemas marinos, pero&#xD;
sus poblaciones están disminuyendo debido a la sobrepesca y la pérdida de hábitat. Se necesitan&#xD;
urgentemente métodos de monitoreo precisos y no invasivos para guiar estrategias de conservación&#xD;
efectivas. En este estudio, proponemos un sistema de detección automatizada basado en YOLO&#xD;
diseñado para identificar con precisión tiburones (específicamente tiburones sedosos y tigres) y atunes&#xD;
en videos submarinos grabados en las Islas Galápagos...
Description: Sharks and tunas play a pivotal role in marine ecosystems, yet their populations are declining due to&#xD;
overfishing and habitat loss. Accurate, non-invasive monitoring methods are urgently needed to guide&#xD;
effective conservation strategies. In this study, we propose a YOLO-based automated detection system&#xD;
designed to accurately identify sharks (specifically silky and tiger sharks) and tunas in underwater&#xD;
videos recorded in the Galápagos Islands...</description>
      <pubDate>Wed, 18 Dec 2024 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">http://repositorio.usfq.edu.ec/handle/23000/14680</guid>
      <dc:date>2024-12-18T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Smart Citizen Control of Public Procurement in Ecuador: Classification of accusatory comments from “Sistema Oficial de Contratación Pública del Ecuador (SOCE)” using LLMs</title>
      <link>http://repositorio.usfq.edu.ec/handle/23000/14679</link>
      <description>Title: Smart Citizen Control of Public Procurement in Ecuador: Classification of accusatory comments from “Sistema Oficial de Contratación Pública del Ecuador (SOCE)” using LLMs
Authors: Núñez Alverca, Bryan Patricio
Abstract: En el contexto de las compras públicas en Ecuador, donde la transparencia y la equidad son&#xD;
fundamentales, este estudio aborda el desafío de identificar comentarios acusatorios realizados por los&#xD;
proveedores durante la etapa de preguntas y respuestas en los procesos de licitación. Se recopilaron un&#xD;
total de 5,005 frases del portal de compras públicas, de las cuales solo 147 fueron etiquetadas como&#xD;
acusatorias, evidenciando un desbalance significativo entre clases. Se evaluaron cuatro modelos de&#xD;
lenguaje de gran escala (LLMs): ChatGPT 4o-mini, Llama 3.1 (8B y 70B) y PHI 3.5 mini, utilizando&#xD;
técnicas avanzadas de prompting como greedy search y beam search...
Description: In the context of public procurement in Ecuador, where transparency and fairness are essential,&#xD;
this study addresses the challenge of identifying accusatory comments made by suppliers during the&#xD;
question-and-answer stage of bidding processes. A total of 5,005 phrases were collected from the&#xD;
public procurement portal, of which only 147 were labeled as accusatory, highlighting a significant&#xD;
class imbalance. Four large language models (LLMs) were evaluated: ChatGPT 4o-mini, Llama 3.1&#xD;
(8B and 70B), and PHI 3.5 mini, leveraging advanced prompting techniques such as greedy search&#xD;
and beam search...</description>
      <pubDate>Mon, 02 Dec 2024 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">http://repositorio.usfq.edu.ec/handle/23000/14679</guid>
      <dc:date>2024-12-02T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Optimizing developer experience: BERT and MLP for spam detection in gaming applications submissions</title>
      <link>http://repositorio.usfq.edu.ec/handle/23000/14677</link>
      <description>Title: Optimizing developer experience: BERT and MLP for spam detection in gaming applications submissions
Authors: Molina Ortiz, Angel
Abstract: Este proyecto se centra en mejorar la experiencia de los usuarios en el portal para desarrolladores de&#xD;
Riot, optimizando la creación de aplicaciones que interactúan de manera eficiente y segura con todas&#xD;
sus API. Para lograr este objetivo, se ha implementado un modelo de inteligencia artificial basado en&#xD;
BERT y MLP, diseñado para detectar aplicaciones potencialmente no deseadas o spam. Al analizar&#xD;
los detalles de cada aplicación, el modelo predice si la aplicación debe ser aprobada o rechazada. El&#xD;
modelo propuesto demostró excelentes resultados de rendimiento, alcanzando una precisión del 91.34%,&#xD;
un puntaje F1 de 91.69% y un ROC AUC de 91.33%...
Description: This project focuses on improving the user experience on Riot’s developer portal by streamlining the&#xD;
creation of applications that interact efficiently and securely with all its API’s. To achieve this goal,&#xD;
an artificial intelligence model based on BERT and MLP has been implemented, designed to detect&#xD;
potentially unwanted or spam applications. By analyzing the details of each application, the model&#xD;
predicts whether the application should be approved or rejected. The proposed model demonstrated&#xD;
excellent performance results, achieving an accuracy of 91.34%, an F1 score of 91.69%, and an ROC&#xD;
AUC of 91.33%...</description>
      <pubDate>Mon, 02 Dec 2024 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">http://repositorio.usfq.edu.ec/handle/23000/14677</guid>
      <dc:date>2024-12-02T00:00:00Z</dc:date>
    </item>
    <item>
      <title>Emotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videos</title>
      <link>http://repositorio.usfq.edu.ec/handle/23000/14676</link>
      <description>Title: Emotion Recognition through Fine-tuned CNNs: Analyzing Facial Expressions in Videos
Authors: Marin Alquinga, Edison Daniel
Abstract: Gracias a los avances de inteligencia artificial, la capacidad en descifrar las emociones humanas&#xD;
a partir del rostro se ha convertido en un modo crucial de comunicación. Por lo que se propone un&#xD;
modelo de reconocimiento de emociones basado en aprendizaje profundo. A partir de 283,9k imágenes,&#xD;
se realiza la preparación de los datos. Este incluye el preprocesamiento, división y aumento, seguido&#xD;
de un ajuste fino de una red neuronal convolucional preentrenada. Para el entrenamiento escogen&#xD;
las imágenes provenientes de AffectNet, donde el modelo clasifica en 7 categorías originales. Luego,&#xD;
se realiza una evaluación, tomando como base los fotogramas de los rostos en videos detectados&#xD;
mediante MTCNN, teniendo como resultado una línea de tiempo de las emociones detectadas en el&#xD;
video de manera agrupada en positivo, negativo y neutro.
Description: Thanks to advances in artificial intelligence, the ability to decipher human emotions from the&#xD;
face has become a crucial mode of communication. Therefore, an emotion recognition model based&#xD;
on deep learning is proposed. From 283.9k images, data preparation is performed. This includes&#xD;
preprocessing, splitting, and augmentation, followed by fine-tuning a pre-trained convolutional neural&#xD;
network. For training, images from the AffectNet dataset are used, where the model classifies them&#xD;
into the original 7 categories. Then an evaluation is performed by analyzing frames of faces detected&#xD;
in videos using MTCNN. The result is an emotion timeline for the video, with the emotions grouped&#xD;
into positive, negative, and neutral categories.</description>
      <pubDate>Mon, 02 Dec 2024 00:00:00 GMT</pubDate>
      <guid isPermaLink="false">http://repositorio.usfq.edu.ec/handle/23000/14676</guid>
      <dc:date>2024-12-02T00:00:00Z</dc:date>
    </item>
  </channel>
</rss>

