http://repositorio.usfq.edu.ec/handle/23000/13497
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Riofrío, Daniel, dir | - |
dc.contributor.author | León Caranqui, James Armando | - |
dc.date.accessioned | 2024-06-27T17:56:03Z | - |
dc.date.available | 2024-06-27T17:56:03Z | - |
dc.date.issued | 2023-11-23 | - |
dc.identifier.citation | Tesis (Ingeniero en Ciencias de la Computación), Universidad San Francisco de Quito, Colegio de Ciencias e Ingenierías ; Quito, Ecuador, 2023 | es_ES |
dc.identifier.uri | http://repositorio.usfq.edu.ec/handle/23000/13497 | - |
dc.description | In this study, we introduce a groundbreaking methodology for training large language models (LLMs) on languages with limited digital resources, utilizing Low-Rank Adaptation (LoRA) techniques. Focused on the Kichwa language—a linguistically underserved yet culturally rich language spoken by over half a million individuals in Ecuador and neighboring regions—our approach leverages the robustness of the Transformer architecture, renowned for its efficacy in machine translation tasks. Given the scarcity of Kichwa data, we employ LoRA techniques to fine-tune a pre-existing Transformer model, thereby overcoming the challenges typically associated with low-resource languages... | es_ES |
dc.description.abstract | En este estudio, introducimos una metodología innovadora para entrenar modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) en idiomas con recursos digitales limitados, utilizando técnicas de Adaptación de Bajo Rango (LoRA). Centrado en el idioma Kichwa—un idioma lingüísticamente desatendido pero culturalmente rico, hablado por más de medio millón de personas en Ecuador—nuestro enfoque aprovecha la robustez de la arquitectura Transformer, conocida por su eficacia en tareas de traducción automática. Dada la escasez de datos en Kichwa, empleamos técnicas de LoRA para ajustar un modelo pre-entrenado, superando así los desafíos típicamente asociados con idiomas de bajos recursos... | es_ES |
dc.format.extent | 56 h | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Quito | es_ES |
dc.rights | openAccess | es_ES |
dc.rights | Atribución-NoComercial-SinDerivadas 3.0 Ecuador | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ec/ | * |
dc.subject | Redes neuronales (Computadores) - Tesis y disertaciones académicas | es_ES |
dc.subject | Aprendizaje automático (Inteligencia artificial) - Investigaciones | es_ES |
dc.subject.other | Ciencias | es_ES |
dc.subject.other | Computación | es_ES |
dc.title | URKU : adaptación de LlaMA 2 para la generación de texto en Kichwa usando técnicas de Low-Rank Adaptation (LoRA) | es_ES |
dc.type | bachelorThesis | es_ES |
Aparece en las colecciones: | Tesis - Ingeniería en Ciencias de la Computación |
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
213782.pdf | Texto completo | 1.91 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons