Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.usfq.edu.ec/handle/23000/13497
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorRiofrío, Daniel, dir-
dc.contributor.authorLeón Caranqui, James Armando-
dc.date.accessioned2024-06-27T17:56:03Z-
dc.date.available2024-06-27T17:56:03Z-
dc.date.issued2023-11-23-
dc.identifier.citationTesis (Ingeniero en Ciencias de la Computación), Universidad San Francisco de Quito, Colegio de Ciencias e Ingenierías ; Quito, Ecuador, 2023es_ES
dc.identifier.urihttp://repositorio.usfq.edu.ec/handle/23000/13497-
dc.descriptionIn this study, we introduce a groundbreaking methodology for training large language models (LLMs) on languages with limited digital resources, utilizing Low-Rank Adaptation (LoRA) techniques. Focused on the Kichwa language—a linguistically underserved yet culturally rich language spoken by over half a million individuals in Ecuador and neighboring regions—our approach leverages the robustness of the Transformer architecture, renowned for its efficacy in machine translation tasks. Given the scarcity of Kichwa data, we employ LoRA techniques to fine-tune a pre-existing Transformer model, thereby overcoming the challenges typically associated with low-resource languages...es_ES
dc.description.abstractEn este estudio, introducimos una metodología innovadora para entrenar modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) en idiomas con recursos digitales limitados, utilizando técnicas de Adaptación de Bajo Rango (LoRA). Centrado en el idioma Kichwa—un idioma lingüísticamente desatendido pero culturalmente rico, hablado por más de medio millón de personas en Ecuador—nuestro enfoque aprovecha la robustez de la arquitectura Transformer, conocida por su eficacia en tareas de traducción automática. Dada la escasez de datos en Kichwa, empleamos técnicas de LoRA para ajustar un modelo pre-entrenado, superando así los desafíos típicamente asociados con idiomas de bajos recursos...es_ES
dc.format.extent56 hes_ES
dc.language.isospaes_ES
dc.publisherQuitoes_ES
dc.rightsopenAccesses_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Ecuador*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/ec/*
dc.subjectRedes neuronales (Computadores) - Tesis y disertaciones académicases_ES
dc.subjectAprendizaje automático (Inteligencia artificial) - Investigacioneses_ES
dc.subject.otherCienciases_ES
dc.subject.otherComputaciónes_ES
dc.titleURKU : adaptación de LlaMA 2 para la generación de texto en Kichwa usando técnicas de Low-Rank Adaptation (LoRA)es_ES
dc.typebachelorThesises_ES
Aparece en las colecciones: Tesis - Ingeniería en Ciencias de la Computación

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
213782.pdfTexto completo1.91 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons