Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.usfq.edu.ec/handle/23000/13497
Tipo de material: bachelorThesis
Título : URKU : adaptación de LlaMA 2 para la generación de texto en Kichwa usando técnicas de Low-Rank Adaptation (LoRA)
Autor : León Caranqui, James Armando
Director de Tesis : Riofrío, Daniel, dir
Descriptores : Redes neuronales (Computadores) - Tesis y disertaciones académicas;Aprendizaje automático (Inteligencia artificial) - Investigaciones
Fecha de publicación : 23-nov-2023
Editorial : Quito
Citación : Tesis (Ingeniero en Ciencias de la Computación), Universidad San Francisco de Quito, Colegio de Ciencias e Ingenierías ; Quito, Ecuador, 2023
Páginas : 56 h
Acceso: openAccess
Atribución-NoComercial-SinDerivadas 3.0 Ecuador
Resumen : En este estudio, introducimos una metodología innovadora para entrenar modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) en idiomas con recursos digitales limitados, utilizando técnicas de Adaptación de Bajo Rango (LoRA). Centrado en el idioma Kichwa—un idioma lingüísticamente desatendido pero culturalmente rico, hablado por más de medio millón de personas en Ecuador—nuestro enfoque aprovecha la robustez de la arquitectura Transformer, conocida por su eficacia en tareas de traducción automática. Dada la escasez de datos en Kichwa, empleamos técnicas de LoRA para ajustar un modelo pre-entrenado, superando así los desafíos típicamente asociados con idiomas de bajos recursos...
Descripción : In this study, we introduce a groundbreaking methodology for training large language models (LLMs) on languages with limited digital resources, utilizing Low-Rank Adaptation (LoRA) techniques. Focused on the Kichwa language—a linguistically underserved yet culturally rich language spoken by over half a million individuals in Ecuador and neighboring regions—our approach leverages the robustness of the Transformer architecture, renowned for its efficacy in machine translation tasks. Given the scarcity of Kichwa data, we employ LoRA techniques to fine-tune a pre-existing Transformer model, thereby overcoming the challenges typically associated with low-resource languages...
URI : http://repositorio.usfq.edu.ec/handle/23000/13497
Aparece en las colecciones: Tesis - Ingeniería en Ciencias de la Computación

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
213782.pdfTexto completo1.91 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons