Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.cetys.mx/handle/60000/1941
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorTutor de tesis: Orozco Rosas, Dr. Ulises-
dc.contributor.authorArgueta Vázquez, Norma Vanessa-
dc.date.accessioned2025-07-21T19:51:25Z-
dc.date.available2025-07-21T19:51:25Z-
dc.date.issued2025-06-
dc.identifier.urihttps://repositorio.cetys.mx/handle/60000/1941-
dc.description.abstractEl presente estudio de investigación aborda el desarrollo de un modelo de colorización automática de imágenes en escala de grises mediante un enfoque híbrido de aprendizaje profundo, que combina las fortalezas de tres arquitecturas: redes neuronales convolucionales (CNN), redes generativas adversariales (GAN) y Visión Transformers (ViT). El sistema propuesto tiene como objetivo reconstruir los colores perdidos en imágenes monocromáticas de manera realista, eficiente y coherente, apoyándose en la capacidad de aprendizaje de patrones espaciales locales, generación adversarial de detalles visuales y atención global a largo alcance. Para su entrenamiento, se utilizo el conjunto de datos ImageNet, ampliamente reconocido por su variedad de clases y riqueza visual, lo cual permitió al modelo generalizar de forma adecuada a distintos contextos y estilos de imagen. La evaluación se realizó mediante métricas cuantitativas como el PSNR (Peak Signal-to-Noise Ratio) y el SSIM (Structural Similarity Index ), lo que permitió validar tanto la fidelidad del color como la preservación de la estructura visual en las imágenes generadas. Además, el modelo fue diseñado para adaptarse tanto a entornos con CPU (Unidad Central de Procesamiento) como GPU (Unidad de Procesamiento Gráfico), garantizando su versatilidad y aplicabilidad en diversas condiciones computacionales. Como conclusión, el sistema demostró ser efectivo en la tarea de colorización automática, superando modelos base en términos de calidad visual. Este trabajo representa un aporte significativo en el campo de la visión por computadora, con potencial para ser aplicado en la restauración de archivos históricos, arte digital y medios audiovisuales.es_ES
dc.language.isoeses_ES
dc.rightsAtribución-NoComercial-CompartirIgual 2.5 México*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/2.5/mx/*
dc.subjectredes neuronales convolucionales (CNN)es_ES
dc.subjectredes generativas adversariales (GAN)es_ES
dc.subjectVision Transformers (ViT)es_ES
dc.titleColores que cobran vida: aplicación de redes neuronales profundas en la coloración de imágeneses_ES
dc.typeThesises_ES
dc.description.degreeMaestría en Ingeniería e Innovaciónes_ES
dc.subject.sedeCampus Tijuanaes_ES
Aparece en las colecciones: Tesis y Monografías

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
FINAL_TesisMaestria2025_NormaArgueta.pdf20.42 MBAdobe PDFVista previa
Visualizar/Abrir
LicenciaResguardo_NormaArgueta_signed.pdf283.05 kBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons