Mostrar el registro sencillo del ítem

dc.rights.licenseAtribución-NoComercial 4.0 Internacionalspa
dc.contributor.advisorJunca Peláez, Mauricio José
dc.contributor.authorRugeles Ospina, Nicolás
dc.date.accessioned2022-07-19T01:52:31Z
dc.date.available2022-07-19T01:52:31Z
dc.date.issued2022
dc.identifier.urihttp://hdl.handle.net/1992/58942
dc.descriptionEl propósito de este trabajo es estudiar diferentes aplicaciones del método de Boosting en el contexto de aprendizaje de máquinas para problemas de aprendizaje supervisado.
dc.description.abstractEl propósito de este trabajo es estudiar diferentes aplicaciones del método de Boosting en el contexto de aprendizaje de máquinas para problemas de aprendizaje supervisado. Primero, se estudian diferentes algoritmos de Boosting para crear modelos aditivos tales como Adaboost y LogitBoost; popularizados a finales de los años 90 por su buen rendimiento. Se prueba que estos algoritmos crean de forma iterativa un modelo de regresión logística aditivo. Luego, se presenta un caso general de Boosting dentro de un espacio funcional. En este caso, se estudian algoritmos que no dependan directamente de la función de costo asociada lo que permite adaptarlos en diferentes contextos. Por otro lado, se estudian algoritmos de Boosting para resolver problemas de regresión lineal. Se estudian los algoritmos de LS-Boost y FS para resolver el problema de mínimos cuadrados. Se plantea el problema buscando el mejor residuo lo que permite demostrar que cada uno de estos algoritmos corresponde a una instancia de descenso de subgradiente para el mismo problema de optimización. Por último, se estudia una aproximación al problema de mínimos cuadrados regularizado modificando levemente el algoritmo de FS.
dc.format.extent80 páginases_CO
dc.format.mimetypeapplication/pdfes_CO
dc.language.isospaes_CO
dc.publisherUniversidad de los Andeses_CO
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/*
dc.titleAlgoritmos de Boosting para modelos de clasificación y regresión lineal
dc.typeTrabajo de grado - Pregradoes_CO
dc.publisher.programMatemáticases_CO
dc.subject.keywordOptimización convexa
dc.subject.keywordOptimización matemática
dc.publisher.facultyFacultad de Cienciases_CO
dc.publisher.departmentDepartamento de Matemáticases_CO
dc.contributor.juryQuiroz Salazar, Adolfo José
dc.type.driverinfo:eu-repo/semantics/bachelorThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.description.degreenameMatemáticoes_CO
dc.description.degreelevelPregradoes_CO
dc.identifier.instnameinstname:Universidad de los Andeses_CO
dc.identifier.reponamereponame:Repositorio Institucional Sénecaes_CO
dc.identifier.repourlrepourl:https://repositorio.uniandes.edu.co/es_CO
dc.relation.referencesStephen Boyd and Lieven Vandenberghe. Convex Optimization. Cambridge University Press, 2004.es_CO
dc.relation.referencesRobert M. Freund, Paul Grigas, and Rahul Mazumder. A new perspective on boosting in linear regression via subgradient optimization and relatives. Ann. Statist., 45(6):2328-2364, 2017.es_CO
dc.relation.referencesJerome Friedman, Trevor Hastie, and Robert Tibshirani. Additive logistic regression: a statistical view of boosting. Ann. Statist., 28(2):337-407, 2000.es_CO
dc.relation.referencesLlew Mason, Jonathan Baxter, Peter Bartlett, and Marcus Frean. Boosting algorithms as gradient descent. In S. Solla, T. Leen, and K. Müller,editors, Advances in Neural Information Processing Systems, volume 12, pages 512-518. MIT Press, 2000.es_CO
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentTextes_CO
dc.type.redcolhttp://purl.org/redcol/resource_type/TP
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2spa
dc.subject.themesMatemáticases_CO


Ficheros en el ítem

Thumbnail

Nombre: Trabajo_de_Grado_Nicolas_Rugel ...

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem