Encabezado Facultad de Ciencias
Presentación

Actuaría (plan 2006) 2019-2

Optativas, Seminario de Aplicaciones Actuariales

Grupo 9354, 35 lugares. 7 alumnos.
Estadística Computacional y Machine Learning.
Profesor Jimmy Hernández Morales lu vi 18 a 19 104 (Nuevo Edificio)
mi 18 a 19 Laboratorio de Enseñanza de Cómputo de Matemáticas
Ayudante Miguel Hinojosa Medrano ma ju 18 a 19 104 (Nuevo Edificio)
 
Temario de Estadística Computacional y Machine Learning
El curso pretende ser una introducción a lo que actualmente se conoce como Machine Learning, que son un conjunto de técnicas estadísticas que junto con el desarrollo de algoritmos computacionales ha tenido gran auge en los últimos años. Todos los temas serán estudiados desde el punto de vista estadístico formal, pero haciendo mucho énfasis en la implementación computacional. Los lenguajes que usaremos serán Python, por ser el lenguaje más utilizado en la industria en el ambito de ML y como motor de base de datos PostgreSQL y MongoDB. Las bibliotecas esenciales que usaremos son Matplotlib, Scipy, Numpy, Pandas, pyGAM, Scikit-Learn, Spacy, Scrapy y Pyspark, . Se cali ficará mediante tareas y proyectos. El repositorio del curso es:
https://github.com/jimmyhm/MLCiencias_2019_2
Temario:
1. Regresión Lineal y Logística
1.1 Regresión Lineal Simple
1.2 Regresión Múltiple
1.3 Selección de Modelos
1.3.1 Criterios AIC, BIC y divergencia de Kullback-Leibler
1.4 Regresión Logística
2. Aprendizaje Supervisado(Clasifi cación)
2.1 Clasicadores Lineales y Gausianos.
2.2 Regresión Lineal y Logística
2.3 Discriminante Lineal(LDA)
2.3 Naive Bayes
2.4 Maquinas soporte vectorial
2.5 Kernelización
2.6 Ejemplos, caso de estudio: redes neuronales.
3. Modelos Aditivos, Arboles y Boosting
3.1 Algoritmos de busqueda en inteligencia artificial
3.2 Ascenso de Colinas e ID3
3.2 Arboles de regresión
3.3 Arboles de clasi ficación
3.4 Métodos boosting
3.5 Ajuste boosting y modelos aditivos.
3.5 Arboles boosting
3.1 Modelos aditivos Generalizados.
4. Aprendizaje no Supervisado(Clustering)
4.1 Reglas de asociación
4.2 Análisis de Clúster
4.3 Componentes principales.
5. Estadística de Altas Dimensiones y Big Data
5.1 Algoritmos de optimización
5.1.1 Descenso Gradiente
5.1.1 Coordenadas descendientes
5.2 Regresión Contraída
5.2.1 Regresión Lasso
5.2.1 Regresión Ridge
5.3 Correlación Espuria
5.4 Endogeneidad incidental
5.4.1 GMM
5.4.2 FGMM
5.5 Acumulación de ruido
5.6 Introducción a Spark
6 Estadistica computacional
Booststrap
Simulated Anneling
7. Mineria de Texto
7.1 Modelos
7.2 Web Scraping
7.3 Mineria de Opinión
Bibliografía
[1] Hastie, T., Tibshirani, R., Friedman, J The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer.
[3] G. James, D. Witten, T. Hastie and R. Tibshirani An Introduction to Statistical Learning, with Application in R Springer, 2013.
[4] Diggle, P Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.
[5] T. W. Anderson An Introduction to Multivariate Statistical Analysis, John Wiley and Sons Inc; Edición: 3rd Edition .
[6] Michie, Spiegelhalter y Taylor y Petrick J. Heagarty , Machine Learning, Neural and Statistical Classi cation.
[7] Alan Agresti , Categorical Data Analysis, Wiley-Interscience Publication.
[8] Andreas Muller, Sarah Guido, Introduction to Machine Learning with Python, a guide for data Scientist Springer.

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.