Encabezado Facultad de Ciencias
Presentación

Actuaría (plan 2015) 2022-2

Optativas, Seminario de Estadística I

Grupo 9266, 60 lugares. 24 alumnos.
Aprendizaje Estadístico automatizado (Statistical Machine Learning)
Profesor Guillermina Eslava Gómez lu mi vi 12 a 13
Ayudante César Zarco Romero ma ju 12 a 13
 

Aprendizaje Estadístico Automatizado (Statistical Machine learning). Licenciatura, 2022-2.

Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Mat., Facultad de Ciencias (FC).

Ayudante: César Zarco Romero, cesarzarco@ciencias.unam.mx

Horario: Lunes, Miércoles y Viernes 12-13 hrs.

Requisitos: Haber cursado y aprobado Inferencia estadística, y Modelos no Paramétricos y de Regresión. Estar familiarizado con R o con Python.

Material del curso en: Classroom.

Evaluación: Cada capítulo del 1-6 será evaluado con un examen-tarea, individual o por equipo, 80 %. Un proyecto final que incluye el cap 7, para presentarse de forma oral y escrita, 20 %. No hay reposiciones. Examen final individual si es requerido.

Nota El trabajo es muy práctico. No se aceptan oyentes.

Temario

0. Introducción

i) Alcances y limitaciones del curso

ii) Lineamiento generales para la redacción y presentación de las tareas y del proyecto final.

1. Modelo de regresión lineal

i) Repaso del modelo de Regresión lineal múltiple con variables continuas, binarias, discretas, y mixtas. Anovas.

2. Aprendizaje no supervisado.

i) Introducción

ii) Análisis de Componentes Principales

iii) Análisis de conglomerados

3. Métodos de evaluación y selección de modelos

i) Introducción

ii) Training/test/validation sets

iii) Bias/variance trade-off

iv) Generalization and overfitting

v) Repeated holdout

vi) Cross-Validation

vii) Bootstrap

4. Aprendizaje supervizado.

i) Introducción

ii) Regresión logística (GLM)

iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour

iv) Support Vector Machines, SVM

5. Modelos de árboles.

i) Trees (Árboles de decisión)

iii) Random forest

iv) Boosting

6. Selección de modelos y regularización.

i) Métodos clásicos

ii) Selección de modelos en alta dimensión

iii) Ridge regression and Lasso

iv) Elastic net

v) Relaxed lasso

7. Redes Neuronales (NN)

i) One-layer

ii) Introducción a Deep learning (deep NN: Multilayer & Convolutional)

Bibliografía

Agresti, A. (2015). Foundations of Linear and Generalized Linear Models. Wiley.

Agresti, A. and Kateri M. (2021). Foundations of Statistics for Data Scientists: With R and Python. Chapman and Hall.

Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores.

Grolemund, G and Wickham H. “R for Data Science”. RDS.

Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Disponible en Springer a través de la UNAM.

Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.

James, G., Witten, D., Hastie, T., Tibshirani, R. (2021). An Introduction to Statistical Learning. With applications in R, Springer. Second edition. Texto a seguir en el laboratorio del curso y disponible en Springer a través de la UNAM.

Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer--Verlag.

Curso en línea impartido por Hastie & Tibshirani:

https://www.r-bloggers.com/in-depth-introduction-to-machine-learning-in-15-hours-of-expert-videos/

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.