Encabezado Facultad de Ciencias
Presentación

Matemáticas (plan 1983) 2021-1

Optativas de los Niveles VII y VIII, Seminario Matemáticas Aplicadas I

Grupo 4279, 65 lugares. 38 alumnos.
Inteligencia Artificial y Aprendizaje Profundo (Teoría Matemática de Redes Neuronales)
Profesor Miguel Arturo Ballesteros Montero lu mi vi 10 a 11
Ayudante Guillermo Garro Gómez ma ju 10 a 11
Ayudante Diego Alejandro Iniesta Miranda
 

Clases con Miguel Ballesteros : 10:00 a 11:00 con Zoom

Join Zoom Meeting
https://cuaed-unam.zoom.us/j/6106408798

Meeting ID: 610 640 8798
One tap mobile
+525568269800,,6106408798# Mexico
+525586596001,,6106408798# Mexico

Dial by your location
+52 556 826 9800 Mexico
+52 558 659 6001 Mexico
+52 229 910 0061 Mexico
+52 554 161 4288 Mexico
+1 312 626 6799 US (Chicago)
+1 346 248 7799 US (Houston)
+1 646 876 9923 US (New York)
+1 669 900 6833 US (San Jose)
+1 253 215 8782 US (Tacoma)
+1 301 715 8592 US (Germantown)
Meeting ID: 610 640 8798
Find your local number: https://cuaed-unam.zoom.us/u/acVj4Xv37V

Join by SIP
6106408798@zoomcrc.com

Join by H.323
162.255.37.11 (US West)
162.255.36.11 (US East)
115.114.131.7 (India Mumbai)
115.114.115.7 (India Hyderabad)
213.19.144.110 (Amsterdam Netherlands)
213.244.140.110 (Germany)
103.122.166.55 (Australia)
149.137.40.110 (Singapore)
64.211.144.160 (Brazil)
69.174.57.160 (Canada)
207.226.132.110 (Japan)
Meeting ID: 610 640 8798

Join by Skype for Business
https://cuaed-unam.zoom.us/skype/6106408798

Se hablará sobre el temario, forma de calificar, forma de trabajo y se resolverán sus dudas.

Primer Ayudantía : 22 de septiembre de 10:00 a 11:00 con Zoom

José de Jesús Falcón Vázquez is inviting you to a scheduled Zoom meeting.

Topic: Ayudantía
Time: Sep 22, 2020 10:00 AM Mexico City

Join Zoom Meeting

https://zoom.us/j/99483946880?pwd=d2U3U1I1WWNXa1prc2xoK0NTOTRNdz09

Meeting ID: 994 8394 6880
Passcode: 7w4i6q

Código para Google Classroom (Realizado Por José de Jesús Falcón Vázquez): l75q62w

Inteligencia Artificial y Aprendizaje Profundo (Teoría Matemática de Redes Neuronales)

La inteligencia artificial es un área que ha tomado mucho impacto en los últimos años. En particular, el aprendizaje profundo (deep learning), tiene mucha popularidad, tanto en el ámbito científico como en el industrial, por la gran variedad de aplicaciones y el desempeño que tiene. Algunas de sus aplicaciones son la clasificación de imágenes, visión por computadora, automóviles autónomos, etc.

Este curso tiene como objetivo profundizar en la base matemática de la inteligencia artificial (en especial en el aprendizaje profundo), para lograr comprender cómo es que este tipo de algoritmos y técnicas funcionan y por qué son tan útiles. Por lo tanto, este es un curso formal de matemáticas rigurosas basado en demostraciones.

La perspectiva que se aborda en el presente curso es muy poco frecuente porque la mayoría de los cursos en inteligencia artificial se llevan a cabo de forma ingenieril o desde la rama de la computación, de manera que se le da mucho mayor importancia a la implementación que al entendimiento profundo del tema. En este curso le damos mucha importancia al entendimiento formal y completo de la materia.

TEMARIO:

  1. Introducción.

  1. Resultados clásicos de aproximación por redes neuronales.

    1. Perceptrón y MLP (Perceptrón multicapa).

    2. Universalidad.

    3. Operaciones básicas de redes.

    4. Reaproximación de diccionarios.

    5. Aproximación de funciones suaves.

    6. Aproximaciones rápidas con Kolmogorov.

  1. Redes ReLU

    1. Elementos lineales finitos y redes ReLU.

    2. Aproximación de la función cuadrada.

    3. Aproximación de funciones suaves.

  1. El papel de la profundidad

    1. Representación de funciones con soporte compacto.

    2. Número de piezas.

    3. Aproximación de funciones no lineales.

Temas opcionales:

Los siguientes temas se darán de acuerdo a la elección del grupo y a qué tan rápido se avance con los temas del curso.

  1. Implementación (dependiendo de la opinión del grupo)

    1. Algoritmo de descenso de gradiente

    2. Algoritmo de back-propagation.

    3. Implementación de MLP’s, redes ReLU y aplicaciones.

  1. Redes Neuronales de Convolución (dependiendo de la opinión del grupo).

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.