Encabezado Facultad de Ciencias
Presentación

Ciencias de la Computación (plan 2013) 2022-2

Optativas, Redes Neuronales

Grupo 7111, 60 lugares. 15 alumnos.
Profesor Sergio Hernández López lu mi 18:30 a 20 P108
Ayudante José Alejandro Rojas López ma ju 20 a 21 P108
Ayud. Lab. Julio César Misael Monroy González mi 16 a 18
 

Actualización 13 de Febrero:

La sesión de presentación se llevará a cabo por Zoom en este liga https://cuaieed-unam.zoom.us/my/sergiohzlz

Avisos para mantenernos en contacto será a través de la página

https://sites.google.com/site/neuronalesciencias/

Las redes neuronales artificiales son muy populares hoy en día. Como disciplina de estudio las podemos encontrar como un subcampo de la inteligencia artificial sin embargo son modelos de cómputo basados originalmente en la estructura del cerebro y actualmente se usan para una gran diversidad de cosas como pueden ser el reconocimiento de imágenes, procesamiento del lenguaje natural y hasta para la investigación de matemáticas y física.


El desarrollo de las redes neuronales como herramientas de cómputo empezó alrededor de 1940 con el trabajo de McCulloch y Pitts y han tenido un camino largo que ha pasado por una etapa de estancamiento pero han recobrado un interés muy extenso por su gran capacidad como herramientas de cómputo para generalizar conceptos.

Dentro de las usos comunes de las redes neuronales se encuentran la clasificación estadística, la detección de anomalías y la aproximación general de funciones. Dentro de los diferentes tipos que existen de redes neuronales están las de señalización por capas y las recurrentes, dentro de las que podemos encontrar al perceptrón multicapa o las convolucionales en las primeras y las redes de Hopfield, AutoEncoders.

En este curso se verán fundamentos teóricos y prácticos para comprender y usar diferentes redes neuronales así como una perspectiva del estado actual que guarda este campo.

Si estás interesado mandar un mensaje a Sergio Hernández a sergiohzlz@ciencias.unam.mx

o en Telegram al usuario: @sergiohzlz.

Temario

  • Perceptrón
  • Regresión Logística
  • Descenso del gradiente
  • Perceptrón multicapa
  • Funciones de error y de activación
  • Aproximación general de funciones
  • Redes autorganizadas
  • Redes estocásticas
  • Redes convolucionales
  • Transformers

Calificación

Trabajo en clase: 40%

    • 3 tareas examen

    • Laboratorio

Proyecto final: 60%

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.