Encabezado Facultad de Ciencias
presentacion

Presentación del grupo 6180 - 2011-1.

En este seminario, se analizarán diversas herramientas de aprendizaje computacional. Con el fin de entender adecuadamente la base del aprendizaje en redes neuronales artificiales, se revisarán los conceptos básicos relativos al aprendizaje en los seres vivos y a partir de entonces, se extenderán dichas nociones hacia el establecimiento del aprendizaje de máquina, donde se expondrán los principales algoritmos y sus modelos respectivos. En particular, se analizará el paradigma conexionista propuesto por Teuvo Kohonen en su variante denominada Mapeos que preservan la topología (MPT), también conocida como Self-Organizing Maps (SOM). En este sentido, se describirá con detalle el modelo propuesto por dicho autor. Esta descripción parte de las nociones fundamentales que dan origen a este modelo, principalmente el aprendizaje no supervisado, haciendo especial énfasis en el fenómeno de autoorganización, sobre el que se fundamenta gran parte de los temas de estudio de este curso. TEMARIO VERSIÓN 2. I. Bases biológicas del aprendizaje - La neurona o Estructura o Función - El impulso nervioso o El equilibrio electroquímico o Potencial de Reposo o Potencial de Acción II. Aprendizaje - Memoria o A largo plazo o A corto plazo o Memoria de trabajo o Habituación, sensibilización o Potenciación , depresión duradera o Ciclo Algedónico o Condicionamiento clásico o Aprendizaje por recompensa o Condicionamiento Instrumental u operante III. Aprendizaje computacional - Aprendizajes supervisado y no supervisado -. La aplicación de Ciclo algedónico al aprendizaje computacional. -. Memoria y Redes de Hopfield. - Aprendizaje y Redes de Kohonen. -. Aprendizaje por evolución (Algoritmos Genéticos) IV. Redes neuronales artificiales - Perceptrón multicapa - Redes de Hopfield - Redes de Kohonen V. Autoorganización - Complejidad - Autoorganización - Dinámica no lineal VI. La mente como propiedad emergente de la autoorganización neuroquímica y funcional del cerebro. Bibliografía Kecman, V. Learning and soft computing. MIT. 2001 Vapnik, V. The nature of statistical learning theory. Springer, 2000. Carbonell, J. Machine learning: Paradigms and methods. Bradford. 1990. Haykin, S. Neural Networks, a comprehensive foundation. Prentice Hall. 2001. Kühn, R. y otros. Adaptivity and learning . Springer. 2003. Villee Claude A. et al. Biología , Interamericana–McGraw Hill, 1992.

Lashley, T., Jackson R., Aprendiza je y cognición . Prentice Hall, 1997

Putnam, H. Introducción a la Psicología Fisiológica . Harla,1977 Kandel, E., Jessell, T., Schwartz, J. Neurociencia y conducta, Prentice Hall, 1996.

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.