Presentación del grupo 6180 - 2011-1.
En este seminario, se analizarán diversas herramientas de aprendizaje computacional.
Con el fin de entender adecuadamente la base del aprendizaje en redes neuronales artificiales, se revisarán los conceptos básicos relativos al aprendizaje en los seres vivos y a partir de entonces, se extenderán dichas nociones hacia el establecimiento del aprendizaje de máquina, donde se expondrán los principales algoritmos y sus modelos respectivos. En particular, se analizará el paradigma conexionista propuesto por Teuvo Kohonen en su variante denominada Mapeos que preservan la topología (MPT), también conocida como
Self-Organizing Maps (SOM). En este sentido, se describirá con detalle el modelo propuesto por dicho autor. Esta descripción parte de las nociones fundamentales que dan origen a este modelo, principalmente el aprendizaje no supervisado, haciendo especial énfasis en el fenómeno de autoorganización, sobre el que se fundamenta gran parte de los temas de estudio de este curso.
TEMARIO VERSIÓN 2.
I.
Bases biológicas del aprendizaje
-
La neurona
o
Estructura
o
Función
-
El impulso nervioso
o
El equilibrio electroquímico
o
Potencial de Reposo
o
Potencial de Acción
II.
Aprendizaje
-
Memoria
o
A largo plazo
o
A corto plazo
o
Memoria de trabajo
o
Habituación, sensibilización
o
Potenciación , depresión duradera
o
Ciclo Algedónico
o
Condicionamiento clásico
o
Aprendizaje por recompensa
o
Condicionamiento Instrumental u operante
III.
Aprendizaje computacional
- Aprendizajes supervisado y no supervisado
-. La aplicación de Ciclo algedónico al aprendizaje computacional.
-. Memoria y Redes de Hopfield.
- Aprendizaje y Redes de Kohonen.
-. Aprendizaje por evolución (Algoritmos Genéticos)
IV.
Redes neuronales artificiales
-
Perceptrón multicapa
-
Redes de Hopfield
-
Redes de Kohonen
V.
Autoorganización
-
Complejidad
-
Autoorganización
-
Dinámica no lineal
VI.
La mente como propiedad emergente de la autoorganización neuroquímica y funcional del cerebro.
Bibliografía
Kecman, V.
Learning and soft computing. MIT. 2001
Vapnik, V.
The nature of statistical learning theory. Springer, 2000.
Carbonell, J.
Machine learning: Paradigms and methods. Bradford. 1990.
Haykin, S.
Neural Networks, a comprehensive foundation.
Prentice Hall. 2001.
Kühn, R. y otros.
Adaptivity and learning
. Springer. 2003.
Villee Claude A. et al.
Biología
, Interamericana–McGraw Hill, 1992.
Lashley, T., Jackson R., Aprendiza
je y cognición
.
Prentice Hall, 1997
Putnam, H.
Introducción a la Psicología Fisiológica
. Harla,1977
Kandel, E., Jessell, T., Schwartz, J.
Neurociencia y conducta,
Prentice Hall, 1996.