Introducción.
Los conceptos de información y entropía.
Aspectos históricos
Teoría de la Información de Shannon
La función H como medida de incertidumbre
Propiedades de la función H.
Teorema Fundamental de la Teoría de la Información.
Ancho de banda, redundancia, eficiencia, y otras aplicaciones a la comunicación.
Autómata Celulares y sus propiedades informacionales.
Exponentes de Lyapunov y auto organización.
La función de información mutua
Definición y su relación con otras medidas de correlación.
Aplicación a secuencias biológicas.
Aplicación a minería de datos.
Aplicación a series de tiempo.
Otros conceptos matemáticos de entropía.
Mapeos iterados y dinámica simbólica.
La entropía topológica.
La entropía en la teoría de la medida.
Complejidad computacional de Kolgmogorov
Definiciones.
El número Omega.
Relaciones entre la función K y la entropía.
Prácticas de laboratorio (1 semana c/u):
Microestados y macroestados: el modelo de Ising.
Función H: casos nulos
Función H: Análisis de textos
Función H: Las cuatro clases de Wolfram.
Información Mutua: casos nulos
Información Mutua: análisis de genomas
Información Mutua: series de tiempo.
Dinámica simbólica: la función logística
Compresisibilidad: textos y secuencias biológicas
Relación entre K, H y la entropía topológica.