Encabezado Facultad de Ciencias
presentacion

Presentación del grupo 7042 - 2011-2.

Teoría de la Información

Introducción.
Los conceptos de información y entropía.
Aspectos históricos

Teoría de la Información de Shannon
La función H como medida de incertidumbre
Propiedades de la función H.
Teorema Fundamental de la Teoría de la Información.
Ancho de banda, redundancia, eficiencia, y otras aplicaciones a la comunicación.
Autómata Celulares y sus propiedades informacionales.
Exponentes de Lyapunov y auto organización.

La función de información mutua
Definición y su relación con otras medidas de correlación.
Aplicación a secuencias biológicas.
Aplicación a minería de datos.
Aplicación a series de tiempo.

Otros conceptos matemáticos de entropía.
Mapeos iterados y dinámica simbólica.
La entropía topológica.
La entropía en la teoría de la medida.

Complejidad computacional de Kolgmogorov
Definiciones.
El número Omega.
Relaciones entre la función K y la entropía.



Prácticas de laboratorio (1 semana c/u):
Microestados y macroestados: el modelo de Ising.
Función H: casos nulos
Función H: Análisis de textos
Función H: Las cuatro clases de Wolfram.
Información Mutua: casos nulos
Información Mutua: análisis de genomas
Información Mutua: series de tiempo.
Dinámica simbólica: la función logística
Compresisibilidad: textos y secuencias biológicas
Relación entre K, H y la entropía topológica.

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.