Profesor | Isaac Pérez Castillo | lu mi vi | 12 a 14 | P109 |
Ayudante |
Teoría de la Información
En este curso se explorarán los conceptos de información, bit, entropía de información,
comunicación, codificación, compresión y otros temas relacionados con la teoría de la información.
La materia no requiere conocimientos avanzados de física, pero se prefiere que tengas
buenas bases de termodinámica. También se prefieren unas buenas bases de probabilidad,
aún así al principio del curso se dará un repaso a los temas básicos de probabilidad necesarios.
Reunión:
Introducción a la teoría de la información
El concepto de Información
Definición de Información
Herramientas matemáticas
Entropía en la teoría de la Información
Entropía
Entropía relativa y condicional
Desigualdad de procesamiento de datos
Entropía de los procesos estocásticos
Cadenas de Markov
Segunda ley de la termodinámica en la teoría de la información
Compresión de datos
Códigos y propiedades
Códigos óptimos
Códigos de Huffman
Códigos de Shannon
Aplicaciones
Transmisión de Información
Capacidad de canal y propiedades
Capacidad de canal y codificación
Aplicaciones
Canales gaussianos
Entropía diferencial
Importancia y propiedades de canales gaussianos
Distorsión
Entropía en canales gaussianos
Aplicaciones
Bibliografía
Thomas M. Cover, Joy A. Thomas. Elements of Information Theory. Wiley, 2006
Fazlollah M. Reza. An Introduction to Information Theory. Dover Books on Mathematics