Список спецкурсов
на весенний семестр 2005/2006
- Введение в теорию информации
- д.ф.-м.н. Александр Семенович Холево
Теория информация изучает фундаментальные закономерности
и характеристики процессов преобразования данных
и в то же время дает примеры наиболее эффективных
приложений ряда разделов современной математики, в первую очередь — теории вероятностей.
В лекциях излагаются основные понятия и результаты теории информации:
энтропия случайного источника и оптимальное сжатие данных;
количество информации и пропускная способность канала
связи; дается понятие о методах оптимального кодирования.
Значительное внимание уделено взаимосвязям
со статистической механикой (Н-теорема,
асимптотическая равнораспределенность) и математической статистикой
(метод типов, большие уклонения). Главное внимание обращено
на принципиальные вопросы, а не технические детали и обобщения,
поэтому большая часть изложения ведется
на широко доступном уровне дискретных случайных величин.
- Лекция 1. Энтропия и информация
- Энтропия и условная энтропия случайной величины
- Количество информации. Относительная энтропия
- Неравенства об обработке данных
- Монотонность относительной энтропии и Н-теорема
- Лекция 2. Асимптотическая равнораспределенность
- Типичные последовательности и асимптотическая равнораспределенность
- Оптимальное кодирование случайного источника и энтропия
- Лекция 3. Оптимальное сжатие данных
- Коды с переменной длиной слов
- Неравенство Крафта
- Коды Хаффмена
- Генерирования дискретных распределений вероятностей
- Лекция 4. Пропускная способность канала связи
- Определение канала и пропускной способности
- Блоковые коды для канала без памяти
- Лекция 5. Теорема кодирования Шеннона
- Доказательство прямого утверждения и метод случайных кодов
- Неравенство Фано. Доказательство слабого обращения
- Канал с обратной связью
- Коды Хэмминга
- Лекция 6. Метод типов
- Метод типов
- Универсальное кодирование случайного источника
- Лекция 7. Теория информации и математическая статистика
- Теорема Санова о больших уклонениях
- Лемма Неймана–Пирсона. Лемма Стейна
- Байесовское различение двух гипотез. Граница Чернова
- Лекция 8. Энтропия стационарного источника
- Энтропия цепи Маркова
- Энтропия случайного блуждания на графе
- Теорема Шеннона–Бреймана–Макмиллана
- Теорема совместного кодирования источника и канала
- Лекция 9. Применения теоретико-информационных методов
- Универсальный код Лемпеля–Зива
- Применения к стационарному рынку акций
- Лекция 10. Дифференциальная энтропия
- Асимптотическая равнораспределенность для непрерывных случайных величин
- Плотность относительной энтропии и взаимной информации
- Теорема кодирования для гауссовского канала связи
- Лекция 11. Точность воспроизведения непрерывного источника
- Дискретизация непрерывной случайной величины
- Эпсилон-энтропия
- Теорема о точности воспроизведения
- Точность воспроизведения для гауссовского источника
- Лекция 12. Теория информации и понятие сложности по Колмогорову
- Модели вычислений
- Алгоритмическая энтропия
- Алгоритмически случайные последовательности
- Универсальная вероятность
- Число Чаитина
- Достаточная статистика Колмогорова
Литература
- T. M. Cover, J. A. Thomas, Elements of Information Theory. New York: Wiley, 1991.
- Р. Галлагер, Теория информации и надежная связь. Москва: Сов. Радио, 1974.
Список спецкурсов
на весенний семестр 2005/2006
|