Обучалка в Телеграм

Теория информации, Солопченко Г.Н., 2014


Теория информации, Солопченко Г.Н., 2014.
 
  Философское понятие “информация" является очень обширным. В общем случае это понятие характеризует внутреннюю организованность любой материальной системы. С этой точки зрения информация существует вне зависимости от того, воспринимается она или нет.

Теория информации, Солопченко Г.Н., 2014


Разновидности информационных систем.
Технические средства, которые обеспечивают получение, кодирование, передачу, восстановление, обработку и хранение информации - средства информационной техники.

Совокупность средств информационной техники и людей, объединенных для достижения определенных целей, называется информационной системой. Наиболее распространенными информационными системами являются:
измерительные информационные системы;
информационные системы управления и сигнализации;
информационные системы цифровой связи;
навигационные информационные системы;
банковские информационные системы;
справочные информационные системы;
другие виды информационных систем.

Оглавление
1. Предмет теории информации
2. Информационные системы
2.1. Разновидности информационных систем
2.2. Структура систем получения и передачи информации
2.3. Информационные модели составных частей информационных систем
2.3.1. Информационная модель источника сообщений, марковские, стационарные и эргодические источники
2.3.2. Информационная модель кодера и декодера источника
2.3.3. Информационная модель кодера и декодера канала
2.3.4. Информационная модель канала связи
2.4. Примеры кодирования источника сообщений
2.5. Условия Шеннона достоверного кодирования и передачи информации. Вопросы теории информации и кодирования, рассматриваемые в настоящем пособии
3. Энтропия вероятностной схемы, энтропия и количество информации
3.1. Энтропия источников, дискретный источник без памяти
3.2. Формальные свойства энтропии, аксиомы Хинчина и Фаддеева
3.3. Условная энтропия и ее свойства, третья аксиома Хинчина
3.4. Собственная информация элемента ансамбля
3.5. Взаимная информация и сс свойства
3.6. Информационная дивергенция, граница Симмонса
4. Кодирование источников
4.1. Равномерное кодирование
4.1.1. Высоковероятные множества сообщений источника
4.1.2. Прямая и обратная теоремы Шеннона кодирования источника
4.2. Неравномерное кодирование
4.2.1. Условия однозначного кодирования и декодирования, префиксные коды
4.2.2. Кодовые деревья. Неравенство Крафта
4.2.3. Побуквенное неравномерное кодирование
4.2.4. Код Шеннона
4.2.5. Код Хаффмена
5. Кодирование в канале. Линейные коды
5.1. Математическая модель канала связи, пропускная способность канала
5.2. Корректирующие свойства кодов, параметры кодов
5.3. Границы параметров корректирующих кодов
5.4. Некоторые примеры кодов, исправляющих ошибки. Коды Хемминга
5.5. Линейные коды
5.5.1. Векторное представление линейных кодов
5.5.2. Некоторые линейные коды в векторном представлении
5.5.3. Схемы кодирования в канале
5.5.4. Синдромное декодирование линейных кодов допускающих исправление однократных ошибок
6. Кодирование в канале. Циклические коды
6.1. Многочлены над конечными нолями
6.2. Описание циклических кодов
6.3. Векторное представление циклических кодов
6.4. Выбор порождающего многочлена
6.5. Кодирование в циклическом коде
6.6. Декодирование циклических кодов. Устройство деления многочленов
6.7. Систематическое кодирование в циклическом коде
6.8. Синдромное декодирование систематического циклического кода
6.9. Пример систематического кодирования и декодирования в (7, 4) — коде
6.10. Кодирование и декодирование неравномерных кодовых слов источника
7. Циклические коды, задаваемые корнями многочленов. Коды Боуза-Чоудхури-Хоквингема
7.1. Дополнительные свойства многочленов и их корней
7.2. Построение кодов БЧХ, конструктивное расстояние кодов БЧХ
7.3. Примеры минимальных многочленов
7.4. Примеры синтеза кодов БЧХ
8. Сверточные коды
8.1. Общие свойства сверточных кодов
8.2. Двоичные сверточные коды
8.3. Решетчатое представление сверточных кодов. Алгоритм декодирования Витерби
8.4. Сверточные коды со скоростью m/n
Библиографический список
Приложение 1. Необходимый математический аппарат
Приложение 2. Экстремальные значения энтропии непрерывных информационных сигналов, случайных шумов и помех.



Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Теория информации, Солопченко Г.Н., 2014 - fileskachat.com, быстрое и бесплатное скачивание.

Скачать pdf
Ниже можно купить эту книгу по лучшей цене со скидкой с доставкой по всей России.Купить эту книгу



Скачать - pdf - Яндекс.Диск.
Дата публикации:





Теги: :: :: ::


Следующие учебники и книги:
Предыдущие статьи:


 


 

Книги, учебники, обучение по разделам




Не нашёл? Найди:





2024-12-21 23:20:21