Избыточность сообщений

Одной из информационных черт источника дискретных сообщений есть избыточность, которая определяет, какая часть максимально-вероятной энтропии не употребляется источником

Избыточность сообщений

, (10)

где ? – коэффициент сжатия.

Избыточность ведет к повышению времени передачи сообщений, уменьшению скорости передачи информации, избыточной загрузки канала, к тому же, избыточность нужна для обеспечения достоверности передаваемых данных, т.е. надежности СПД, увеличения помехоустойчивости. Наряду с этим, используя особые коды, применяющие избыточность в передаваемых сообщениях, возможно найти и исправить неточности.

Пример 1. Вычислить энтропию источника, выдающего два знака 0 и 1 с возможностями p(0) = p(1) = 1/m и выяснить его избыточность.

Ответ: Энтропия для случая свободных, равновероятных элементов равна: H(x) = log2m = log22 = 1 [дв. ед/симв.]

Наряду с этим H(x) = Hmax(x) и избыточность равна R = 0.

Пример 2. Вычислить энтропию источника свободных сообщений, выдающего два знака 0 и 1 с возможностями p(0) = 3/4, p(1) = 1/4.

Ответ: Энтропия для случая свободных, не равновероятных элементов равна:

Избыточность сообщений

Наряду с этим избыточность равна R = 1–0,815=0,18

Пример 3. Выяснить количество информации и энтропию сообщения из пяти букв, в случае если число букв в алфавите равняется 32 и все сообщения равновероятные.

Ответ: Неспециализированное число пятибуквенных сообщений равняется: N = mn = 32

Энтропия для равновероятных сообщений равна:

H = I = – log2 1/N = log2325 = 5 log232 = 25 бит./симв.

Теоремы Шеннона

1. Теорема Шеннона — Хартли — (в действительности теорема Хартли, выведенная им за 15 лет до Шеннона), одна из главных теорем теории информации о передаче сигналов по каналам связи при наличии помех, приводящих к искажениям. Пускай надлежит передать последовательность знаков, появляющихся с определёнными возможностями, причём имеется некая возможность того, что передаваемый знак в ходе передачи будет искажён. Несложный метод, разрешающий надёжно вернуть исходную последовательность по приобретаемой, пребывает в том, дабы любой передаваемый знак повторять много (N) раз. Но это приведёт к уменьшению скорости передачи в N раз, т. е. сделает её близкой к нулю. Ш. т. говорит, что возможно указать такое, зависящее лишь от разглядываемых возможностей положительное число v, что при какое количество угодно малом ?0 существуют методы передачи со скоростью v'(v’ v), сколь угодно близкой к v, дающие возможность восстанавливать исходную последовательность с возможностью неточности, меньшей ?. Одновременно с этим при скорости передачи v’, большей v, это уже нереально. Упомянутые методы передачи применяют надлежащие «помехоустойчивые» коды. Критическая скорость v определяется из соотношения Hv = C, где Н — Энтропия источника на знак, С — ёмкость канала в бинарных единицах в секунду.
Разглядывая все вероятные многоуровневые и многофазные способы шифрования, теорема Шеннона — Хартли говорит, что пропускная свойство канала C, означающая теоретическую верхнюю границу скорости передачи данных, каковые возможно передать с данной средней мощностью сигнала S через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N равна:

Избыточность сообщений

где
C — пропускная свойство канала, бит/с;
B — полоса пропускания канала, Гц;
S — полная мощность сигнала над полосой пропускания, Вт либо В?;
N — полная шумовая мощность над полосой пропускания, Вт либо В?;
S/N — частное от деления отношения сигнала к его шуму (SNR) на гауссовский шум, выраженное как отношение мощностей.

2. Теорема Шеннона-Котельникова, теорема отсчетов — (в действительности теорема Котельникова, доказанная им в 1933 г., в то время, когда Шеннону было еще 17 лет)

Литература

  1. Гринченко А.Г. кодирование и Теория информации: Учебн. пособие. – Харьков: ХПУ, 2000.
  2. Цымбал В.П. кодирование и Теория информации. – М.: Высш. шк., 1986.
  3. Кловский Д.Д. Теория передачи сигналов. – М.: Сообщение, 1984.
  4. Кудряшов Б.Д. Теория информации. Учебник для институтов Изд-во ПИТЕР, 2008. – 320 с.
  5. Цымбал В.П. кодирование и Теория информации. – М.: Высш. шк., 1986.
  6. Асанов М.О., Баранский В.А., Расин В.В. Дискретная математика: графы матроиды, методы. – Ижевск: НИЦ “РХД”, 2001, 288 стр.

объём и Количество информации

Похожие статьи:

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Adblock
detector