Лекции по количественной оценке информации - вопросы по информатике и телекоммуникациям

 

Тезисы:

  • То объем в битах всегда больше количества информации в тех же единицах.
  • Основание логарифма влияет лишь на удобство вычисления. В случае оценки энтропии.
  • Где lср - средняя длина кодовых слов вторичного алфавита.
  • Для неравновероятностных алфавитов энтропия на символ алфавита.
  • Для равномерных кодов (все комбинации кода содержат одинаковое количество разрядов).
  • Например, если кодировать в коде Бодо некоторые равновероятный алфавит, состоящий из 32 символов, то.
  • Тема 2. Условная энтропия и энтропия объединения.
  • А) в двоичных единицах.
  • Б) в десятичных единицах.
  • В) в натуральных единицах.

 

 

Похожие работы:

Предметы

Все предметы »

 

 

Актуальные вопросы по информатике и телекоммуникациям