alarm
Задайте вопрос
Информатика
bitter

Расскажите об объеме и единицах измерения информации

ответы: 1
Зарегистрируйтесь, чтобы добавить ответ
Ответ:

Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии {displaystyle n}n-го порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.

437
Arcanedweller
Чтобы ответить необходимо зарегистрироваться.

Другие вопросы: - Информатика

посчитайте написать код на pytho

Скажите , кто-нибудь знает как

Очень прошу помочь Заранее благ

Какое условие называется вложенн

посчитайте пж с информатикой. Да

4. Сопоставь данные: [4] 1. Butt

Контакты
Реклама на сайте