Сообщение о том,что произошло одно из четырёх равновероятных событий,несёт информации

0 голосов
123 просмотров

Сообщение о том,что произошло одно из четырёх равновероятных событий,несёт информации


Информатика (15 баллов) | 123 просмотров
0

Можно без всякой "энтропии" взять двоичный логарифм от количества равновероятных событий, т.е. от четырех и получить два.

0

Можно. Но изучающему основы теории информации, на мой взгляд, полезно знать и об энтропии.

0

"Проще" - не всегда означает "лучше".

0

"на мой взгляд" - не истина в последней инстанции. Знать об энтропии вовсе не означает, что для каждой задачи, когда нужен ответ, нужно начинать решение с рассуждений и общих формул. Не нужно писать формулу Шеннона, если достаточно формулы Хартли, не нужно каждый раз записывать уравнение Менделееева - Клапейрона с тем ,чтобы из него получить формулу для закона Шарля.

0

Можно 5(8) + 7(8) найти в уме, всего лишь помня, что 8=10-2 и поэтому ответом будет решение в десятичной системе 5+7=12, к которому эту двойку достаточно добавить и получим 14(8). Несмотря на то, что в школе вычеты не проходят.

0

Что же Вы дали свое предыдущее решение, начав его "Ток в цепи i=E/(R+R0), ..." даже не упомянув про закон Ома для полной цепи?

0

Ведь "... сила тока прямо пропорциональна сумме ЭДС цепи, и обратно пропорциональна сумме сопротивлений источника и цепи.". Где у Вас в формуле, простите, сумма ЭДС? Сумма сопротивлений? Где, наконец, сам Георг Симон Ом?

0

Или в информатике, по-вашему, нужно школьнику, простите, вешать на уши энтропию, а в физике можно использовать формулы "с потолка"? Так скорее, наоборот...

0

Или еще Ваше решение, начинающееся "При параллельном соединении резисторов их общее сопротивлениеR=R1*R2/(R1+R2)" - совершенно правомерно спросить - откуда это? Разве школьнику "на Ваш взгляд" не полезно знать о проводимости? Где общая формула? А если бы резисторов было три?

Дано ответов: 2
0 голосов
Правильный ответ

По формуле Шеннона - x = log2(1/p), где p - вероятность события, x - количество бит информации, необходимое для кодирования.
Так как количество событий 4, то p = 1/4.
Тогда x = log2(1/(1/4)) = log2(4) = 2.
Получаем x = 2 бита.
Ответ: 2 бита.

(1.1k баллов)
0 голосов

Энтропия системы H=-∑Pi*log_2(Pi)
В нашем случае i=4, P1=P2=P3=P4=1/4, и тогда  H=-4*1/4*log_2(1/4)=-(-2)=2 дв.ед.
Значит, при выяснении состояния системы получена информация 2 дв.ед., или 2 бита. 

Ответ: 2 бита.

(91.0k баллов)