Показать сообщение отдельно
Старый 01.02.2011, 13:46   #35
Paul Kellerman
Gold Member
 
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,804
По умолчанию

Согласно формуле Больцмана: S = k * ln (W), где k - постоянная Больцмана, S -
энтропия, W то, что очень неудачно называют термодинамической вероятностью.

Проведем аналогию с информационной энтропией H = -K*sum(p[i]*(log p[i]), i = 1...N)
где K - некоторая константа, p[i] - вероятность появления того или иного символа,
N - кол-во различных символов в алфавите символов, то есть мощность алфавита.
Если вероятности появления для всех символов одинакова и равна 1 / N, то тогда:

H = -K*N*(1/N)*log(1/N) = K * log(N). Поразительно сходство с формулой Больцмана.

Таким образом, величине W в формуле Больцмана соответствует величина N в фор-
муле для информационной энтропии, причем величина N - обратна мат.вероятности.

Последний раз редактировалось Paul Kellerman; 01.02.2011 в 14:34.
Paul Kellerman вне форума   Ответить с цитированием
Реклама