|
01.02.2011, 09:34 | #31 |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
Ink, да, это название куда лучше и очень хорошо отражает данную величину. Чем больше значение этой величины для состояния системы, тем оно "статистически богаче", то есть тем больше его разнообразие. Да и, по-сути, это та же энтропия, только в другой шкале и единицах.
|
Реклама | |
|
01.02.2011, 10:32 | #32 |
Gold Member
Регистрация: 24.11.2009
Сообщений: 1,937
|
|
---------
Вы не ждали, а мы приперлиСЯ!
|
|
01.02.2011, 10:41 | #33 |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
deniska56, а кто посчитал его неправильным?
|
01.02.2011, 10:51 | #34 | |
Gold Member
Регистрация: 24.11.2009
Сообщений: 1,937
|
Мне показало, что Carro.
Цитата:
Добавлено через 58 секунд И про энтропию, и про вероятность слыхали, как говорится. |
|
---------
Вы не ждали, а мы приперлиСЯ!
|
||
01.02.2011, 13:46 | #35 |
Gold Member
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,812
|
Согласно формуле Больцмана: S = k * ln (W), где k - постоянная Больцмана, S -
энтропия, W то, что очень неудачно называют термодинамической вероятностью. Проведем аналогию с информационной энтропией H = -K*sum(p[i]*(log p[i]), i = 1...N) где K - некоторая константа, p[i] - вероятность появления того или иного символа, N - кол-во различных символов в алфавите символов, то есть мощность алфавита. Если вероятности появления для всех символов одинакова и равна 1 / N, то тогда: H = -K*N*(1/N)*log(1/N) = K * log(N). Поразительно сходство с формулой Больцмана. Таким образом, величине W в формуле Больцмана соответствует величина N в фор- муле для информационной энтропии, причем величина N - обратна мат.вероятности. Последний раз редактировалось Paul Kellerman; 01.02.2011 в 14:34. |
01.02.2011, 16:07 | #36 | |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
PavelAR
Цитата:
|
|