![]() |
|
![]() |
#31 |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
![]()
Ink, да, это название куда лучше и очень хорошо отражает данную величину. Чем больше значение этой величины для состояния системы, тем оно "статистически богаче", то есть тем больше его разнообразие. Да и, по-сути, это та же энтропия, только в другой шкале и единицах.
|
![]() |
![]() |
Реклама | |
|
![]() |
#32 |
Gold Member
Регистрация: 24.11.2009
Сообщений: 1,937
|
![]() |
---------
Вы не ждали, а мы приперлиСЯ!
|
|
![]() |
![]() |
![]() |
#33 |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
![]()
deniska56, а кто посчитал его неправильным?
|
![]() |
![]() |
![]() |
#34 | |
Gold Member
Регистрация: 24.11.2009
Сообщений: 1,937
|
![]()
Мне показало, что Carro.
Цитата:
Добавлено через 58 секунд И про энтропию, и про вероятность слыхали, как говорится. ![]() |
|
---------
Вы не ждали, а мы приперлиСЯ!
|
||
![]() |
![]() |
![]() |
#35 |
Gold Member
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,816
|
![]()
Согласно формуле Больцмана: S = k * ln (W), где k - постоянная Больцмана, S -
энтропия, W то, что очень неудачно называют термодинамической вероятностью. Проведем аналогию с информационной энтропией H = -K*sum(p[i]*(log p[i]), i = 1...N) где K - некоторая константа, p[i] - вероятность появления того или иного символа, N - кол-во различных символов в алфавите символов, то есть мощность алфавита. Если вероятности появления для всех символов одинакова и равна 1 / N, то тогда: H = -K*N*(1/N)*log(1/N) = K * log(N). Поразительно сходство с формулой Больцмана. Таким образом, величине W в формуле Больцмана соответствует величина N в фор- муле для информационной энтропии, причем величина N - обратна мат.вероятности. Последний раз редактировалось Paul Kellerman; 01.02.2011 в 14:34. |
![]() |
![]() |
![]() |
#36 | |
Silver Member
Регистрация: 03.09.2004
Сообщений: 895
|
![]()
PavelAR
Цитата:
|
|
![]() |
![]() |