Портал аспирантов
 

Вернуться   Портал аспирантов > Общие > Дискуссионный зал > Физико-математические науки

Ответ
 
Опции темы
Старый 01.02.2011, 09:34   #31
gav
Silver Member
 
Аватар для gav
 
Регистрация: 03.09.2004
Сообщений: 895
По умолчанию

Ink, да, это название куда лучше и очень хорошо отражает данную величину. Чем больше значение этой величины для состояния системы, тем оно "статистически богаче", то есть тем больше его разнообразие. Да и, по-сути, это та же энтропия, только в другой шкале и единицах.
gav вне форума   Ответить с цитированием
Реклама
Старый 01.02.2011, 10:32   #32
deniska56
Gold Member
 
Регистрация: 24.11.2009
Сообщений: 1,937
По умолчанию

Цитата:
Сообщение от gav Посмотреть сообщение
Да и, по-сути, это та же энтропия, только в другой шкале и единицах.
Интересно тогда, почему мой пример с молекулами и каплей воды посчитали неправильным?
---------
Вы не ждали, а мы приперлиСЯ!
deniska56 вне форума   Ответить с цитированием
Старый 01.02.2011, 10:41   #33
gav
Silver Member
 
Аватар для gav
 
Регистрация: 03.09.2004
Сообщений: 895
По умолчанию

deniska56, а кто посчитал его неправильным?
gav вне форума   Ответить с цитированием
Старый 01.02.2011, 10:51   #34
deniska56
Gold Member
 
Регистрация: 24.11.2009
Сообщений: 1,937
По умолчанию

Мне показало, что Carro.
Цитата:
Сообщение от Carro Посмотреть сообщение
Только вот в разрезе обсуждения студента это не имеет значения. Используя термин вероятность, студент однозначно определил мат. вероятность и поэтому ответ его 25 некорректен.
Или я ошибся?

Добавлено через 58 секунд
И про энтропию, и про вероятность слыхали, как говорится.
---------
Вы не ждали, а мы приперлиСЯ!
deniska56 вне форума   Ответить с цитированием
Старый 01.02.2011, 13:46   #35
Paul Kellerman
Gold Member
 
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,812
По умолчанию

Согласно формуле Больцмана: S = k * ln (W), где k - постоянная Больцмана, S -
энтропия, W то, что очень неудачно называют термодинамической вероятностью.

Проведем аналогию с информационной энтропией H = -K*sum(p[i]*(log p[i]), i = 1...N)
где K - некоторая константа, p[i] - вероятность появления того или иного символа,
N - кол-во различных символов в алфавите символов, то есть мощность алфавита.
Если вероятности появления для всех символов одинакова и равна 1 / N, то тогда:

H = -K*N*(1/N)*log(1/N) = K * log(N). Поразительно сходство с формулой Больцмана.

Таким образом, величине W в формуле Больцмана соответствует величина N в фор-
муле для информационной энтропии, причем величина N - обратна мат.вероятности.

Последний раз редактировалось Paul Kellerman; 01.02.2011 в 14:34.
Paul Kellerman вне форума   Ответить с цитированием
Старый 01.02.2011, 16:07   #36
gav
Silver Member
 
Аватар для gav
 
Регистрация: 03.09.2004
Сообщений: 895
По умолчанию

PavelAR
Цитата:
Поразительно сходство с формулой Больцмана
Истоки этого поразительного сходства в том, что только функция с логарифмом удовлетворяет очевидным условиям на энтропию. Отсюда термодинамическая энтропия похожа на информационную и так далее..
gav вне форума   Ответить с цитированием
Ответ

Опции темы

Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.



Текущее время: 23:36. Часовой пояс GMT +3.


Powered by vBulletin® Version 3.8.8
Copyright ©2000 - 2024, vBulletin Solutions, Inc. Перевод: zCarot
© 2001—2024, «Аспирантура. Портал аспирантов»
Рейтинг@Mail.ru