![]() |
Ink, да, это название куда лучше и очень хорошо отражает данную величину. Чем больше значение этой величины для состояния системы, тем оно "статистически богаче", то есть тем больше его разнообразие. Да и, по-сути, это та же энтропия, только в другой шкале и единицах.
|
Цитата:
|
deniska56, а кто посчитал его неправильным?
|
Мне показало, что Carro.
Цитата:
Добавлено через 58 секунд И про энтропию, и про вероятность слыхали, как говорится. :) |
Согласно формуле Больцмана: S = k * ln (W), где k - постоянная Больцмана, S -
энтропия, W то, что очень неудачно называют термодинамической вероятностью. Проведем аналогию с информационной энтропией H = -K*sum(p[i]*(log p[i]), i = 1...N) где K - некоторая константа, p[i] - вероятность появления того или иного символа, N - кол-во различных символов в алфавите символов, то есть мощность алфавита. Если вероятности появления для всех символов одинакова и равна 1 / N, то тогда: H = -K*N*(1/N)*log(1/N) = K * log(N). Поразительно сходство с формулой Больцмана. Таким образом, величине W в формуле Больцмана соответствует величина N в фор- муле для информационной энтропии, причем величина N - обратна мат.вероятности. |
PavelAR
Цитата:
|
Текущее время: 04:05. Часовой пояс GMT +3. |
Powered by vBulletin® Version 3.8.8
Copyright ©2000 - 2025, vBulletin Solutions, Inc. Перевод: zCarot
© 2001—2025, «Аспирантура. Портал аспирантов»