ПОИСК Статьи Рисунки Таблицы Интерпретация термина энтропия в теории информации из "Физическая химия Издание 2 1979" Понятие информации связано с неопределенностью, существующей, когда требуется сделать выбор, и устраняемой после того, как выбор сделан. Так, например, пусть требуется из десяти различных карт выбрать одну. До выбора возможны десять различных исходов. В этой ситуации информация равна нулю. После того как карта выбрана, имеется только один исход — информация (результат выбора) стала больше она отлична от нуля. [c.102] Определим информацию / как величину, пропорциональную логарифму числа возможных исходов до выбора, и обозначим это число ро. Тогда 1 = к про, где —коэффициент пропорциональности. В данном случае /=й1п10. Выбор именно логарифма для функции, связывающей информацию с числом исходов, продиктован простыми соображениями. [c.102] Между уравнением, представляющим информацию, и уравнением Больцмана имеется формальное сходство 1 = К пр, S=klnw. [c.103] Если подставить в уравнение информации вместо К константу Больцмана, то информация выразится в энтропийных единицах. Такая операция, вообще говоря, не имела бы смысла/ но между термодинамической вероятностью w и величиной есть и более глубокое сходство. Если указано определенное значение ш, то это значит данное состояние физической системы имеет вероятность W, т. е. состояние можно реализовать w способами. Если известно р, то это значит существует возможность сделать р выборов и вероятность одного из них равна 1/р подставив 1/р вместо w, получим S = —k np. [c.103] Поэтому пользование понятием энтропия информации мало продуктивно и до сих пор не привело к каким-либо крупным открытиям в теоретической биологии и биофизической химии. [c.104] Вернуться к основной статье