ПОИСК Статьи Рисунки Таблицы Основные положения теории информации из "Методы кибернетики в химии и химической технологии" Основной задачей кибернетики как науки является переработка информации для того, чтобы управлять сложными объектами и системами. [c.20] Информация — это любые сведения, первичным источником которых является опыт, наблюдение. В кибернетическом понимании система представляет собой не разрозненное скопление отдельных элементов, а прочно связанную информационную сеть. [c.20] Сложные явления, которые характерны для процессов химической технологии, обычно многообразны по своим внутренним связям и подвержены стохастическим изменениям. Поэтому при ожидании определенного течения таких процессов сведения о них можно выразить статистически, другими словами, вычисление количества информации построено на учете вероятностей. [c.20] Математическая интерпретация переработки входной информации в выходную представляет собой суть математического моделирования систем. [c.20] Это позволяет использовать теорию информации для установления адекватности математической модели реальному объекту, т. е. проводить идентификацию процессов химической технологии статистико-вероятностными методами. [c.20] Среди основных положений теории информации центральное место занимают понятия э нт р о п и и и количества информации. Энтропия выступает как мера неопределенности. Характер неопределенности может быть самым различным (неопределенность результатов предстоящего опыта, неопределенность содержания ожидаемого сообщения, неопределенность состояния системы и т. п.). [c.20] При этом логарифмы берутся по основанию 2. [c.21] За единицу информации принята двоичная единица, или бит (от английских слов binary digit ), принимающая с равной вероятностью два различных значения (О и 1), что особенно удобно для технических целей. [c.21] В этом случае фигурируют только два знака 1 и О, и весь счет ведется на основе различных сочетаний единиц и нулей. [c.21] Отсюда непосредственно следует использование двоичной системы счисления как для оценки информации, так и при построении вычислительных машин. Этим объясняется выбор двоичной системы счисления вместо обычно используемой нами десятичной. Однако этот выбор имеет и более глубокий смысл. [c.21] Один из основателей кибернетики Н. Винер определил кибернетику как науку о связи человека и машины. В дальнейшем было установлено, что структура связи в управляемых системах аналогична структуре нервных цепей. [c.21] Процессы накопления и переработки информации, протекающие в указанных цепях и связях, сходны они имеют дискретный характер, т. е. соответствуют принципу Да —Нет . Как и триггеры (фиксирующие элементы) вычислительных машин, нервные клетки могут находиться только в двух состояниях — возбуждение или торможение, что соответствует положениям Включено — Выключено . Очевидно, что проще построить вычислительную машину, которая распознает два состояния (двоичная система), а не десять (десятичная система). [c.21] Переход от десятичной системы счисления к двоичной весьма прост число, выраженное в десятичной системе, достаточно разделить на основание двоичной системы, т. е. на 2, и выписать результаты и остатки после вычитания, начиная с последнего результата. Имеются и другие приемы перевода одной системы счисления в другую (см., например, Кафаров В. В., Вето-хин В. Н Бояринов А. И. Программирование и вычислительные методы в химии и химической технологии. М., Наука, 1972. 487 с.). [c.21] Рассмотрим простой пример. Пусть в результате опыта А состояние некоторой системы определяется равновероятными исходами e. Вероятность любого из этих исходов в результате опыта А будет равна p= k. Чем больше вероятных исходов k состояния системы, тем труднее предвидеть исход. [c.22] Естественно попытаться принять за меру неопределенности рассматриваемого опыта математическое ожидание числа двоичных знаков, необходимых для полного определения результата этого опыта, т. е. [c.22] Это уравнение получил в 1948 г. американский математик и исследователь-теории информации К. Шенон по аналогии с известным уравнением количества энтропии в системе Больцмана. [c.22] Рассмотрим основные свойства энтропии. Энтропия не может принимать, отрицательных значений, так как 0 Р 1 и произведение —p og2p всегда положительно. [c.22] Из графика (рис. 1-1) следует, что максимальное значение энтропии соответствует равновероятным событиям pi=p2=0,5. При этом максимальное значение энтропии H= og22. [c.22] Вернуться к основной статье