Содержание | Ключевые понятия 
  на первую страницу НОВОСТИ | ССЫЛКИ   
О термине действие-энтропия-информация (А.М. Хазен. 2003г.)
15.01.03
  
Содержание


В работах  [1] - [6], введено понятие об информации как физической переменной. Для её обозначения используется тройной термин действие-энтропия-информация. Его особенности в этих работах объяснены. Однако сами работы нетривиально новые, а потому дополнительные пояснения будут полезны. Они содержатся в этой статье.

Существование цели передачи сообщений - главная особенность теории информации

Математическая формализация понятия об информации, которую ввели в первой половине ХХ века Л. Хартли и К. Шеннон относится к  числу величайших достижений науки. Как и для всех достижений науки, в её основе простые наглядные соображения, которые абстрагированы от обиходных понятий и "переведены" на универсальный язык науки - математику.

Для человека, его поведения и разума характерна предварительная постановка цели. Далее человек совершает действия, с помощью которых достигает этой цели. Первично в их основе случайные попытки найти путь достижения поставленной цели. Человек обладает памятью. У него есть языки и письменность, позволяющие передавать запомненное другим людям. Итогом истории явилось слово - информация, которым обозначается то запомненное, что освобождает от повторения множества случайных проб и ошибок, а потому упрощает достижение цели. Отсюда наиболее глобальное, что превращает слово информация в научный термин - информация есть устранённая неопределённость для достижения цели. Первая часть этого определения общепринятая (см., например, учебники [7], [8]). Вторая его часть (о понятии цели) в связи с очевидностью создателями теории информации явно не подчёркивалась. В последние годы множатся попытки использовать классическую теорию информации в биологии. При этом возникают заблуждения и грубые ошибки, так как в биологию не может быть перенесено понятие цели, на котором основана классическая теория информации.

Определение информации, как и введение любой терминологии в науке, аксиоматично. Оно подразумевает участие не определённых явно таких слов, как сообщение, исходы, средства и способы передачи сообщений и подобных - обычной для узких областей науки своей специфической терминологии. При введении понятия - информация производится абстрагирование от способов передачи сообщений, от причин, вызывающих неопределёность, от условий, ограничивающих диапазон неопределённости. Например, адрес, по которому можно найти нужного человека или предмет, может быть передан словом, письмом, электронными кодами. Этот адрес ограничен условиями. Например, он может относится к странам, городам, улицам, домам. Адресом будет и указание места на складе деталей или для поиска материалов в компьютерах и на интернете. Без определения условий адрес смысла не имеет и не может быть использован. В шестидесятые годы ХХ века сочетание символов httр://www. воспринималось бы как абракадабра и не устраняло бы никакой неопределённости. Напоминание ребёнку - иди делай уроки или передача команд космическому аппарату на Марсе тождественно являются информацией. Не важно устранена ли в результате неопределённость получения двойки или открыта внеземная жизнь.

Кстати, информация во вполне человеческом смысле существует у животных и тем более высших. Человек отличается от животных в этом более изощрёнными целями и способами их достижения. Цель, например сорвать и съесть банан, жизненно важна для обезьян. Наблюдение их детёнышами в стаде примеров достижения этой цели есть получение ими информации. В данном случае языком явлются сами действия старших.

Человеческие языки (включая их отображение письменностью и математикой, кодами компьютеров и цифровых методов передачи и приёма сообщений) настолько расширяют возможности использования понятия об информации, что в литературе говорят о качественном отличии информации для человека. Конечно, в наглядном обиходном выражении разница настолько значительна, что многим хочется считать её безоговорочной истиной. Однако это не так. Мышление и человека, и животных (вплоть до самых простых их форм) в равной степени основано на иррациональной абстракции, когда окружающему и внутренним процессам организма сопоставляются экстремумы энтропии и её производства для состояний и связей нейронов [3] - [5]. Отличают человека от животных не какие-то принципиальные особенности, а объём и количество уровней иерархии структур мозга.

Определение информации как устранённой неопределённости автоматически и исчерпывающе обобщает и формализует многочисленные вненаучные обиходные определения информации из прошлого типа:  информация есть сведения о ...;  знания, переданные другим;  сведения в данном сообщении;  то, что имеет на себе сигнал;  отражение в сознании людей;  план строения и подобные. Встречающиеся в литературе попытки реанимировать прошлое ничего, кроме вреда, принести не могут.

Формализация понятия о неопределенности в теории информации

Теория информации возникла для описания передачи и приёма сообщений в процессе деятельности человека. Во всех её задачах присутствуют понятия передатчика и приёмника, сигнала-сообщения, событий и их вероятностей. Существование цели передачи информации в теории информации выражается тем, что вводится понятие известного заданного события. Для него может быть определена вероятность р0  наступления до приёма сообщения и  р1  после приёма.

В силу определения информации как устранённой неопределённости в достижении цели строгая (то есть математическая) формализация понятия об информации требует выразить математическим соотношением, что есть неопределённость в достижении цели.

Существование неопределённости связано с участием вероятностей в осуществлении событий. Устранение неопределённости есть увеличение вероятности наступления того, что задано как цель. Поэтому вероятности должны участвовать в математической формулировке величины устранённой неопределённости.  

Первая удачная попытка реализовать определение информации на такой основе осуществлена в 1928 г. Л. Хартли. Пусть возможно в данных условиях  n  вариантов некоторого результата. Целью является один из них. Хартли предложил характеризовать неопределённость логарифмом числа  n.  То есть  log n  является количественной мерой неопределённости. Выбор основания логарифма связан с понятием об алфавитах для описания информации. Этот выбор существенен для экономичности кодирования в технических устройствах или живых системах (сокращения потоков импульсов или аналоговых сигналов), но не меняет самого количества информации как устранённой неопределённости за счёт того, что перед логарифмом вводится безразмерный множитель, выражаемый модулем перехода между основаниями логарифмов. От него зависят названия единиц информации.

При математическом описании неопределённости (например способом Хартли) в случае равновероятных результатов можно перейти от их числа  n  к обратной величине - вероятности  р  одного из них. В терминах связи конкретно говорят о вероятности переданного сообщения   р0   у приёмника до приёма сообщения. Устранение неопределённости выражается тем, что вероятность переданного сообщения у приёмника после приёма сигнала возрастает и становится   р1 .  Тогда количественная мера  s  полученной информации (устранённой неопределённости) выражается логарифмом отношения вероятностей:



Оно равноправно по отношению к любому конкретному сообщению и имеет разную величину в зависимости от величин   р0  и   р1   для него. В частном случае, когда при передаче полностью отсутствую шумы и сбои, искажающие сигнал, вероятность  р0  равна единице.

Недостаток этого определения в том, что оно справедливо в приближении равновероятности всех исходов. Это выполняется далеко не всегда. В пределе в этом определении невероятному исходу приравнивается неизбежный. В 1948 г. это исправил К. Шеннон, который определил в качестве меры неопределённости выражение:



где  


 
есть вероятности отдельных исходов. Он предложил называть эту величину "энтропией", не поясняя связей и различий этого термина с общеизвестой энтропией в физике. Знак минус в предыдущей формуле отражает тот факт, что вероятности всегда меньше единицы, а энтропия знакопостоянная функция, для которой привычно задан положительный знак. Определение Шеннона сокращённо зависывают в виде:



подразумевая как очевидное, что признаки (аргументы), по отношению к которым определены события и их вероятности, могут быть существенно разными, а в эта формула (суммирование в ней) справедлива только для однородных признаков.

Работы Шеннона были связаны с задачами передачи сообщений в системах связи, в том числе в системах секретной связи. Они основаны на принципе, что набор возможных сообщений ("книга сообщений") задан и известен как на входе системы связи, так и на её выходе. "Книга" может состоять из букв алфавита, заданного и известного на передающей и принимающей стороне, и соответствующих им кодированных сигналов. Неизвестно, какое именно сообщение из "книги сообщений" передано, "номер" сообщения из "книги".

Априорные вероятности того, что могло быть передано то или иное сообщение, различные. То есть в классической теории информации не только известна цель передачи сообщений, но предварительно известен весь набор возможных сообщений. В природе в прямом виде таких условий нет.

Наглядные примеры о "книге".

Если вы говорите или переписываетесь с человеком о физической задаче, а он даже школьный курс физики забыл, или, если такой человек академик или профессор, который считает себя непогрешимым небожителем, а реально кроме своей узкой области науки (не относящейся к данной задаче) что-либо помнит весьма смутно, то одинаковой "книги" у передатчика и приёмника сообщений не существует - передача информации невозможна, информация как устранение неопределённости нереализуема. Все ступени человеческого обучения, вся жизнь любой личности - это формирование индивидуальной "книги сообщений".

Ещё пример, Во время второй мировой войны расшифровка немецких кодов, реализованных шифрующей машиной "Энигма", оказалась возможной после того, как из потопленной подлодки извлекли реальную кодовую книгу. Для некоторых людей возникает парадоксальная ситуация, когда роль "книги" в детективных историях понятна, но по отношению к нешифрованному обычному телеграфу, телефону и подобному нередко забывается. В задачах применения методов теории информации в биологии это не вспоминают как правило.

В современной теории информации разработаны практически важные для секретных передач методы кодирования при помощи специфических функциональных и статистических связей, известных на передающей и приёмной стороне. Это, в частности, позволяет использовать для передачи сообщений шумовые сигналы. Но принципа предварительного существования "книги" как основы формулы Шеннона это не изменяет.

В связи с определением понятия пропускной способности канала связи были развиты также обобщения понятия скорости создания и передачи информации для источников сигналов с непрерывным временем.     

События и их вероятности всегда (и в формуле Шеннона в частности) определены по отношению к конкретным признакам элементов. Признаки могут быть как однородными, так и принципиально различными. Например, при заданной системе и алфавите для её элементов можно вводить вероятности разных конкретных сочетаний букв. Это относится к однородным признакам и в формуле Шеннона обозначается всегда присутствующими в ней нижними индексами. Предполагается, что набор рассматриваемых событий является полным, то есть исчерпывающим все возможные рассматриваемые исходы, а события являются взаимно исключающими (если было передано сообщение с номером  k  из "книги", то сообщения с номером  i, не равным  k, не были переданы).

Признаки могут описывать те же элементы системы (события), но иерархически более подробно. Множество событий более крупного плана определяется одними признаками, а затем разбивается на более мелкие подмножества, определяемые другими признаками. Это допускает трактовку в виде непрямого варианта однородных признаков. В таких случаях возможно суммирование по всем событиям, что и отражает формула Шеннона.

Однако существуют несопоставимые системы, которые нецелесообразно связывать. Для каждой из них понятие информации справедливо, но признаки элементов системы, относительно которых неопределённость описывается формулой Шеннона, существенно разные. Чтобы подчеркнуть, это выражено выше верхними индексами, хотя сам аргумент  А  обозначает именно это же. Для такого случая суммирование возможно как исключение для специфически взаимосвязанных систем и их элементов. Проиллюстрирую примером особенность информации как устранённой неопределённости для достижения цели (в частности, в форме Шеннона), когда признаки (аргументы) вероятностей существенно различны и связывать их нецелесообразно.

Кабельные сети американского телевидения или спутниковые антенны поставляют потребителям порядка сотни круглосуточных каналов. Количество бит информации, которые можно получить из них за сутки (в конкретный дом) исчисляется астрономическими цифрами. Однако использование для их описания напрямую слова информация не является однозначным - количество информации как устранённой неопределённости для наблюдателя-человека в этом гигантском потоке не всегда велико. Обиходно это выражается распространёнными неудовлетворённостью "картинками" и критикой содержания передач. Устранение неопределённости в этом случае понимается по отношению к жизненным проблемам человека - любви и преступлениям, политике и религиям, науке и здоровью. Можно обозначит в формуле Шеннона такие аргументы верхним индексом (а).

Технические системы разрабатываются для передачи самих потоков импульсов. По отношению к ним устранение неопределённости имеет другой смысл. Дан, например, экран телевизора с известными числом строк развёртки и полосой пропускания его приёмника, определяющей ширину точки вдоль строки. Тогда целью передачи информации является сама "картинка", а неопределённость выражается по отношению к равномерной засветке экрана. Это будет соответствовать верхнему индексу (в) в формуле Шеннона. Но для оценки неопределённости (количества информации) одновременно суммировать по индексам (а) и (в) нельзя - признаки несопоставимы, относятся к разным целям.

В телевизионной передаче участвуют простейшие элементы телевизора или компьютера как реализованные изделия. Для них неопределённость и цель свои. Они обмениваются информацией в том смысле, что устраняется неопределённость ДА, НЕТ их возможных состояний. Обмен информацией между элементами системы имеет только такой смысл, не совпадающий ни со смысловой неопределённостью "картинок", ни с неопределённостью их формирования на экране. Опять та же формула Шеннона за счёт нового верхнего индекса (с) становится другой. Реально для наблюдателя-человека, для аппаратуры телевизионных передач и их приёма, для её простейших элементов определения информации вводятся на основе разных признаков, по отношению к которым возникает неопределённость - одна и та же система в зависимости от поставленных разных целей становится формально несопоставимо разной. Формула Шеннона для количественного описания неопределённости учитывает это присутствием в ней аргументов  Аi(j) , которые формализуют различие признаков, относительно которых вычисляется неопределённость.

Сделанные замечания элементарно очевидны, а потому напоминание о них обычно опускается на фоне возможностей и результатов, которые сегодня создала классическая теория информация. Благодаря формализации К. Шеннона и его работам она привела к огромному объёму практически важных достижений в кодировании сообщений, сокращении объёма информации при её кодировании и передаче по каналам связи, в описании пропускной способности каналов связи, помехозащищённости при передаче и преобразованиях информации. Цель передачи или обработки информации во всём этом присутствует автоматически (как и "книга сообщений"), напоминания не нужны.

Приведенные выше основные определения теории информации дополнил в пятидесятые годы ХХ века Г. Кастлер:  информация, качественно (смысловым образом как устранённая неопределённость в достижении цели) и количественно (определённая выражениями для неопределённости, полученными Л. Хартли или К. Шенноном), становится таковой (синтезируется) в результате запоминания выбора из случайностей.

Книгу Г. Кастлера [9], в которой дано определение синтеза информации, перевёл на русский язык Л.А. Блюменфельд ещё в шестидесятых годах теперь прошлого ХХ века. Хотя определение Кастлера относится к классике теории информации, упоминания о нём в российской литературе были редкими. Положение изменили работы [1],  [2] в "Биофизике" о физическом пути описания возникновения и эволюции жизни. Принципиальное изменение понятия о синтезе информации в этих работах состоит в определении синтеза информации как самопроизвольного процесса, не требующего предзаданной цели.

Формально определение количества информации К. Шеннона напоминает выражение для энтропии в физике, в частности в форме, которую ввёл А. Эйнштейн в статье 1910 г. [10]. В его работе энтропия определена через функцию распределения вероятностей   f   в виде:



(но она записана в ней в форме показательной функции).

Отсутствие в формуле Эйнштейна знака суммы, участвующего в формуле Шеннона, вызвано тем, что рассматриваются равновероятные состояния системы (статистика Больцмана) в условиях, которые эквивалентны единственному индексу  i  (суммирование в этом случае участвует в виде интеграла по объёму фазового пространства, используемого при выводе такого определения энтропии). Эта формула получается на основе тех же методов комбинаторики, которые приводят к определению энтропии у Л. Больцмана как логарифма числа возможных состояний системы


 
или через вероятности состояний у Дж. Гиббса



где k - размерный множитель в виде постоянной Больцмана. Вероятности обозначены иной буквой по отношению к пояснениям о их роли в теории информации для того, чтобы подчеркнуть характер этой энтропии как физической переменной. Опять, так как вероятности всегда меньше 1, то при обоих определениях за счёт знака минус энтропия положительна (однако группы работ, где знак минус привычно опускается, в литературе существуют, о них дальше).

В случае статистик Бозе или Ферми появляются неравновероятные состояния в системе, разбитые на группы. Тогда соответственно в определении энтропии через функцию распределения участвуют однородные суммируемые члены, подобно тому, как это записывается в формуле Шеннона.

Тем не менее формула Шеннона не тождествена описанию физической энтропии. Причина опять в том, что в теории информации на первом месте цель передачи сообщений. Более того, в её реализации участвует предпосылка о существовании у передающей и принимающей стороны двух тождественных "книг". Вероятности в формуле Шеннона и соответственно неопределённость рассматриваются по отношению к конкретным сообщениям о закодированном с участием этих "книг". Физическая энтропия Л. Больцмана характеризует наиболее вероятное состояние системы  и в такой роли не требует существования ни предзаданных целей, ни "книг". Именно поэтому в физике энтропия Больцмана является важнейшей физической переменной, универсально описывающей неопределённость в системе.

Однако общая особенность определения энтропии в теории информации и в физике существует. Первичное и самое существенное в определении энтропии - логарифм числа возможых состояний или их вероятностей. В этом определении могут использоваться самые разные (отвечающие конкретной частной или общей задаче) функции, описывающие число возможных состояний системы или их вероятности. Они являются детализацией общего.

Она исключительно важна, продуктивна, часто сложна, связана со множеством дополнительных предпосылок, теорем, старых или новых средств математического аппарата. Но детализация не отменяет первичного математического определения информации в виде логарифмической меры устранённой неопределённости.

Сотни великолепных (и не очень) учебников посвящены объяснению деталей в классической теории информации. Приведу пример одной из таких деталей.

Теория информации возникла из потребностей технической реализации средств связи. В них автоматически и практически без исключений действует "принцип осциллографа" - процессы, развивающиеся во времени, могут быть отображены относительно пространственной координаты. Соответственно осреднение по времени и по пространству эквивалентно. Для случайных процессов такое известно как гипотеза эргодичности. Её использование упрощает математические доказательства. Это часто применяется в теории информации, так как гипотеза эргодичности автоматически справедлива для большинства её объектов. Однако время принципиально отличается от пространственной координаты своей необратимостью. Поэтому в физике существуют задачи, где применение этой гипотезы ограничено. Но возможность её нарушения в задачах физики не затрагивает принцип определения информации как устранённой неопределённости ни в теории информации, ни собственно в физике.

Поскольку в теории информации (при передаче информации, её синтезе или обработке) всегда присутствует цель, то в приложениях теории информации появляются характеристики типа ценности или незаменимости информации, определённые в функции от поставленной цели и степени её достижения. В билогии цели нет, а потому ошибочен встречающийся (как правило) перенос из теории информации в билогию характеристик ценности и незаменимости информации.

Изложенное выше есть напоминания и пояснения того, что отражено в учебниках по теории информации и биологии. Теперь перейду к пояснениям нового, содержащегося в работах [1] - [6].

Информация в природе как устранённая неопределённость

Природа не имеет предзаданных извне целей. Возникновение "элементарных частиц" или жизни, звёзд и планет или разума человека в равной степени должно быть следствием предыстории, а не результатом достижения целей [1] - [6]. В многочисленной сегодня литературе о роли информации в биологии игнорируется, что теория информации (как математический аппарат для технических устройств связи) основана на понятии цели.

Поэтому в литературе по биологии определения из теории информации используются вне области их применимости. Для того, чтобы использовать в физике и биологии понятие об информации необходимо определить её без участия цели. Это возможно потому, что в физике существует переменная - энтропия, которая  описывает неопределённость как таковую, без участия кого-то или чего-то, стоящих ревизорами над природой, знающих поведение любого элемента системы, цели этого поведения и "книгу сообщений". В определении энтропии Л. Больцмана число возможных состояний системы имеет смысл без всяких предположений, что нахождение частиц в этих состояниях кто-то должен проконтролировать, расклассифицировать извне. Если неопределённость в природе характеризовать энтропией как физической переменной, то устранение этой неопределённости будет задавать качественно и количественно информацию как физическую переменную природы в целом и биологии в частности.

Как показано в [1] - [6], в природе устранение неопределённости выражается фактом существования её объектов и процессов. Мерой неопределённости является энтропия. Она участвует в этом как ключевая характеристика объектов - физическая переменная.

Например, одна песчинка из кучи песка существует, находясь во внутреннем равновесии.

Она является детерминированным объектом. Она может быть поликристаллом и уж точно состоит из атомов и молекул. Она такая, какая есть, потому, что составляющие её элементы достигли максимума неопределённости своих состояний - максимума описывающей их энтропии. Её существование задано, как правило, астрономическим количеством возможных состояний для поликриталлических составляющих, а потом, глубже иерархически, для молекул и атомов. Энтропия выражает эти числа в логарифмической мере. Но песчинка одна и этим является единственным новым объектом. Ей в таком виде, "сверху", отвечает нулевая неопределённость, то есть нулевая энтропия. Песчинка как макроскопический объект существует без всякой  неопределённости, то есть самим фактом своего существования она устранила неопределённость состояний элементов, образующих её как объект.

Энтропия как физическая переменная является функцией Ляпунова - её величина и возможные приращения (производство энтропии) определяет устойчивость, в частности статического равновесия, каковым является "изнутри" единственная песчинка как объект.

Возможен иной объект - куча песка, образованная множеством таких песчинок. Хотя энтропия каждой из них как целого - ноль, возможные состояния множества песчинок в куче как новом объекте характеризует своя энтропия. Её аргументами являются  взаимные состояния песчинок, а не составляющих их атомов и молекул. Куча песка становится новым объектом, устранившим своим существованием неопределённость состояний песчинок в ней.

На такой основе энтропия как физическая переменная становится тождествено мерой информации в природе. Как и в случае определения информации у Шеннона, функциональный вид и величина неопределённости (и соответственно разные конкретные выражения для энтропии, адекватные данной задаче) зависят от аргументов вероятностей - признаков, относительно которых выражается неопределённость.

Общее в определениях информации у Хартли и Шеннона и для природы в том, что сама мера неопределённости количественно и смысловым образом выражает информацию.

Отличие для природы в том, что этой мерой является энтропия как физическая переменная - характеристика наиболее вероятного состояния системы (объекта, процесса). На основе второго начала термодинамики рост энтропии задаёт направление и реализацию самопроизвольных процессов (не имеющих внешней по отношению к ним цели). В теории информации задана конечная цель. Для природы задан закон самопроизвольности роста энтропии.

Поэтому по аналогии с определениями теории информации сама величина энтропии как физической переменной, ответственной за реализацию объекта или процесса (неопределённость, устранённая фактом их существования) является смысловой и количественной мерой информации об этом объекте или процессе. Это подчёркивает введенный в работах [1] - [6] двойной термин энтропия-информация - как и в теории информации, математическое описание самой неопределённости является мерой количества информации как устранённой неопределённости. При этом в природе (в отличие от теории информации) предзаданной цели нет.

Общим в определениях энтропии в теории информации и в физике является математическое количественное описание с её помощью неопределённости. Отличием определения энтропии у Шеннона от определения её в физике (в дополнении к описанному в первом и втором параграфах) является тот факт, что энтропия в физике наиболее вероятное состояние системы. Математически это выражает введенная Больцманом процедура нормировки энтропии по отношению к общему числу и энергии элементов системы.

Повторю, что в работах [1] - [6] смысл информации в природе в том, что характеристика неопределённости остаётся старая - энтропия. Она же и есть информация, но не требующая знания целей. Двойное название энтропия-информация введено для того, чтобы это подчеркнуть. Напомню повторно и о том, что признаки, относительно которых выявляется неопределённость, как и описывающие их функции, могут быть для конкретных задач существенно различными в соответствии с условиями задачи - предпосылками. В физике энтропия (неопределённость) является физической переменной. Она имеет размерность, которая придаёт её определению однородность в широком круге задач, кажущимся образом несопоставимых. Поэтому для таких задач суммирование энтропии (информации) оказывается возможным. Для "внутренности" песчинки и для "кучи песка" энтропия как физическая переменная имеет однородную размерность. Это создаёт закономерность природы в виде иерархического суммирования энтропий. Описывающий это ряд, впервые введенный в [1] (см. также статью на этом сайте "Почему человек считает результатом эволюции увеличение порядка?"). В этом ещё одно отличие от теории информации, где примеры типа разных смыслов информации о "телевизионной картинке" скорее правило, чем исключение.

Энтропия-информация как мера информации в природе принципиально изменяет смысл определения синтеза информации Г. Кастлера. В природе нет запоминающих устройств в виде каких-то ячеек, письменности или памяти человека. Для того, чтобы однородно использовать определение Кастлера синтеза информации по отношению к природным объектам или процессам необходимо определить запоминание в терминах физики. Это сделано в работах [1] - [6]. Синонимом запоминания в природе является устойчивость её объектов и процессов. Поэтому определение синтеза информации Кастлера для природных объектов и процессов превращается в цепочку:  Случайности - Условия - Запоминание (в виде устойчивости).

Энтропия как физическая переменная является функцией Ляпунова. Экстремумы её самой (и её производства для динамических задач) наиболее общим способом описывают устойчивость. Напомню смысл функций Ляпунова аналогией. Для устойчивости равновесия шарика на дне лунки функцией Ляпунова является потенциальная энергия. В результате энтропия и её изменения задают в природе возможность или нет запоминания в виде устойчивости выбора из случайностей. Кстати отсюда возникает аналог "обиходного смысла" для информации в природе - экстремумы энтропии-информации как функции Ляпунова и её приращений (производство энтропии) непосредственно дают "сигнал" об устранении неопределённости путём запоминания.  

Определение Кастлера синтеза информации, начиная от работ [1] - [6], приобретает свойство, не существующее для него исходно (в теории информации) - самопроизвольность запоминания. В результате синтез информации становится самопроизвольным физическим процессом, не требующим для своей реализации предзаданной цели.

Действие в механике как мера энтропии, а потому и информации в природе

Энтропия как физическая переменная первично возникла из задач описании тепловых процессов. Впоследствии она стала широко использоваться во всех областях физики и в физической химии. В этих случаях применение энтропии как переменной привычно. Об особенностях энтропии в теории информации написано выше. Термин энтропия используют математики, но у них он абстрагирован от материальных проблем и приобретает формальный характер, как и характерно для языка - математики.

Реально энтропия является ведущей физической переменной материальных процессов, включая те, для которых её применение непривычно. В таком виде она имеет размерность.

Понятие физической переменной подразумевает, что её размерность должны быть тождественно одинаковой, независмо от областей использования переменной. Такой вопрос в явном виде в физике не ставится, а тем более при использовании энтропии (и теории информации) в биологических и биофизических задачах. Отвечу на него на фундаментальном уровне.

Ключевую основу современной механики (а потому и физики в целом) составляет вариационный принцип Гамильтона, сформулированный относительно переменной механики - действия. Классики механики отмечали, что из него одного можно получить все законы и следствия механики. Исторически его предшественником являлся более частный вариационный принцип наименьшего действия Мопертюи.

Вопрос - почему из всех переменных механики  действие оказалось ключевой переменной? - не задают. В работах [1] - [6] дан ответ на него - действие в классической механике является энтропией (а следовательно и функцией Ляпунова). Согласно этим работам к энтропии в механике приводит не осреднение параметров многих движущихся "частиц", а характеристика (в том числе траектории единственной частицы) - действие. Оно является энтропией в механике.

По литературе хронически кочует ряд ошибок, исторически возникших на доброкачественной основе, но сегодня непростительных. Одна из них связана с противопоставлением детерминизма в классической механике, якобы, принципиально отличающего её от статистической механики, термодинамики и квантовой физики. Как показано в [4], [6] это ошибка. В природе не существует более точного количественно и качественно детерминизма, чем задаваемого положениями экстремумов энтропии и её производства. То есть в полном соответствии с обиходными интуитивными представлениями человека детерминизм выражается количеством информации (в конкретном виде энтропии-информации) об объекте или процессе. В тех случаях, когда объект или процесс формируются с участием большого числа элементов системы, возможная ошибка в этом детерминизме лежит за пределами десятков знаков после запятой и неуловима самыми современными приборами. В частности, это относится к тем объектам, относительно которых сформулированы физические законы. На уровне живых систем, элементом одной из которых является сам человек, экстремумы энтропии-информации имеют вполне наблюдаемую окрестность. В некоторых из таких случаев для человека предметом исследований становится преимущественно сам разброс.  

Отмеченное выше справедливо для траектории в классической механике  потому, что энтропия в ней выражается [6] в виде одной из главнейших её переменных - действия. В результате классический образец детерминизма - траектория материальной точки - является геометрическим местом точек максимума энтропии. Здесь реальна оговорка о группе работ, где не вводится знак минус при определении энтропии с участием вероятностей. Поэтому экстремум действия в задачах механики описывается как минимум действия, например, принцип наименьшего действия Мопертюи.

С точки зрения действия как энтропии в механике вывод Э. Шрёдингером своего знаменитого уравнения (фундамента квантовой механики) выражает в упомянутом выше в этой статье больцмановском виде нормировку действия как выражения для энтропии.

Соответственно само уравнение Шредингера не является [6] уравнением движения  (что вопреки, казалось бы очевидному, ему навязывается как неоспоримое). Различие описания движения в терминах уравнений движения и в терминах условия нормировки экстремумов действия создаёт общеизвестное стойкое (но ошибочное) противопоставление детерминизма классической механики и вероятностного характера квантовой механики.

Уравнение Шредингера описывает реальные движения потому, что устанавливает области экстремумов переменной механики действия, которые определяют траектории с помощью энтропии-информации о них. Эти новые утверждения введены в [6].

Сам по себе логарифм некоторой функции, с участием которого выражается энтропия как физическая переменная, есть величина безразмерная. В классической термодинамике размерность энтропии возникает за счёт использования перед логарифмом размерного множителя - постоянной Больцмана. Её размерность есть размерность энергии делённая на размерность температуры.

Размерности (и соответственно системы единиц) основаны на выборе минимального числа первичных аксиоматических понятий. Среди них три, принятых бесспорно - масса, пространство, время. Им соответствуют три единицы измерения. В результате дискуссий в системы единиц было введено четвёртое понятия, характеризующее электромагнитные процессы. Это электрический заряд и его независимая размерность. В системе единиц МКСА вместо него по техническим причинам используют электрический ток и его единицу, что смысла не меняет. Возможны и используются варианты систем единиц, например, СГС, когда четвёртая независимая единица не вводится, но к трём механическим единицам добавляется скорость света. "Потеря" одной независимой размерности оказалась возможной потому, что скорость света определена с участием диэлектрической и магнитной проницаемостей вакуума, размерности которых включают в себя электрический заряд (см. статью на этом сайте "Эфир в электродинамике Максвелла". Множители в виде скорости света как составляющие размерностей (единиц) потому позволяют обойтись без четвёртой независимой размерности, что при переходе от проницаемостей к скорости света электрический заряд сокращается, выпадает из результата. Это является существенным предположением о природе вакуума, а потому может создавать не известные пока принципиальные ошибки в результатах при использовании системы СГС.   

Однако при всей проиллюстрированной выше строгости теории размерностей в современных системах единиц без всяких сомнений и обсуждений присутствует внесистемная пятая единица - температура. Внесистемная она потому, что не имеет связей с четырьмя (или тремя) основными, перечисленными выше. По непонятным причинам вопросов об этом не задают. Как утверждается в [4], [6] (а также см. статью на этом сайте "Время в механике и эволюция") размерность температуры должна выражаться обратным временем. Тогда постоянная Больцмана будет иметь ту же самую размерность, что и действие в механике (произведение энергии на обратное время). Численная величина её будет другой, но во все формулы физики постоянная Больцмана входит в виде произведения на температуру (имеющего размерность энергии). Иногда даже вводят размерность температуры в энергетических единицах. Поэтому существующие формулы и их сопоставление с экспериментами не запрещают взаимосогласованного изменения величины постоянной Больцмана и единицы измерения температуры. Размерность постоянной Больцмана в строгом виде должна быть та же самая, что и у кванта действия Планка, то есть (выраженная единицами измерения) Джоуль, умноженный на секунду. Но величина единицы измерения для неё не постоянная Планка, а своя (см. [4],  [6], а также статью на этом сайте "Что такое безразмерные мировые постоянные и как определить их величину").

В самом общем случае размерность энтропии в физике задана адиабатическим инвариантом системы, имеющим размерность действия (см. на этом сайте "Ключевые понятия", а также статью "Почему человек считает результатом эволюции увеличение порядка"). Поэтому физическая переменная, описывающая энтропию-информацию в природе, может суммироваться при разных конкретных признаках состояний, относительно которых она одновременно является энтропией-действием. Это ещё одно отличие информации в природе от теории информации для человеческих сообщений, где формула Шеннона распадается на на несуммируемые варианты, так как возможны несопоставимые признаки (сообщения и пр.).

Действие определено в любой задаче, в которой заданы полная энергия и аргументы, от которых она зависит. Поскольку существуют преобразования Лежандра, то энергия может выражаться в форме разных термодинамических потенциалов (например как свободная).  

Более того, сама энергия может иметь характер абстрактной функции состояния, получающей физический смысл и размерность за счёт "весового множителя", отражающего реализацию элементов системы и их связей.

Например, понятие функции состояния со смыслом энергии может применяться в логике.

Как известно, определение функций состояния в том, что они не зависят от вида пути, по которому из начального состояния получено конечное. Сравните с логическими доказательствами теорем. Они могут быть проведены разными способами при одних и тех же предпосылках и результате (начальном и конечном состояниях для разных путей).

Кстати, в теории нейронных сетей наиболее продвинуты те задачи, математический аппарат которых прямо или косвенно основан на свойствах функций состояния.

Предположение о том, что логические операции подчиняются законам функций состояния высказал в 1961 г. Р. Лендауэр. Строгие доказательства в этом провёл Ч. Беннетт. Он показал, что с использованием термодинамически обратимых логических вычислительных элементов современный компьютер можно превратить в обратимую вычислительную (логическую) машину.

Конечно, в деталях существует различие между переменными в классической механике и при описании логических задач, или физических и химических свойства фрагментов ДНК, или клеток в организме, или популяции в целом, или особи в её составе. Но при строгой реализации всех этих задач (внешне разнородных) в них останется ключевой энтропия, имеющая размерность действия.

Конкретные различия между такими задачами содержатся в уравнениях состояния, связывающих между собой независимые переменные для каждой из них. В частности, принципиальное различие уравнений состояния отличает классическую механику от всех других задач.

В классической механике, как впервые введено в [6], уравнение состояния связывает между собой приращения импульсов и координат. В термодинамике, а потому и в большинстве макроскопических задач, независимые координаты связаны между собой непосредственно. При использовании действия как энтропии-информации в задачах, например биологии, специфику задач, подробности их постановки  будут включать в себя именно уравнения состояния.

Как всегда в науке, функции состояния, возникшие из равновесных задач, оказываются ступенью для перехода к существенно неравновесным, открытым системам. Они преимущественны в биологии. В этом ключевым является то, что экстремумы действия-энтропии-информации и её производства (функции Ляпунова) определяют устойчивость, то есть факт существования процессов и объектов (как равновесных, так и неравновесных). Устойчивость в неравновесных процессах - это и есть то главное, что подразумевается под распространённым сейчас понятиями - самоорганизация, синергетика.

Немного с другой стороны ещё раз подчеркну главную особенность энтропии как физической переменной и действия как её размерности.

В [6] введена новая аксиоматическая система основ механики и физики. Она состоит в следующем. Любой объект в природе в конечном итоге состоит из многих элементов и обладает энергией. Природа детерминистична в том смысле, что для любых её объектов и процессов существуют пороги. Ошибки, не выходящие за пределы таких порогов, не влияют на результат. Эти пороги на фундаментальном уровне заданы в единицах действия, то есть энтропии-информации. Наиболее значимый порог возникает в основах механики в виде конечного предела снизу для элементарных приращений её перемнных - координат и импульсов. Описывается он в терминах фазового пространства. Учёт этого порога отличает квантовую механику от классической. В квантовой механике это известно как соотношение неопределённости Гейзенберга и парадоксальным образом трактуется как утверждение об индетерминизме природы. Ошибочность такого утверждения показана в [4], [6].

Определение энтропии через число возможных состояний элементов системы (объектов природы), требующее участия статистических закономерностей, возникает в  результате того, что в реальной системе полная её энергия складывается из энергии составляющих её элементов (например, "частиц" в случае механики). Поскольку носителем энергии является дискретный элемент системы и независимой переменной является конечный элемент фазового объёма (ячейка в фазовом пространстве по общепринятой терминологии), то способ выразить энергию в функции независимой переменной состоит в том, чтобы методами комбинаторики найти числа заполнения этих ячеек элементами системы (классически для ячейки возможен предел нулевого объёма, но это только приближенный постулат). Природа реализует такое распределение "плотной упаковкой", но не самих "частиц", а их взаимосвязанных координат и импульсов - "частиц в движении". Ответ на её детали выражается макроскопическими состояниями и изменениями объектов - реальными как таковые, наблюдаемыми во внешних проявлениях. Комбинаторика реализуется внутри объектов природы - наблюдаются её макроскопические результаты.

Связь комбинаторики с реальностью возникает потому, что суммарная энергия и суммарное число элементов системы заданы внешними условиями. Результаты комбинаторики могут быть и должны быть сопоставлены с величинами полной энергии системы и полного числа её элементов. В определении энтропии это реализуется с помощью введенной ещё Больцманом процедуры нормировки энтропии. Этим абстрактность математического описания энтропии превращается в "грубую, зримую" реальность энтропии как физической переменной. Она становится действием - элементарно измеримой переменной.

Например в терминах ньютоновской механики для равномерного прямолинейного движения величина действия выражается произведением массы на скорость и на длину пройденного пути. В таком смысле термин действие отражает интутивное понятие действия как результата человеческих усилий. Передвинул тяжёлый ящик со скоростью, с которой смог, с одного места на другое и этим совершил действие, величина которого зависит от массы ящика, скорости, с которой его удалось двигать, и расстояния. Естественно, что в науке термины математически формализованы. Благодаря этому они приобретают широту, которая далеко выходит за пределы примеров, породивших их.

Действие как понятие физиологии, психологии, социологии, политики в конечном счёте сводится к строгим аналогам действия как переменной механики. Во всех этих (и других) областях оно может быть формализовано однородно с механикой, но в переменных, связанных между собой специфическими для данной задачи уравнениями состояния. Как было показано выше, действие одновременно выражает энтропию как физическую переменную, а потому и информацию в природе. Это единство делает действие наиболее значительной переменной науки.

В прошлом классики науки удивительным интутивным образом умели находить для научных терминов слова, которые вмещали в себя намного больше того, что в данный исторический момент можно было строго описать. Способность к превращениям - перевод греческого слова энтропия, введенного в виде термина в науку Р. Клаузиусом. Энтропия есть реализованная действием (как в интуитивном человеческом смысле, так и в виде строгого научного термина) способность к превращениям.

Вот об этом новом работы [1] - [6]. В частности, в них для напоминания об однородности (с участием действия) описания неопределённости в природе (и соответственно информации при её устранении) введен термин действие-энтропия, который в силу пояснённого выше о связи энтропии как физической переменной и информации должен иметь третью составляющую и писаться в виде - действие-энтропия-информация, как в этих работах и делается. Конечно, длинные термины неудобны и со временем действие-энтропия-информация в зависимости от классов задач возможно распадётся назад на свои составляющие. Но сегодня необходимо с помощью тройного термина постоянно напоминать об их единстве для энтропии как физической переменной. Ведь в математическом смысле энтропия является универсальной характеристикой любых случайных процессов и в таком виде не обязательно совпадает с энтропией как физической переменной.   

И в заключение. Нормировка энтропии есть сопоставление с реальностью абстракций комбинаторики. Но самой незыблемой реальностью является необратимость времени.

Поэтому, как введено в [4], [6], нормировка энтропии определяет её в виде функции комплексного переменного. Это в науке до [4], [6] оставалось незамеченным, проигнорированным. В математической формализации оси пространственных координат обратимы. Энтропия интуитивно связывается с необратимостью времени. Функции комплексного переменного вводят единственную в математике систему координат с принципиально отличными осями координат. Естественно, что в результате нормировки классическая энтропия-действие оказывается связанной с мнимой (то есть отличающейся от пространственных) осью координат, а энергия - с действительной. Оказывается возможным синтез информации на основе условий устойчивости (запоминания) в комплексной плоскости, то есть в функции не только от информации (действия-энтропии), но одновременно и от энергии [4], [6].

Литература:
1. Хазен А.М. Происхождение и эволюция жизни и разума с точки зрения синтеза информации // Биофизика. 1992.  Т.37. №1.  C. 105-122. (Khazen A. Origin and Evolution of Life and Reason in Terms of  Information Synthesis. Biophysics V. 37. N. 1,  pp.  88 - 103.  1992).
2. Хазен А.М. Принцип максимума производства энтропии и движущая сила прогрессивной биологической эволюции // Биофизика. 1993. Т. 38. N3. C. 531-551. (Khazen A. Maximum Entropy Production as a Motive Force of Progressive Biological Evolution. Biophysics. V. 38. N. 3,  pp. 537 - 565. 1993).
3. Хазен А.М. Интеллект как иерархия синтеза информации. // Новости искусственного интеллекта. №1. Стр. 71 - 98. 1994.
4. Хазен А.М. Разум природы и разум человека. М.: НТЦ Университетский. 2000. (Рецензия Л.А. Блюменфельда. Биофизика. Т. 47. №2. С. 382. 2002. См. также на этом сайте).
5. Хазен А.М. Первые принципы работы мозга, гарантирующие познаваемость природы. // Сб. Теоретическая биология. Вып. 12. М. 2001.
6. Хазен А.М. Введение меры информации в аксиоматическую базу механики. М.: РАУБ. 1998. (Первое издание М.: ПАИМС. 1996).
7. Передача информации. Статистическая теория связи. М.: Мир. 1965.
8. Гольдман С. Теория информации. М.: ИЛ. 1957.
9. Кастлер Г. Возникновение биологической организации. М.: Наука. 1967.
10. Эйнштейн А. Теория опалесценции в однородных жидкостях и жидких смесях вблизи критического состояния. (В книге: А. Эйнштейн. Собрание научных трудов. Т. III. М.: Наука. 1966).

  

  

  Веб-дизайн © Kirsoft KSNews™, 2001