<<
>>

Мера порядка

 

Мы уже знаем, что абсолютный хаос и абсолютный порядок противостоят друг другу как дополнительные понятия. И что дать определение одному из них невозможно без сопоставления с другим.

В закрытой системе (объеме) количество порядка увеличивается строго в соответствии с уменьшением хаоса. Эта зависимость позволяет возрастание одного компонента оценивать величиной убыли другого. Подобно тому, как водитель на шоссе определяет пройденный путь по километровым столбам, на которых расстояние не увеличивается, а уменьшается.

Если считать, что спички в спичечном коробке уложены в абсолютном порядке, то те же спички, осторожно выложенные на стол, продемонстрируют меньшую упорядоченность. Перемешивание увеличит хаос еще больше и может быть достигнут предел, при котором отдельные спички примерно с равной вероятностью будут ориентированы по всем направлениям. Пусть каким-то образом мы оценили степень хаотичности получившейся картины. Тогда обратное действие, укладывание спичек в коробок головками в одну сторону даст возможность определить количество восстановленного порядка. Оно будет равно размеру ликвидированного хаоса.

Опираясь на это соображение, величину порядка для некоторых частных случаев удалось выразить количественной мерой. Сделал это К. Шеннон. Он определил среднее количество “порядка”, которое устанавливается в системе, принимающей сообщение от системы- передатчика, в форме количества информации: I = - pj log2 pi. Здесь N - число возможных состояний, в котором может находиться система, pi - вероятность (относительная частота реализации) каждого i из этих состояний, Единица информации, выраженная при посредстве логарифма по основанию два, получила название бит. Вероятность pi оценивает’ величину неопределенности (хаоса, беспорядка), которая существует до получения сообщения относительно того, осуществится или не осуществится состояние i.

Чем меньше порядка содержится в системе до проведения опыта, тем больше информации приносит сообщение. Неопределенность, содержащаяся в источнике до сообщения (априорная), обозначается символом Н, Величиной Н, информационной энтропией, и

измеряется количество полученной информации I, когда информация передана и беспорядок превращается в порядок. Н = -1.

Если от логарифмических мер энтропии и информации перейти к исходным величинам, - они продемонстрируют нам дополнительность этих переменных в виде произведения с константой единица.: antlog2 H*antlog21 = 1.

Формула Шеннона показывает, что информационная энтропия Н системы складывается из частных энтропий Н* = pilog2Pb вносимых в общую копилку каждым отдельным состоянием i. Соответственно общая информация системы складывается из информации, содержащейся в отдельных состояниях.

По замыслу автора, К. Шеннона, формула предназначена для определения количества информации в узком смысле слова, коща речь идет о наборе символов, созданных целенаправленно и используемых для своих нужд мыслящим существом. Однако информацию можно понимать и широко, как порядок, предсказуемость, память не только в ментальных, но и в материальных структурах. Еще важнее, что принцип «информация ~ это устраненный хаос» в равной степени может работать не только в статических конструкциях, но и для оценки упорядоченности движения. Для использования указанного приема необходимо заранее знать некоторый образец или правило; степень соответствия этому правилу и позволит говорить о количестве порядка. Например, эталоном пространственного порядка может быть расположение предметов согласно геометрическим фигурам (линия, круг, синусоида, решетка и др.). Порядок во времени определяется соответствием событий заданному сценарию. Порядок букв в тексте должен нести смысл, априорно знакомый читателю или предполагаемый им. Порядок движения может выражаться в согласованности (параллельности) траекторий частиц или элементов системы. В формуле количества информации Шеннона эталоном для сравнения служит состояние равной вероятности всех 1 состояний. При этом достигают своего максимума априорная неопределенность Нтах и информация Imax - после получения сведений.

Равновероятное распределение осуществляется при бросании монеты, игре в кости, случайном вытаскивании карты из колоды, в феномене «белого шума». Последний имеет место, когда радио, звуковые или другие волны распределены с одинаковой вероятностью по всему диапазону представленных частот.

Одни и те же объекты или явления могут следовать сразу нескольким образцам. Один порядок при этом складывается с другим, как складываются движения волн разного размера и направления в колебаниях поплавка на воде. Аддитивность, способность суммироваться -- важная особенность логарифмической меры информации. Последствия передачи информации из одного и другого источника могут быть разделены. В теории информации для этого разработан метод условной энтропии. Решению этой задачи посвящен Фурье-анализ, факторный и дисперсионный анализы математической статистики, метод главных компонент. Но с позиций каждого источника сообщений (каждого эталона) вмешательство другого поставщика информации представляет собой информационный «шум», хаотизацию структуры или процесса. Так случается, например, при пересечении двух пар разговаривающих в телефонной сети. Результат - что считать информацией, а что шумом - зависит от точки зрения (от априорной модели, от начала координат, образно говоря - от инструмента). Конкуренцию между наделенными разумом системами за «свой порядок» В. А. Лефевр (1973) назвал «янус- космологией».

Процедуру «сложения порядков», то есть увеличения числа воздействующих факторов, можно повторять до бесконечности, но с каждым добавлением становится все труднее разделить следствия одного, другого, третьего и т. д. фактора. Особенно если заранее неизвестен алгоритм, идеальный образец каждого вводимого порядка. На каком-то этапе мы признаем свое поражение, результат наложения множества влияний объявляем «случайным», «стохастическим» и переходим к статистическим методам их описания, основываясь на теории вероятности. Нет уверенности и в том, что «принципиально случайные» явления квантовой механики (выбор траектории отдельным фотоном, проходящим через диафрагму, электроном на орбите) не связаны с нашим неумением учесть воздействие «пассивного» наблюдателя или какие-то факторы субквантового уровня.

Впрочем, открытие процессов, описываемых математиками как «странные аттракторы», подтверждает скорее точку зрения Н. Бора и В. Гейзенберга, чем А. Эйнштейеа, о существовании явлений «принципиально хаотических», непредсказуемых ни при каких условиях (Князева, 2002). Такое заключение еще больше повышает уверенность в том, что принцип дополнительности не гносеологический эффект, а объективный фундаментальный закон бытия. Но условия, которые требуются для проявления закона, мы пока сформулировать не можем.

Процессы, строго следующие эталонному сценарию, противоположные стохастическим, принято называть детерминистскими. Граница между теми и другими в большой степени зависит от точности применяемых в исследовании приборов и детальности моделей. Уровень достигнутого детерминизма определяет наши возможности прогнозирования событий и управления ими. Совершенствование методов исследования увеличивают власть человека над природными и социальными процессами, что составляет цель и оправдание деятельности ученых. Но, с другой стороны, сокращение неопределенности относительно процессов окружающего мира уменьшает свободу выбора, если речь идет об управляемых людьми процессах. Уменьшается хаотическая, случайная компонента наших действий, мы попадаем во все более узкую колею развития. Если когда-то человечеству удается полностью изгнать из своей практики неопределенность, - это будет концом эволюции, немыслимой без «творческого хаоса» (Князева, 2002).

Итак, порядок и хаос - не только реальность нашей жизни, но и вполне измеримые величины, если рассматривать их не врозь, а в сопоставлении, 

<< | >>
Источник: А. Д. Арманд. Два в одном: Закон дополнительности. 2008

Еще по теме Мера порядка:

  1. 4 ЧЕЛОВЕЧЕСКАЯ МЕРА
  2. «Человек есть мера всех вещей»
  3. Лекция 10 Мера. Часть первая
  4. Лекция 11 Мера. Часть вторая
  5. Экспедиция Ле-Мера — Схаутена и открытие мыса Горн
  6. Глава 7. ЭКОЛОГИЧЕСКИЕ КРИЗИСЫ И КАТАСТРОФЫ. МЕРА ИХ ОПАСНОСТИ
  7. 21.7. Забастовка как мера разрешения коллективного трудового спора
  8. Тема 2.3. Личность как мера политики и исходный субъект политико-властных отношений
  9. Стратификационные усилия и современные порядки
  10. Структура региональных порядков
  11. Обеспечение общественного порядка в муниципальном образовании
  12. 10. 3. ПРЕСТУПЛЕНИЯ ПРОТИВ ОБЩЕСТВЕННОГО ПОРЯДКА
  13. Глава вторая О порядке наследия престола