Философские науки, 2004, № 1, с. 105-136.
© Г.А.Голицын, А.П.Левич

Вариационные принципы в научном знании*

Г.А. Голицын, А.П. Левич

Введение

В методах научного описания мира существует крайне ограниченный набор формальных способов вводить основные законы изменчивости исследуемых систем. Почти всегда такие законы постулируются или в форме “уравнений движения” или в форме экстремального принципа. Как правило, такие формулировки равносильны: если имеется уравнение движения, то из его вида выводится функционал, для которого исходное уравнение является уравнением Эйлера-Лагранжа соответствующей вариационной задачи, и наоборот. Однако, экстремальные принципы обладают большей эвристической и обобщающей силой. Поясню сказанное простым примером. Почему камень, брошенный под углом к горизонту, движется по параболе? Можно указать на квадратичное уравнение равнопеременного движения тела. Само это уравнение представляет следствие второго закона Ньютона для тела, движущегося под действием постоянной силы. Впрочем, парабола может быть представлена и геодезической линией – решением уравнений Эйнштейна из общей теории относительности для движений в сильных полях и с высокими скоростями. Закон Ньютона и уравнения Эйнштейна могут быть выведены из принципа наименьшего действия с определенной формой экстремизируемого лагранжиана. Таким образом, существует несколько уровней объяснения явлений, каждый из которых может служить исходным постулатом. Однако, уравнения равнопеременного движения относятся лишь к узкому классу явлений, второй закон Ньютона описывает все движения в несильных полях и с невысокими скоростями, уравнения Эйнштейна лишены этих ограничений, а принцип наименьшего действия применим ко всем формам механического и электромагнитного движений.

В кратком обзоре невозможно охватить все богатство и разнообразие идей, связанных с вариационными принципами. Необходима какая-то руководящая идея для отбора материала. Такой идеей служит для нас желание получить в руки какой-то метод формулировки вариационных принципов для новых областей научного знания.

 

Структура научной теории

Существует ли какая-то “идеальная” форма научной теории, общая для всех научных дисциплин? Можно ли в гуманитарных и биологических науках строить теории, подобные тем, которые мы находим в физике? Если да, то почему до сих пор нет таких теорий? Некоторые биологические и гуманитарные дисциплины претендуют на звание теории, но физик отверг бы подобные притязания. Почему? Чтобы ответить на эти вопросы, нужно сначала выяснить, какие черты физических теорий дают им безоговорочное право на это наименование.

Прежде всего заметим, что любая “настоящая” (с точки зрения физика) теория имеет два этажа: помимо законов, связывающих друг с другом различные явления и образующих первый этаж теории, должен существовать второй этаж, который состоит из дедуктивных (логических) связей между самими законами. Эти логические связи позволяют выводить сами законы из других, или, следуя А. Эйнштейну, “понять эмпирическую закономерность как логическую необходимость”. Если этот второй этаж отсутствует, то данная область может рассматриваться только как совокупность эмпирических знаний, но не как теория.

Возьмем в качестве примера психологию. Психологами найдено огромное количество закономерностей и фактов, многие из них даже выражены в математической форме (Закон Вебера-Фехнера, закон Иеркса-Додсона и пр.). Но теории в строгом смысле, в каком употребляется это слово в точных науках, не существует. Причина в том, что эти законы разрознены, не образуют системы, не выводятся друг из друга или из каких-то общих принципов. Итак, жесткая дедуктивная структура, “логический скелет” есть необходимый компонент любой “настоящей” научной теории.

Но это еще не все. Как показывает история науки, логическая структура теории не остается постоянной, она эволюционирует к определенному “идеальному” состоянию. Этот идеал научной теории обрисован еще И. Ньютоном: “Объяснить как можно большее количество фактов как можно меньшим числом исходных положений”. И мы действительно наблюдаем, как в ходе эволюции теории число объясняемых фактов возрастает, а число исходных приложений (постулатов, принципов) – сокращается. В итоге оказывается, что все теории, завершившие свое развитие (такие как механика, термодинамика, геометрическая оптика и т.п.) сходны по своей логической структуре: их дедуктивные связи (образующие “второй этаж”) имеют единый центр – некоторый общий принцип.

Спрашивается, можно ли что-нибудь сказать о форме такого принципа? Является ли она для каждой области естествознания особенной или у всех теорий в этом смысле есть общие черты?

Обращаясь к теориям, которые завершили процесс централизации (механика, геометрическая оптика, термодинамика), мы находим, что в центре каждой из них стоит принцип оптимальности (иначе его называют еще экстремальным или вариационным принципом) – утверждение о минимуме (или максимуме) некоторой величины (“функционала”, “целевой функции”). В оптике это – принцип скорейшего пути Ферма, в механике – принцип наименьшего действия, в термодинамике – принцип максимума энтропии.

Случайно ли, что центральным принципом в этих (и в других) случаях оказался именно принцип оптимальности? Или у такого принципа есть определенные преимущества, которые и выводят его на центральное место в теории?

В физической и методологической литературе сложилось убеждение, что указанное обстоятельство не случайно, что экстремальный принцип обладает столь несомненными достоинствами, что у него просто нет соперников.

 

Из истории вариационных принципов

Мысль о том, что “природа действует простейшим образом” (И. Бернулли), т.е. “наиболее экономно”, чрезвычайно стара и послужила источником многих научных идей и методических приемов. Сошлемся еще раз на И. Ньютона, который в своих “Началах” говорил, что не должно принимать в природе иных причин сверх тех, которые истинны и достаточны для объяснения явлений, что природа ничего не дает напрасно, а было бы напрасным совершать многим то, что может быть сделано меньшим, что природа проста и не роскошествует излишними причинами вещей. Эта мысль была источником не только методологии Ньютона, но и чисто физической идеи о равенстве тяжелой и инертной масс – идеи, имевшей столь далекие последствия в общей теории относительности.

Вскоре в математике и физике идея “экономии” в природе получила воплощение в развитии экстремальных принципов. Исторически первым таким принципом был “принцип Ферма” в геометрической оптике.

Еще Герон Александрийский выводил закон отражения света из принципа кратчайшего пути. Однако уже в случае преломления света этот принцип явно нарушался; поэтому П. Ферма предположил (1662 г.), что световой луч избирает не кратчайший путь, а путь наименьшего времени. Так был сформулирован первый экстремальный принцип, оставшийся незыблемым и по сей день: “Истинный путь светового луча отличается от всех возможных (мыслимых) путей тем, что время движения вдоль него минимально”.

Вся геометрическая оптика заключена в этом принципе, как растение в зерне, и может быть получена из него путем методического развертывания с учетом конкретных условий движения света (плотность среды, наличие отражающих и преломляющих поверхностей и т.д.).

На этом примере можно видеть две основные черты, присущие всем экстремальным принципам: крайний лаконизм и простота и, в то же время, крайне общий и универсальный характер. Зная принцип Ферма, можно рассчитать любую оптическую систему, не нуждаясь ни в каких других законах геометрической оптики – все они являются лишь следствием этого принципа.

Итак, содержание всякого экстремального принципа является утверждение о минимуме (или максимуме) некоторой величины. Расчет траектории рассматривается как отыскание “истинного” пути среди всего множества возможных. Истинное движение отличается от всех возможных своей “оптимальностью”, т.е. тем, что для него некоторая величина достигает минимума (или максимума). Таким образом, основная проблема состоит в том, чтобы найти минимизируемую величину, выяснить ее конструкцию. Не всегда это так просто сделать, как в оптике: механике пришлось ждать около ста лет, прежде чем соответствующая конструкция была найдена для нее.

15-го апреля 1744 года П. Мопертюи представил Парижской Академии мемуар, в котором предлагался новый универсальный принцип механики – принцип наименьшего действия: истинное движение отличается от всех возможных тем, что для него величина действия минимальна.

Само понятие действия – как произведения массы , скорости и пути – было введено еще Г. Лейбницем, причем ему, видимо, даже было известно, что в “истинных” движениях действие имеет всегда минимальное значение. Однако Лейбниц воздержался от формулировки какого-либо общего принципа, связанного с этим свойством действия. Мопертюи же провозгласил его наиболее общим законом природы. Законы движения и покоя, по мнению Мопертюи, выведенные из этого принципа, являются точно теми, которые наблюдаются в природе, и мы можем восхищаться результатами его применения ко всем явлениям: движение животных, произрастание растений, вращение светил является только его следствиями.

Мемуар вызвал среди ученых того времени ожесточенную полемику, далеко выходящую за рамки механики. Главным предметом спора было: являются ли события, происходящие в мире, причинно обусловленными или они телеологически направляются неким высшим разумом посредством “конечных причин”, т.е. целей? Сам Мопертюи подчеркивал и отстаивал телеологический характер своего принципа и прямо утверждал, что “экономия действия” в природе доказывает существование бога.

Последний тезис вызвал резкий отпор со стороны материалистически настроенных ученых и публицистов того времени (Д´Аламбер, Дарси, Вольтер). Дискуссия велась и по другим направлениям, в частности, критиковалось определение действия, предложенное Мопертюи. Ряд авторов отрицал универсальный характер этого принципа, некоторые приводили примеры “истинных” движений, в которых “действие” не минимально, а наоборот, максимально. Велись споры и по вопросу о приоритете.

Л. Эйлер выступил в защиту приоритета Мопертюи, хотя сам сформулировал принцип наименьшего действия в более четкой и осторожной форме еще ранее него. Заслугой Мопретюи Эйлер считал универсальность его принципа; сам Эйлер рассматривал свой принцип лишь как средство решения некоторых задач механики.

Эйлер был первым, кто понял, что причинный и телеологический пути объяснения эквивалентны, хотя вначале он больше склонялся к телеологическим взглядам Мопертюи.

Окончательная формулировка принципа наименьшего действия, свободная от всякой “метафизики”, принадлежит Ж. Лагранжу.

Лагранжа больше всего интересует формальная сторона механики и мало беспокоит физическое истолкование ее уравнений. В соответствии с этим он рассматривает минимизацию действия “не как метафизический принцип, а как простой и общий вывод из законов механики”. Если Мопертюи и Эйлер рассматривали принцип наименьшего действия как первичный и основной закон механики, а все остальные законы – как его следствия, то после работ Лагранжа установилась позитивистская точка зрения, согласно которой экстремальные принципы суть только изящная и компактная упаковка для большого количества опытных фактов, не вносящая ничего нового в уже известные законы. Всякая попытка вернуть экстремальным принципам их прежнее положение – фундамента науки – клеймилась как теологическая. И только в ХХ веке революция, вызванная в физике теорией относительности и квантовой механикой, привела к пересмотру роли и места экстремальных принципов.

Выяснилось, что понятия и законы, лежащие в основании ньютоновской физики, не являются абсолютными: они изменяются при переходе от одной системы отсчета к другой. Действительно, основными законами природы могут считаться лишь те, которые остаются неизменными в любой системе отсчета. Оказалось, что этому требованию отвечают лишь экстремальные принципы. Можно считать, что в настоящее время этот спор решен окончательно: основные законы физики (а весьма вероятно, что и любой другой науки) должны иметь экстремальную форму [20].

Если стихийное развитие научной теории направлено к определенному идеалу, то ученый, очевидно, сэкономит себе силы и время, если уяснит себе форму этого идеала и будет стремиться к нему сознательно. Особенно успешным может оказаться такой подход в областях знания, которые еще не обрели строгой теоретической формы.

История действительно знает попытки такого рода. Открытие экстремальных принципов в свое время породило надежду, что к законам природы можно идти не только “снизу”, путем индукции, обобщения фактов, но и “сверху”, путем дедукции от экстремальных принципов. Эйлер, в частности, считал, что для этого только нужно путем общих “метафизических” рассуждений найти величину, которую “экономит” природа в данной области естествознания (т.е. “целевую функцию”, “функционал”), и сформулировать соответствующий экстремальный принцип. В скрытом виде он содержит все нужные нам законы; получить их в явной форме – дело простой математической ловкости.

Несмотря на соблазнительную простоту этой программы, реализовать ее в то время ни разу не удалось – ни самому Эйлеру, ни тем, кто пытался следовать за ним. Причина этого достаточно очевидна: не существовало никакого регулярного метода для отыскания экстремизируемой величины. Механике и оптике в этом смысле повезло: соответствующие величины были для них достаточно простыми и, в сущности, могли быть найдены путем перебора. Но уже в термодинамике максимизируемая величина – энтропия – не обладает ни простотой, ни достаточно очевидным физическим смыслом.

После ряда неудач программа Эйлера по отысканию законов природы “сверху” была заброшена. Более того, сами вариационные принципы были взяты под подозрение и урезаны в своих правах вследствие своего рода “телефобии”, которой была заражена позитивистски настроенная наука XIX века.

 

Дифференциальные принципы

Спрашивается, не появились ли в наше время какие-нибудь новые предпосылки, позволяющие надеяться на успех реализации программы Эйлера?

На наш взгляд – появились. Прежде всего умножилось само число вариационных принципов, возникла возможность сравнивать, комбинировать и обобщать.

Далее, сложилось боле глубокое понимание некоторых идей, связанных с вариационными принципами: (“сила”, “связь”, “равновесие” и пр.). Стало, в частности, ясно, что специфические, сложные и разнообразные интегральные вариационные принципы механики могут быть получены как следствие более простых и общих дифференциальных принципов. А эти последние могут быть представлены в единообразной форме, выражающей идею равновесия системы [9]:

. (1)

Здесь – вектор обобщенной силы; – вектор возможных движений системы, совместимых с наложенными на нее связями.

Условие (1) означает ортогональность этих двух векторов: проекция силы на поверхность возможных движений системы равна нулю. Этим действительное (равновесное) состояние системы выделяется среди множества возможных. Иллюстрацией может служить известный в механике принцип возможных перемещений. Принцип позволяет найти равновесное состояние системы, которое – в случае его устойчивости – и совпадет с истинным состоянием.

В термодинамике условия равновесия, как их сформулировал Гиббс, являются другим примером вариационного принципа (1).

Очень часто силы могут быть получены как частные производные от некоторого потенциала по соответствующим координатам:

.

Тогда произведения могут рассматриваться как вариации этого потенциала, а сам принцип может быть записан в более компактной скалярной форме

Т.е. равновесное, истинное состояние системы определяется как точка стационарности потенциала.

В 1743 г. Д´Аламбер сформулировал принцип, позволивший распространить идею равновесия на динамику. К активным силам он добавил силы инерции . В этом случае истинное состояние (движение) системы выделяется из всего множества возможных тем, что для него вектор суммарной силы ортогонален любому вектору возможных перемещений :

(2)

Стоит подробнее остановиться на принципе Д´Аламбра, чтобы оценить ту важную идею, которую он вносит и которая может иметь далеко идущие последствия. Идея состоит в том, что понятие равновесия относительно. Нельзя говорить о равновесии, предварительно не указав тех факторов – сил и связей, которые уравновешиваются.

Система, неравновесная относительно одного набора факторов, может оказаться равновесной относительно другого.

Так атомное ядро неравновесно относительно кулоновских сил (протоны отталкиваются). Но может быть сделано равновесным за счет добавления ядерных сил. Живой организм неравновесен относительно термодинамических сил, но может быть сделан равновесным за счет добавления специальных управляющих сил.

Дело еще и в том, как определяется равновесие, что служит критерием равновесности или неравновесности. Чаще всего под равновесием по данной переменной понимают такое состояние, (значение ) в котором обращается в нуль скорость изменения . Но иногда под равновесием понимают обращение в нуль суммы сил, действующих на данную переменную. Последнее понимание является более общим. Оно включает в себя не только статистическое равновесие (когда скорость изменения переменной равна нулю), но и различные формы динамических равновесных (“стационарных”) состояний. В таких состояниях ряд переменных может изменяться с постоянной скоростью. И даже падение с постоянным ускорение в поле тяжести может – в духе теории тяготения Эйнштейна – рассматриваться как движение в отсутствие сил, т.е. как равновесное.

В 1829 году Гаусс предложил еще один общий принцип механики, который он назвал принципом наименьшего принуждения:

(3)

Здесь – вектор возможных ускорений.

Наконец, в 1903 году Журден обнаружил существование третьего вариационного принципа механики:

(4)

где в качестве варьируемой переменной выступает скорость .

Сравнение трех принципов (2), (3), (4) показывает, что довольно безразлично, с помощью какой переменной – , или задается поверхность возможных движений, совместимых со связями, наложенными на систему. Тем не менее следует отметить, что принципы Журдена и Гаусса являются более общими, поскольку позволяют учитывать не только голономные (“позиционные”), ни и неголономные (“скоростные”) связи. Однако вычислительные трудности, связанные с использованием этих принципов, привели к тому, что они не стали столь популярными, как принцип Д´Аламбера.

Привлекательность принципа Гаусса еще и в том, что в роли “потенциала” для него выступает простая квадратичная форма

которую Гаусс назвал принуждением. Сам принцип может быть записан в виде требования минимума этой квадратичной формы: .

Дьярмарти (1974) в поисках наиболее общей формы для вариационных принципов линейной неравновесной термодинамики пришел к принципу, который он также назвал принципом наименьшего принуждения – по аналогии с принципом Гаусса:

где – обобщенные термодинамические силы, – потоки, сопротивления.

В этом случае, однако, возможна и более общая форма принципа, включающая помимо “диагональных” членов () также и смешанные члены ():

.

Такого рода квадратичные формы являются весьма типичными, поскольку любой потенциал вблизи точки экстремума может быть аппроксимирован такой формой. Это соответствует линейной аппроксимации зависимости между силами и координатами: . Можно надеяться, что именно такая форма принципа – хотя бы как аппроксимация – является универсальной, справедлива не только для механики или термодинамики, но и для других дисциплин.

Наиболее общая формулировка принципа наименьшего принуждения, не зависящая от природы системы, может быть получена так.

Пусть – равновесное, нормальное состояние системы; это состояние, в которое система переходит под действием внутренних сил (“реакций”) когда внешние силы отсутствуют.

Будем предполагать, что реакция пропорциональна отклонению переменной от равновесия (нормы) и обратна по знаку этому отклонению , т.е. мы предполагаем, что система линейна и статически устойчива.

Пусть – внешняя сила, действующая на переменную (“приведенная” к этой переменной); в частном случае эта сила может быть и равной нулю.

Пусть, наконец, – действительное значение переменной, действительное состояние системы.

Тогда действительное состояние отличается от всего множества возможных тем, что принуждение для него минимально:

. (5)

Отсюда следует также дифференциальная форма принципа:

(значения , , фиксированы и варьирует только ).

В отсутствие внешних сил () принцип (5) принимает вид:

.

Действительное состояние определяется только связями между переменными .

Наконец, если и связи отсутствуют (переменные независимы), то действительное состояние совпадает с нормой , которая и является истинным, “наиболее равновесным” состоянием системы. Принуждение при этом обращается в нуль.

Итак, приступая к формулировке вариационного принципа для какой-нибудь новой области естествознания мы можем считать, что форма минимизируемой величины нам – в первом приближении – известна. Это квадратичная форма (5). Для ее полного определения нужно найти весовые коэффициенты . Как это можно было бы сделать? Здесь просматриваются два пути:

1) Прежде всего можно определить экспериментально. Если мы умеем измерять обобщенные силы и отклонения переменных от нормы , то весовой коэффициент определяется как отношение

.

Проблема в том, что чаще всего мы это делать не умеем. Механика и термодинамика являются счастливым исключением, но в других дисциплинах, как правило, методы измерения нужно создавать заново. При этом, помимо технических трудностей, возникают и непростые теоретические и методологические проблемы. В основном они связаны с понятием обобщенной силы, ее опрерациональным определением.

В механике и термодинамике обобщенные силы определяются через понятие энергии, как частные производные от некоторого потенциала по координатам. Но как определять обобщенные силы за пределами физики? Что делать, если нет понятия энергии или оно не играет определяющей роли в поведении системы? Выше мы определяли обобщенную силу (обобщенный) потенциал как частную производную от этого потенциала по соответствующей координате, т.е. как понятие вторичное. Но что делать, когда именно потенциал не известен и его нужно определить через силу, когда сила является первичным, исходным понятием?

Короче говоря, нужно независимое операциональное определение обобщенной силы.

2) Второй, более плодотворный, но и более трудный путь состоит в том, чтобы обратиться к “метафизическим” соображениям и попытаться понять, какая “истинная” минимизируемая величина скрывается за квадратичной аппроксимацией. При этом квадратичная форма служит всего лишь наводящим мостиком и особенно важно исследовать границы ее применимости, т.е. случаи, когда она перестает работать.

 

Проблема двойственности

Широкое обобщение понятия силы и соответствующего понятия координаты, возможность преобразования этих величин приводят к важному наблюдению, что во многих ситуациях они являются относительными или, как обычно говорят, “двойственными”: сила может выступать в роли координаты, а координата – в роли силы. Глубокие основания этой двойственности лежат в относительности самих понятий причины и следствия: причина сама обычно является следствием какой-то другой причины, а следствие может стать причиной других следствий. Уже в механике мы видим, что активная сила является причиной изменения состояния (например, ускорения) системы, а изменение состояния в свою очередь служит причиной появления реакции системы (например, силы инерции). Еще более сложную взаимосвязь причин и следствий мы находим в процессах управления. Двойственность служит формальным выражением этой относительности.

Проблема двойственности наиболее полную разработку получила в теории оптимального управления (методы оптимизации, линейное и нелинейное программирование, математическая экономика [5]). Выглядит она следующим образом: пусть требуется найти максимум целевой функции

,

где – вектор, при наличии ограничений

,

Для решения задачи обычно используют метод множителей Лагранжа: строят функцию Лагранжа

и ищут ее максимум уже безо всяких ограничений. Переменные – множители Лагранжа. Эта задача называется прямой.

Однако множители Лагранжа изначально являются неопределенными. Поэтому возникает вторая задача – найти значения множителей Лагранжа, обеспечивающие максимум . Это и есть двойственная задача. В общем случае двойственные переменные – множители Лагранжа – также могут быть подвержены ограничениям. Такие ограничения должны быть согласованы с ограничениями на переменные .

Наиболее просто связь между условиями прямой и двойственной задачи выглядит в линейном программировании. Прямая задача: максимизировать целевую функцию при условиях . Двойственная задача: минимизировать целевую функцию при условиях . Здесь – векторы, – матрица. Одна из наиболее наглядных интерпретаций этих величин имеет место в экономике: – производимый продукт, – продажная цена единицы продукта, – получаемый доход, – ресурс, необходимый для производства продуктов, – стоимость единицы ресурса, – затраты на производство. Элементы матрицы – затраты -го ресурса на производство -го продукта (эта интерпретация с некоторой корректировкой терминов применима и в биологии).

Добавим, что ограничения в экономике обычно задаются в виде неравенств. Однако решение, как правило, лежит на границе допустимой области и в этом случае можно обойтись равенствами.

Доказан целый ряд теорем, касающихся свойств прямой и двойственной задачи и связей между ними. В частности показано, что если решение вообще существует, то оно совпадает в обеих задачах.

Существование двойственности обнаружено также в ряде областей физики, связанных с экстремальными принципами (механика, термодинамика и пр.). Массье (1869) первый обратил внимание на то, что в качестве независимых переменных, определяющих состояние системы, можно одинаково выбирать и энергию, и энтропию ([8], с.219). Позднее Гиббс (1875) развил метод термодинамических потенциалов – “равноправных” функций состояния системы, которые одинаково хорошо можно использовать для описания и вывода уравнений системы, выбирая наиболее удобную функцию в зависимости от характера наложенных на систему ограничений (иначе говоря – независимых, извне задаваемых переменных). Например, вариационный принцип, устанавливающий критерий равновесия изолированной системы Гиббс формулирует следующим образом:

1) “Для равновесия любой изолированной системы необходимо и достаточно, чтобы при всех возможных изменениях состояния системы, не влияющих на ее энергию, вариация энтропии исчезала или была отрицательной”: при .

2) “Для равновесия любой изолированной системы необходимо и достаточно, чтобы при всех возможных изменениях состояния системы, не влияющих на ее энтропию, вариация ее энергии исчезала или была положительной”: при (цит. по [22], с. 208).

В экологии сообществ предложено [16] обобщение теоремы Гиббса. Рассматривается вариационная задача на условный экстремум [13, 15]

(6)

где – искомые численности каждого из видов сообщества в стационарном состоянии, – количество -го ресурса, потребленное популяцией вида из среды в расчете на одну клетку к моменту остановки роста; – общее количество взаимонезаменимых ресурсов, потребляемых сообществом; – число видов в сообществе; – начальное содержание ресурса в среде .

Задача (6) является математической формализацией постулируемого экстремального принципа, согласно которому динамическая система из заданного состояния переходит в состояние с экстремальной (в пределах, допустимых имеющимися ресурсами) структурой [13, 37].

Приведем некоторые возможные интерпретации функционала и сформулированного экстремального принципа.

    1. Энтропия может рассматриваться как мера “структурированности” некоторого состояния или мера “удаленности” структуры состояния от его бесструктурного аналога [14].
    2. Энтропия, линейно упорядочивая сами структуры и описываемые математическими структурами состояния естественных систем, в определенном смысле в рамках функторного метода сравнения математических структур [13] обобщает понятие “количество элементов” для конечных структурированных множеств [14]. Тем самым, экстремальный принцип реализует максимум экспансии сообществ живых организмов [37].
    3. Энтропию системы можно рассматривать как количество информации, связанной со структурой системы, поэтому введенный экстремальный принцип можно интерпретировать и в информационных терминах [13].
    4. Согласно обсуждаемой “теореме Гиббса” энтропийный экстремальный принцип с ограничениями по ресурсам равносилен принципу минимального потребления любого из лимитирующих динамику ресурсных факторов с ограничениями на наименьшую допустимую величину энтропийной характеристики системы.
    5. Экстремальность функционала,
порождающего динамику сообщества, можно интерпретировать и как требование максимального разнообразия системы, ограниченного доступными ресурсами среды [12].

При исследовании сформулированной экстремальной задачи (6) при условии был получен ряд строгих результатов, среди которых следующие [15]:

    1. Максимум в задаче (6) достигается в точке, где
    2. Теорема существования и единственности: для любого вектора ресурсов решение задачи (6) существует, единственно и задается формулой видовой структуры
    3. (7)

      где а общая численность и вектор есть решения системы алгебраических уравнений

    4. Теорема стратификации: все пространство ресурсов

является объединением непересекающихся подмножеств (стратов), находящихся во взаимно-однозначном соответствии с непустыми подмножествами множества в том смысле, что если некоторый вектор принадлежит подмножеству пространства ресурсов, соответствующему , то для этого вектора задача (6) эквивалентна задаче с равенствами

где

Заметим, что задача с неравенствами (6) сводится (редуцируется) к задачам с равенствами и в каждом страте решение задачи (7) зависит только от ресурсов (и потребностей в них), принадлежащих подмножеству . Причем именно эти ресурсы (и только они) потребляются полностью (являются лимитирующими), т.е. соответствующие неравенства из ограничений обращаются в равенства.

“Теорема Гиббса”. Пусть мы имеем вектор соответствующий решению (7) задачи (6), и пусть Пусть данный вектор ресурсов принадлежит некоторому страту , причем для , для . Рассмотрим следующую экстремальную задачу:

(8)

Тогда решение (7) задачи (6) является одновременно решением системы (8). Верно и обратное утверждение: если вектор – решение системы (8), то вектор будет и решением задачи (6) с

В статистике переменными являются вероятности. В качестве “действительного состояния” системы, отвечающего некоторому критерию оптимальности и выделяющемуся среди множества возможных, рассматривается распределение вероятностей. Обычно ¬ это в каком-то смысле “равновесное” распределение. Однако равновесие, как правило, надо понимать обобщенно (см. принцип Д´Аламбера (2)). Таково, например, “стационарное состояние”.

Первостепенным является вопрос о статических (вероятностных) силах, определяющих это равновесие.

Из требования аддитивности силы следует, что сила должна быть связна не с самой вероятностью события, а с ее логарифмом. В самом деле, известно, что вероятности независимых событий перемножаются, и только логарифмы их складываются:

И если мы определим силу как

то

.

Как же выглядит условие равновесия в вероятностном случае?

Пусть по оси действует сила , которая в этом случае может быть задана через потенциал Эта сила вызывает отклонение распределения вероятностей от исходного равновесного состояния и порождает соответствующую реакцию системы Последняя пропорциональна разности “вероятностных” сил, возникающих в соседних точках оси:

(9)

В новом равновесном состоянии сумма активной силы и реакции системы равна нулю:

откуда получаем:

или

где – нормировочный множитель.

Мы получили известное распределение Больцмана, исходя из общих предпосылок (аддитивность силы) и для самого общего случая, независимо от природы системы и действующих в них сил.

Квадратичная форма (5) (принцип наименьшего принуждения) также справедлива в статистике как первое приближение.

В роли переменных опять выступают вероятности

Пусть - равновесное значение вероятности; - действительное значение; - внешняя сила.

Что касается жесткости равновесного состояния , то, как следует из (9), за нее следует принять величину, обратную вероятности состояния .

Тогда принцип наименьшего принуждения может быть записан в виде:

Если внешние силы равны нулю, то мы получаем принцип свободного поведения:

(10)

Здесь левая часть - известное выражение для критерия согласия Пирсона. При отсутствии внешних сил действительное распределение вероятностей (состояние системы) находится в наилучшем согласии с равновесным (нормальным) состоянием , какое только допускают связи, наложенные на вероятности. Если связи отсутствуют, то действительное состояние совпадает с равновесным и принуждение обращается в нуль.

Известно, однако, что квадратичная форма (10) является всего лишь аппроксимацией более фундаментальной величины, а именно, так называемой “дивергенцией” Кульбака [11]:

(11)

Эта величина, как и величина всегда отрицательна и обращается в нуль только при . Используя для логарифма аппроксимацию можем переписать (11) в виде:

что совпадает с (7).

Все выше сказанное наводит на мысль, что истинными величинами, входящими в статистические экстремальные принципы должны быть логарифмические формы - информация, энтропия и связанные с ними понятия. Из таких принципов мы рассмотрим два, которые стали важными вехами на пути развития этого направления:

1. Так называемый, “формализм Джейнса”, возникший как обобщение известного физического принципа максимума энтропии, но получивший широкое распространение и за пределами физики [34].

2. Принцип “минимума различающей информации” Кульбака, возникший в недрах статистики как обобщение и теоретическое обоснование множества известных эмпирических методов и приобретающий ныне все более общее значение и за пределами статистики [11].

В работах Джейнса [34] был предложен метод отыскания равновесных распределений вероятности при наличии дополнительных условий. В основе его лежит широкое обобщение принципа максимума энтропии и сочетание его с методом множителей Лагранжа.

Идея формализма является развитием известного “принципа недостаточного основания”: если нам ничего не известно о величине , кроме того, что она лежит в некотором ограниченном диапазоне, то разумнее всего принять, что вероятности распределены в этом диапазоне равномерно. Потому что у нас нет доказательств, чтобы считать одно значение более вероятным, чем другое.

Но этот результат может быть получен также из принципа максимума энтропии, которая может рассматриваться как мера нашего незнания - и это самый честный и непредвзятый подход к определению вероятностей .

Однако этот подход может быть обобщен и на те случаи, когда нам что-то известно о величине , например, среднее значение некоторой функции от :

Для отыскания “самого непредвзятого” распределения в этом случае мы можем снова использовать требование максимизации энтропии

,

но на этот раз с учетом имеющейся у нас информации о среднем значении функции .

Для учета дополнительных условий (их может быть несколько) используется метод множителей Лагранжа.

С учетом условия нормировки, наложенной на вероятности

и дополнительных условий мы можем построить функцию Лагранжа:

Оптимальное (равновесное) распределение, отвечающее максимуму этой функции, имеет вид:

Множитель может быть найден из условия нормировки:

откуда

и выражение для может быть переписано:

(12)

Это обобщение распределения Больцмана на случай, когда имеется несколько ограничений (несколько “потенциалов” ).

Если в число координат входят и скорости, то мы получаем и распределение Гиббса (в этом случае - “кинетический потенциал”). Вообще все основные результаты равновесной термодинамики могут быть получены на основе этого подхода.

Следует отметить, что простой, изящный и универсальный формализм Джейнса до сих пор еще редко находит место в учебниках физики, хотя способен намного облегчить жизнь и студентам и преподавателям. До сих пор для вывода статических распределений и вытекающих из них термодинамических функций используются громоздкие методы, восходящие еще к Гиббсу, сложные модели, не имеющие универсального значения. Чем это объяснить?

Одна из версий состоит в том, что принцип максимума энтропии в трактовке Джейнса (как меры незнания) имеет характер скорее логический, чем физический, говорит о субъективных свойствах нашего познания, а не об объективных законах природы. В определенном смысле он чужероден для физики – хотя, казалось бы, квантовая механика должны была приучить нас к мысли, что субъект и объект познания связаны теснее, чем казалось когда-то.

Как бы то ни было, но принцип максимума энтропии в трактовке Джейнса, постепенно завоевывает физику. (См., например, [26], [29]).

Однако наиболее успешное применение он нашел за пределами физики: в лингвистике [19], математике [32, 39], экономике [2, 17, 23], биологии [25], психологии [4], теории распознавания образов [6, 33], инженерной деятельности [10].

Интересно, что в последние годы к принципу все чаще обращаются социологи, экономисты, лингвисты, инженеры и т.п. Представьте себе, что вам нужно оценить количество электродвигателей разной мощности на каком-нибудь крупном предприятии [10]. Если известна суммарная мощность, потребляемая предприятием, то вам незачем ходить по цехам и пересчитывать двигатели - равновесное распределение двигателей по мощностям вы можете с достаточной точностью получить из принципа максимума энтропии с учетом ограничения на мощность. Разумеется, двигатели не сами так распределились - их распределили люди, бессознательно руководствуясь эти принципом.

Формализм Джейнса позволяет достаточно просто подойти и к отысканию равновесных состояний биологических сообществ при различных дополнительных условиях. Проблема эта имеет важные практические приложения, в частности в экологии и постоянно привлекает внимание исследователей (см., например, работы А.К. Прица [21], Ю.М. Свирежева и Д.О. Логофета [24], Д. Лурье и Х.Вагесберга [18], А.П. Левича [12, 37], а также раздел по проблеме двойственности настоящего обзора).

Однако, основная проблема в применении этого принципа состоит в отсутствии явных процедур для сопоставления каждой из исследуемых систем адекватного ее природе энтропийного функционала. Даже в прародительнице энтропии - статистической физике - подходы к расчету энтропии в интересующих исследователя случаях крайне ограничены (как сетовал И. Пригожин, формулировка второго начала с точки зрения современного физика представляет собой скорее программу, чем утверждение, допускающее однозначную интерпретацию, так как ни Томпсон, ни Клаузис не указали точный рецепт, позволяющий выразить изменение энтропии через наблюдаемые величины). Поэтому обычная практика при работе с принципом максимума энтропии состоит в постулировании для исследуемой системы какого-либо аналога формул Больцмана или Шеннона. Наиболее последовательно указанная тенденция проявляет себя как раз в формализме Джейнса. Метод исследования систем Эдвина Томсона Джейнса состоит из нескольких рекомендаций:

  1. Сопоставить допустимым состоянием системы определенные значения вероятности их реализации.
  2. Сформулировать в виде неравенств ограничения на макропараметры системы (например, законы сохранения энергии, числа частиц и т.д.).
  3. Отыскать равновесное состояние системы методом множителей Лагранжа как решения задачи на условный максимум с функционалом в форме шенновской энтропии.

Появившись в конце 60-х годов прошедшего века в статистической физике, формализм Джейнса прошествовал по многим областям знания, добавив к проблеме обоснования энтропийного функционала и проблему адекватного выбора ограничений на его экстремум, поскольку до решения вариационной задачи не известно, для каких макропараметров должны выполняться ограничения в виде строгих равенств.

Обратимся теперь к другому общему принципу статистики, имеющему экстремальную форму - принципа минимума различающей информации.

Понятие “различающей информации”

введенное и исследованное в работах Реньи [38] и Кульбака [11], тесно связано с упоминавшимся выше понятием дивергенции Кульбака:

В самом деле, как следует их этих формул:

Обе величины обладают сходными свойствами: неотрицательны; обращаются в нуль только, когда оба распределения совпадают Их различие в том, что дивергенция симметрична относительно обоих распределений; различающая информация такой полной симметрии не имеет, но зато проще. Обе величины с одинаковым успехом могут использоваться в качестве критерия согласия (или различия) двух распределений, причем критерия очень общего. Легко показать, что известные критерии Фишера, Стьюдента, Пирсона и пр. являются частными случаями этого критерия.

Однако с точки зрения наших целей наиболее интересны для нас результаты, связанные с использованием критерия “минимума различающей информации” для разыскания равновесных распределений вероятностей. Причем, это равновесие более общего типа, чем те, которые получаются на основе формализма Джейнса. Последний является частным случаем подхода, основанного на требовании минимума различающей информации:

(13)

В самом деле, можно видеть, что если и не зависит от , то это выражение сводится к требованию максимума энтропии.

Однако в более общем случае распределение неравномерно. Если оно нам не задано и не может меняться, то возникает задача: отыскать распределение , наиболее близкое к заданному. Мерой близости служит различающая информация.

Если на не наложено никаких ограничений, то решение задачи тривиально: совпадает с . Наиболее интересны случаи, когда на наложены дополнительные условия типа тех, которые мы встречали в методе Джейнса. Например, заданы средние значения некоторых функций от :

.

Идеология применения формализма Кульбака может быть переосмыслена так: пусть нам известно некоторое “априорное” (здесь его называют “образующим”) распределение и какая-то дополнительная информация о величине , например, среднее значение некоторой функции . Тогда наилучшим, “самым непредвзятым” апостериорным распределением будет то, которое минимально отличается от априорного - с учетом дополнительного условия для функции . Вообще говоря, таких условий может быть несколько.

Тогда мы можем обычным образом составить функцию Лагранжа

и найти значения , доставляющие ей минимум. Решение имеет вид:

В отличие от (12) здесь в правую часть входит в виде множителя априорное распределение Если , то мы, как и следовало ожидать, получаем выражение (12).

Возможен и еще один подход: как правило, априорное распределение может быть представлено в экспоненциальной форме

где - некий фиктивный “потенциал”, отражающий имеющуюся у нас априорную информацию об . Тогда выражение для приобретает однородную форму:

Это распределение может быть получено и на основе формализма Джейнса, если к числу дополнительных условий добавить Таким образом оба формализма приводят к одинаковым результатам; и оба позволяют учесть имеющуюся у нас априорную информацию - либо в виде априорного распределение , либо в форме фиктивного дополнительного условия

На этом примере хорошо видна также относительность понятия равновесия: мы можем либо считать равновесным равномерное распределение вероятностей, а неравномерное рассматривать как отклонение от равновесия под действием потенциальной внешней силы , введенного как дополнительное условие. Либо упрятать это условие внутрь системы, а возникающее при этом неравномерное распределение рассматривать как равновесное.

Принцип минимума различающей информации может рассматриваться как наиболее общий статистический аналог принципа наименьшего принуждения Гаусса (5). В качестве источников активных внешних сил здесь выступают потенциалы ; а пассивные силы (реакции) порождаются отклонением вероятностей от заданных, нормальных значений .

Легко показать, что в частном случае, когда - гауссово распределение, из принципа минимума различающей информации следует знаменитый метод наименьших квадратов Гаусса. Как известно, сам Гаусс усматривал в нем глубокую аналогию с принципом наименьшего принуждения.

Кульбак показал [11], что и многие другие известные результаты статистики могут быть получены как следствие принципа (13). Таковы метод максимума правдоподобия, методы классификации, регрессионного, корреляционного и факторного анализа, анализа таблиц сопряженности и пр.

Интересны и те приложения, которые получило понятие различающей информации за пределами собственно статистики.

Оприраясь на понятие различающей информации Шлегль [30] смог дать статистическое обоснование критерию устойчивости Гленсдорфа-Пригожина [3]. Шлегль показал, что эта величина связана со второй вариацией энтропии, которую применяли для той же цели сами Гленсдорф и Пригожин. Различающая информация - положительно определенная функция вероятностей, так что ее можно использовать в качестве функции Ляпунова для проверки устойчивости. Тогда получаем так называемый критерий устойчивости Шлегеля - статистический аналог критерия Гленсдорфа-Пригожина где - производство энтропии. (Индекс означает, что рассматривается только та часть изменения , которая обусловлена изменением сил ).

Обратим внимание на то, что в отличие от энтропии, различающая информация не является функцией состояния системы (т.е. значений ): она зависит также от “заданного”, “нормального” распределения вероятностей . Это сближает ее также с локальными потенциалами , введенными Гленсдорфом и Пригожиным.

 

Об экстремальных принципах биологии

Экстремальные принципы биологии находятся в стадии становления. Поэтому естественны и большое разнообразие этих принципов и не очень четкая порой их формулировка. Дело осложняется и тем, что живая материя организована в сложные иерархически системы: биосфера - биоценозы - популяции - особи - органы и ткани - клетки - органеллы - молекулы. И на каждом уровне организации могут существовать свои критерии оптимальности. Приложение принципа максимума энтропии к экологическим сообществам продемонстрировано в предыдущих разделах. Подробный обзор приложения экстремальных принципов в математической биологии опубликован недавно в работах с участием одного из авторов [27, 28]. В данном разделе обратим внимание на то, что для биологических систем чрезвычайно типичны и важны такие процессы как потеря устойчивости, уход от равновесия и переход к новому равновесию. Такие процессы мы наблюдаем на всех уровнях организации - от клеток и молекул до биоценозов и биосферы в целом. Развитие индивида, поведение, творчество, эволюция биосферы - основаны именно на таких неустойчивых процессах. Желательно было бы найти экстремальный принцип, который с одной стороны адекватно описывал бы динамику этих процессов, а с другой - сохранял бы преемственность по отношению к известным экстремальным принципам, включая их в себя как предельные частные случаи.

Одна из наиболее интересных попыток такого рода принадлежит Эйгену [31]. Составленное им эволюционное уравнение описывает эволюцию некоего сообщества видов. (Последние могут трактоваться очень широко, так что уравнение пригодно, например, для описания процессов восприятия). Вообще говоря, подобное уравнение - или его общий аналог - может быть получено как следствие некоторого экстремального принципа. Что это может быть за принцип?

Нам кажется, что в поисках такого принципа нужно исходить из центральной аксиомы биологии: живой организм формируется в процессе адаптации к условиям окружающей среды. Адаптированность, приспособленность является условием выживания в этой среде и определяет все реакции и свойства организма. Формальное описание этого факта могло бы послужить отправной точкой поиска.

В ряде работ (см., например, [4]) было выдвинуто предположение, что наиболее общей и адекватной мерой адаптации системы к окружению является средняя взаимная информация между условиями среды и признаками или реакциями системы . А основным принципом, определяющим поведение и развитие системы, является принцип максимума информации:

Здесь - условная и безусловная энтропия, - условная и безусловная вероятность.

В своих работах по теории информации А.Н. Колмагоров показал [7], что под величинами не обязательно понимать вероятности, это могут быть просто относительные доли, части, концентрации. Подход Колмагорова, сохраняя основной математический аппарат теории информации, в то же время резко расширяет сферу применимости.

Принцип максимума информации означает, что по мере адаптации к среде признаки и реакции организма со все большей полнотой и точностью отражают условия среды. У хорошо приспособленного организма эта взаимная информация так велика, что биолог, наблюдая признаки организма, может довольно точно описать условия среды, в которой он обитает. И наоборот, зная условия среды, можно довольно правильно предсказать признаки организма, способного выжить в этой среде.

Заметим, что принцип максимума информации включает в себя и принцип максимума энтропии при фиксированном .

Из этого принципа следует также эволюционное уравнение, сходное с уравнением Эйгена, но в некоторых отношениях более общее:

(14)

Здесь - информативность признака в условиях ; - средняя информативность; - относительная доля /“вероятность”/ комбинации .

Из приведенного уравнения видно, что в отличие от уравнения Эйгена, информативность, характеризующая селективное преимущество признака, зависит от условий среды . Поэтому не только изменение признака /мутация/, но и изменение условий среды может изменить информативность и дать толчок новому направлению эволюции. Система эволюционирует вместе с окружающей средой - это, конечно, более реалистическая точка зрения; и примеров, когда равновесие нарушалось именно изменением условий среды, давая преимущество одним видам и уничтожая другие, - можно найти огромное количество.

Система уравнений (14) задает некоторое преобразование начального состояния /вектора вероятностей/ системы в конечное, равновесное. Число таких возможных равновесных состояний определяется числом собственных векторов линеаризованного преобразования. Неустойчивость процесса проявляется в том, что ничтожное изменение начальных условий может совершенно изменить ход эволюции и привести систему к другому “аттрактору” /равновесному состоянию/. Таким образом, принцип максимума информации и эволюционное уравнение (14) описывают не только устойчивый процесс выбора вблизи равновесного состояния, в точке бифуркации эволюционного процесса. Таким образом, принцип максимума взаимной информации является более общим, чем принцип минимума различающей информации и переходит в последний только вблизи равновесия. Покажем это более подробно.

Пусть система достигла одного из равновесных состояний, характеризуемых распределением вероятностей . Взаимная информация между и в этом состоянии может быть разбита на две части следующим образом:

Здесь - состояние, близкое к равновесному /возникшее, например, вследствие како-то флуктуации/; - различающая способность между и ; - взаимная информация, усредненная по . Поскольку вблизи равновесия , то приближенно можем заменить эту величину на среднюю взаимную информацию между и , т.е. на . Поскольку постоянна и не варьируется, то и выражение в целом постоянно. Поэтому требование максимизации взаимной информации равносильно требованию минимума различающей информации , т.е. вблизи равновесного состояния принцип максимума взаимной информации переходит в принцип минимума различающей информации. Но – только вблизи равновесия. Вообще же принцип максимума информации является более общим и адекватно описывает также процессы вдали от равновесия.

Более подробное обсуждение и некоторые дополнительные аргументы в пользу принципа максимума взаимной информации можно найти в работе [4].

 

Заключение

В заключение можно сказать, что обобщенный принцип равновесия в форме (1), принцип наименьшего принуждение (5) и его статистический аналог – принцип максимума различающей информации (10) – уже сейчас могут служить надежной базой для отыскания экстремальных принципов в самых разных областях естественных и гуманитарных наук.

Особо следует сказать о перспективах обоснования формализма Джейнса. В современной науке возникли предпосылки – идеи и разработки – для возврата к программе Эйлера именно в форме принципа максимума энтропии. Любое формальное моделирование объектов науки основывается на подборе математической структуры, адекватно отражающей структуру и функционирование моделируемой системы. К концу ХХ столетия сформировалась область математического знания, позволяющая оперировать полными совокупностями одинаково структурированных множеств, а также устанавливать соответствия между классами структурированных объектов с различной аксиоматикой. Эта область – теория категорий и функторов – включает в себя и способы сравнения по степени “структурированности” различных состояний моделируемых систем. Другими словами, на самом общем уровне описание систем возникает конструктивная возможность рассчитывать числовые характеристики состояний и с помощью их выявлять экстремальные состояния системы [1, 13,14, 35, 36]. Указанная числовая характеристика есть число преобразований, допускаемых структурой системы, и может быть интерпретирована как количество микросостояний системы, соответствующее ее макросостоянию, т.е. как обобщенная энтропия системы. Таким образом появляется строгий метод расчета энтропии систем, поддающихся формальному описанию с помощью математических структур, и алгоритм порождения целевых функций для задач с использованием формализма Джейнса и других модификаций принципа максимума энтропии. Ряд современных теорем вариационного моделирования [15, 37] позволяет надеяться преодолеть и те трудности, которые связаны с произволом в выборе ограничивающих экстремум энтропии условий.

 

Литература

  1. Акчурин И.А. Единство естественнонаучного знания. М.: Наука. 1974.
  2. Вильсон А.Дж. Энтропийные методы моделирования сложных систем. М.: Мир. 1978. 248 с.
  3. Гленсдорф П., Пригожин И. Термодинамическая теория структуры, устойчивости и флуктуаций. М.: Мир. 1973. 280 с.
  4. Голицын Г.А., Петров В.М. Гармония и алгебра живого. М.: Знание. 1990. 128 с.
  5. Гольдштейн Е.Г. Теория двойственности в математическом программировании и ее приложения. М.: Наука. 1971.
  6. Горохов В.Л., Витковский В.В., Бузников А.А. Термодинамические и информационные процессы в космическом мониторинге. С-Пб.: ЛЭТИ. 1999.
  7. Колмагоров А.Н. Три подхода к определению “количества информации” // Колмагоров А.Н. Теория информации и теория алгоритмов. М.: Наука. 1987. 304 с.
  8. Кричевский И.Р. Понятия и основы термодинамики. М.: Химия. 1970. 440 с.
  9. Кротов В.Ф. Законы состояния в математическом естествознании // Оптимальные системы автоматического управления. М.: Наука. 1967. С. 163-219.
  10. Кудрин Б.И. Введение в технетику. Томск: Изд-во Томского ун-та. 1993.
  11. Кульбак С. Теория информации и статистика. М.: Наука. 1967. 408 с.
  12. Левич А.П. Структура экологических сообществ. М.: Изд-во Моск. ун-та. 1980. 180 с.
  13. Левич А.П. Теория множеств, язык теории категорий и их применение в теоретической биологии. М.: Изд-во Моск. ун-та. 1982. 182 с.
  14. Левич А.П. Энтропия как обобщение понятия количества элементов для конечных множеств // Философские исследования. 2001. №1. С. 59-72.
  15. Левич А.П., Алексеев В.Л., Никулин В.А. Математические аспекты вариационного моделирования в экологии сообществ // Математическое моделирование. 1994. Т.6. №5. С.55-76.
  16. Левич А.П., Фурсова П.В. Задачи и теоремы вариационного моделирования в экологии сообществ // Фундаментальная и прикладная математика. 2002. Т.8. №4. С. 1035-1045.
  17. Лихнерович М. Модель экономического обмена (экономика и термодинамика) // Математическая экономика. М.: Мир. 1974. С. 101-142.
  18. Лурье Д., Вагенсберг Х. Экстремальный принцип для разнообразия биомассы в экологии // Термодинамика и регуляция биологических процессов. М.: Наука. 1984. С. 153-163.
  19. Мандельброт Б. Теория информации и психолингвистика: теория частот слов // Математические методы в социальных науках. М.: Прогресс. 1973.
  20. Полак Л.С. Вариационные принципы механики, их развитие и применение в физике. М.: Физматгиз. 1960. 600 с.
  21. Приц А.К. Принцип стационарных состояний открытых систем и динамика популяций. Калининград: Балт. НИРО. 1974. 123 с.
  22. Путилов К.А. Термодинамика. М.: Наука. 1971. 376 с.
  23. Розоноэр. Л.И. Обмен и распределение ресурсов (обобщенный термодинамический подход), I-III. Автоматика и телемеханика. 1973. №№5, 6, 8.
  24. Свирежев Ю.М., Логофет Д.О. Устойчивость биологических сообществ. М.: Наука. 1978. 252 с.
  25. Термодинамика и регуляция биологических процессов. М.: Наука. 1984.
  26. Трайбус М. Термостатика и термодинамика. М.: Энергия. 1970. 502 с.
  27. Фурсова П.В., Левич А.П., Алексеев В.Л. Экстремальные принципы в математической биологии // Успехи современной биологии. 2003. Т.123. №2. С.115-137.
  28. Фурсова П.В., Левич А.П. Математическое моделирование в экологии сообществ. Обзор литературы // Проблемы окружающей среды и природных ресурсов. 2002. №9. М.: ВИНИГИ. 98 с.
  29. Хакен Г. Информация и самоорганизация. М.: Мир. 1971. 240 с.
  30. Шлегль Ф. Статистическое обоснование критерия эволюции Гленсдорфа-Пригожина // Термодинамика и регуляция биологических процессов. М.: Наука. 1984. С. 24-36.
  31. Эйген М., Шустер П. Гиперцикл. Принципы самоорганизации макромолекул. М.: Мир. 1982. 270 с.
  32. Gzil M. The method of maximum Entropy. Singapore, New Jersey, London, Hong Kong: World Scientific. 1995.
  33. Gull S.F., Skilling J. Maximum entropy method in image processing // IEE Processings. 1084. V. 131. Part F. №6.
  34. Janes E.T. Information theory and statistical mechanics. I. Phys. Rev. 1957. V.106. №4. Pp. 620-630. II. Phys. Rev. 1957. V.108. №2. Pp. 171-190.
  35. Lequizamon C.A. The periodic continuous effect in terms of the algebraic relation theory // Int. Journal of Biological Systems. V.1. № 1. 1993.
  36. Levich A.P., Solov’ev A.V. Category-functor modelling of natural systems // Cybernetics and Systems. 1999. V.30. №6. Pp. 571-585.
  37. Levich A.P. Variational theorems and algocoenosec functioning princeples // Ecological Modelling. 2000. V.131. №2-3. Pp. 207-227.
  38. Renyi A. Probability theory. Amsterdam: North-Holland. 1970. 560 p.
  39. Wu N. The Maximum Entropy Method. Springer. 1997.

* Работа поддержана Российским гуманитарным научным фондом. Грант № 03-03-00040а.