Время в математике.
Как процесс построения теорий и накопления знаний и методов математика всегда была связана с временем. Кроме того, все математические методы подразумевают последовательную выкладку или конструкцию во времени. Тем не менее от Евклида и Аристотеля идет традиция изгнания из математических теорий понятия времени и его явного упоминания. Это было связано с представлением о времени, как о предельно нестабильной составляющей нашего мира, которая никогда не повторяет своего состояния дважды. Математические же теории строились навечно. Даже аксиомы считались самоочевидными фактами, навечно установленными богами. Эта традиция перешла в христианскую Европу через канонизацию Аристотеля.
Однако, алгоритм измерения отрезков Евклида явно содержал развернутую во времени последовательность действий, да еще с условным ветвлением, зависящем от результата предыдущего действия: если единичный отрезок не уложился в измеряемом отрезке целое число раз, то его надо уменьшить в десять раз и продолжить прикладывать к остатку. Но соответствующая теорема даже не содержала намека на время: каждый отрезок представим десятичной дробью через единичный.
Такое противоречие методов и формулировок сохраняется в чистой математике до сих пор, и не вызывает протестов, как профессиональный стиль. Отдельно формулируются процедуры, а отдельно теоремы, утверждающие существование этих процедур. Как правило, сама конструкция процедуры при этом составляет доказательство теоремы. Скрыто время существовало в математике в форме шагов вывода и вычислений или как формальный числовой параметр модели, которому разрешалось меняться только в одну сторону. Возможность изменять этот параметр в сторону уменьшения иногда, например в механике, рассматривается как парадокс, требующий объяснения.
Эта забавная ситуация не пережила вторжения программирования в вычислительную практику. К этому времени вера в богоданность и самоочевидность аксиом сильно пошатнулась. Аксиомы стали скорее прагматической потребностью теории, чем безусловными началами знания. Программисты прямо поставили вопрос о реальном времени счета. А теоретикам пришлось задуматься, что получится быстрее: вывести аналитическую формулу или построить алгоритм.
Кроме того, античное представление об уникальности момента времени сменилось осознанием однородности свойств всех моментов. Если воспроизвести совокупность причин, то воспроизведется и следствие. Математика приобрела форму условных утверждений, не претендующих на абсолютность вывода, но только на его обусловленность перечисленными свойствами. Например, теоремы геометрии верны только при условии истинности аксиом данной геометрии. Это также способствовало реабилитации времени в математике.
Другой путь проникновения времени в математическую парадигму, это потребность оценить безошибочность вычислений и доказательств. Увеличение сложности вывода теорем и еще более возросшее число вычислительных операций сделало невозможным непосредственную проверку. Вероятность ошибки проверяющего стала выше, чем у проверяемого, поскольку проверка требует большего числа шагов. В вычислительной практике прочно обосновались статистические методы тестирования программ, явно использующие время. Правильность теоретического вывода, содержащего десятки тысяч элементарных предложений, все чаще проверяется голосованием по группе экспертов в данной области. Фактически, приходится говорить не о правильности доказательства, а об установлении временного статуса необнаруженности ошибки. Динамика явно вошла в математику.
Возникла также область математики, оценивающая надежность вычислительных средств. По сути, нестабильность работы аппаратуры (также, как и ошибка человека в логиго-вычислительной выкладке) означает неэталонность выполняемых операций. Борьба с этим тоже ведется средствами математической статистики и тестирования.
В программирование время входит вместе с его физической мерой. Оценивается метрологическая длительность отдельных операций и их цепочек, возможных при выполнении программы. Для среднестатистическокой частоты операций введена даже новая единица измерения — один флопс (flops). Отличие от традиционных герц заключается в недетерминированной длительности одной операции, и установлении среднестатистического числа операций в секунду. Таким образом, информатика использует математические эталоны совместно с метрологическими. Но в других областях математики до этого не дошло.
Значительно тоньше время проникает в структуру моделей. Метрологическое время обычно вводится в модель как числовой параметр, имеющий стандартную интерпретацию через показания эталонных часов. Этот прием вероятно впервые был сформулирован Декартом, предложившим использовать числовые прямые для всех измеряемых переменных. Тем самым время заменялась на характеристику, имеющую пространственную интерпретацию. Проблемы с обратимостью времени в теоретической механике связаны именно с этим допущением.
Но не всегда эталонное метрологическое время адекватно отражает ритмику и длительность моделируемого процесса. Приложения часто требуют использования событийного времени. Время измеряется числом специально распознаваемых и регистрируемых событий. Эти события отражают специфику процесса, в отличие от внешних тактов универсального метрологического времени. Это могут быть особые воздействия на моделируемый объект или его реакции. Имеется много работ, в которых показано, что в собственной событийной шкале времени несколько процессов имеют одинаковую модель, хотя очень непохожи в универсальном времени. Примером могут служить процессы размножения различных видов животных, имеющие близкие описания, если за единицу времени взять одно поколение.
Введение такого времени требует от математика разработки эталонной логико-измерительной процедуры распознания и регистрации событий. Использование субъективного распознания событий или неоговоренных форм их регистрации в модели может порождать серьезные неоднозначности оценок и прогнозов, лишающие модель ценности. Событийные шкалы времени могут сильно разниться по своим свойствам даже для одного объекта моделирования. Эталоны распознавания событий составляют отдельное направление в современной кибернетике. Их анализ выходит за рамки данной статьи. Но стоит остановиться на различных способах эталонной регистрации событий. Именно с ними связаны главные различия событийных шкал времени.
Коганов А.В. Эмпирико-эталонные основы математических теорий.
Математика и опыт. Под ред. А.Г.Барабашева. М.: Изд-во Моск. ун-та, 2003. С.317-343.