Меню

Главная
Случайная статья
Настройки
Цепь Маркова
Материал из https://ru.wikipedia.org

Цепь Маркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии[1]. Характеризуется тем свойством, что, говоря нестрого, при текущем настоящем состоянии системы, её будущее состояние не зависит от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года[2].

В случае цепи Маркова -го порядка вероятность наступления каждого события зависит от состояния, достигнутого в предыдущих событиях.

Содержание

Цепь Маркова с дискретным временем

Определение

Последовательность дискретных случайных величин называется простой цепью Маркова (цепью Маркова первого порядка) (с дискретным временем), если
.


Таким образом, в простейшем случае условное распределение последующего состояния цепи Маркова зависит только от текущего состояния и не зависит от всех предыдущих состояний (в отличие от цепей Маркова высших порядков).

Последовательность дискретных случайных величин называется цепью Маркова -го порядка (с дискретным временем), если
.


Таким образом, в условное распределение последующего состояния цепи Маркова -го порядка зависит от текущего состояния и от предыдущих состояний.

Область значений случайных величин называется пространством состояний цепи, а номер  — номером шага.

Переходная матрица и однородные цепи

Матрица , где


называется матрицей переходных вероятностей на -м шаге, а вектор , где


начальным распределением цепи Маркова.

Очевидно, матрица переходных вероятностей является стохастической справа, то есть
.


Цепь Маркова называется однородной, если матрица переходных вероятностей не зависит от номера шага, то есть
.


В противном случае цепь Маркова называется неоднородной. В дальнейшем будем предполагать, что имеем дело с однородными цепями Маркова.

Конечномерные распределения и матрица перехода за n шагов

Из свойств условной вероятности и определения однородной цепи Маркова получаем:
,


откуда вытекает специальный случай уравнения Колмогорова — Чепмена:
,


то есть матрица переходных вероятностей за шагов однородной цепи Маркова есть -я степень матрицы переходных вероятностей за 1 шаг. Наконец,
.


Типы состояний

Примеры

Цепь Маркова с непрерывным временем

Определение

Семейство дискретных случайных величин называется цепью Маркова (с непрерывным временем), если
.


Цепь Маркова с непрерывным временем называется однородной, если
.


Матрица переходных функций и уравнение Колмогорова — Чепмена

Аналогично случаю дискретного времени, конечномерные распределения однородной цепи Маркова с непрерывным временем полностью определены начальным распределением


и матрицей переходных функций (переходных вероятностей)
.


Матрица переходных вероятностей удовлетворяет уравнению Колмогорова — Чепмена: или


Матрица интенсивностей и дифференциальные уравнения Колмогорова

По определению матрица интенсивностей , или, что эквивалентно,
.


Из уравнения Колмогорова — Чепмена следуют два уравнения:

Для обоих уравнений начальным условием выбирается . Соответствующее решение

Свойства матриц P и Q

Для любого матрица обладает следующими свойствами:
  1. Матричные элементы неотрицательны: (неотрицательность вероятностей).
  2. Сумма элементов в каждой строке равна 1: (полная вероятность), то есть матрица является стохастической справа (или по строкам).
  3. Все собственные числа матрицы не превосходят 1 по абсолютной величине: . Если , то .
  4. Собственному числу матрицы соответствует как минимум один неотрицательный левый собственный вектор-строка (равновесие): .
  5. Для собственного числа матрицы все корневые векторы являются собственными, то есть соответствующие жордановы клетки тривиальны.


Матрица обладает следующими свойствами:
  1. Внедиагональные матричные элементы неотрицательны: .
  2. Диагональные матричные элементы неположительны: .
  3. Сумма элементов в каждой строке равна 0:
  4. Действительная часть всех собственных чисел матрицы неположительна: . Если , то
  5. Собственному числу матрицы соответствует как минимум один неотрицательный левый собственный вектор-строка (равновесие):
  6. Для собственного числа матрицы все корневые векторы являются собственными, то есть соответствующие жордановы клетки тривиальны.


Граф переходов, связность и эргодические цепи Маркова

Для цепи Маркова с непрерывным временем строится ориентированный граф переходов (кратко — граф переходов) по следующим правилам:
  • Множество вершин графа совпадает со множеством состояний цепи.
  • Вершины соединяются ориентированным ребром , если (то есть интенсивность потока из -го состояния в -е положительна).


Топологические свойства графа переходов связаны со спектральными свойствами матрицы . В частности, для конечных цепей Маркова верны следующие теоремы:
  • Следующие три свойства А, Б, В конечной цепи Маркова эквивалентны (обладающие ими цепи иногда называют слабо эргодическими):
А. Для любых двух различных вершин графа переходов найдется такая вершина графа («общий сток»), что существуют ориентированные пути от вершины к вершине и от вершины к вершине . Замечание: возможен случай или ; в этом случае тривиальный (пустой) путь от к или от к также считается ориентированным путём.
Б. Нулевое собственное число матрицы невырождено.
В. При матрица стремится к матрице, у которой все строки совпадают (и совпадают, очевидно, с равновесным распределением).
  • Следующие пять свойств А, Б, В, Г, Д конечной цепи Маркова эквивалентны (обладающие ими цепи называют эргодическими):
А. Граф переходов цепи ориентированно связен.
Б. Нулевое собственное число матрицы невырождено и ему соответствует строго положительный левый собственный вектор (равновесное распределение).
В. Для некоторого матрица строго положительна (то есть для всех ).
Г. Для всех матрица строго положительна.
Д. При матрица стремится к строго положительной матрице, у которой все строки совпадают (и совпадают, очевидно, с равновесным распределением).


Примеры

Рассмотрим цепи Маркова с тремя состояниями и с непрерывным временем, соответствующие графам переходов, представленным на рис. В случае (a) отличны от нуля только следующие недиагональные элементы матрицы интенсивностей — , в случае (b) отличны от нуля только , а в случае (c) — . Остальные элементы определяются свойствами матрицы (сумма элементов в каждой строке равна 0). В результате для графов (a), (b), (c) матрицы интенсивностей имеют вид:

Основное кинетическое уравнение

Основное кинетическое уравнение описывает эволюцию распределения вероятностей в цепи Маркова с непрерывным временем. «Основное уравнение» здесь — не эпитет, а перевод термина англ. Master equation. Для вектора-строки распределения вероятностей основное кинетическое уравнение имеет вид:


и совпадает, по существу, с прямым уравнением Колмогорова. В физической литературе чаще используют векторы-столбцы вероятностей и записывают основное кинетическое уравнение в виде, который явно использует закон сохранения полной вероятности:


где

Если для основного кинетического уравнения существует положительное равновесие , то его можно записать в форме


Функции Ляпунова для основного кинетического уравнения

Для основного кинетического уравнения существует богатое семейство выпуклых функций Ляпунова — монотонно меняющихся со временем функций распределения вероятностей. Пусть  — выпуклая функция одного переменного. Для любого положительного распределения вероятностей () определим функцию Моримото :
.


Производная по времени, если удовлетворяет основному кинетическому уравнению, есть
.


Последнее неравенство справедливо из-за выпуклости .
  • , ;
эта функция — расстояние от текущего распределения вероятностей до равновесного в -норме. Сдвиг по времени является сжатием пространства вероятностных распределений в этой норме. (О свойствах сжатий см. статью Теорема Банаха о неподвижной точке.)
  • , ;
эта функция — (минус) энтропия Кульбака (см. Расстояние Кульбака — Лейблера). В физике она соответствует свободной энергии, деленной на (где  — постоянная Больцмана,  — абсолютная температура):
если (распределение Больцмана), то
.
  • , ;
эта функция — аналог свободной энергии для энтропии Бурга, широко используемой в обработке сигналов:
  • , ;
это квадратичное приближение для (минус) энтропии Кульбака вблизи точки равновесия. С точностью до постоянного во времени слагаемого эта функция совпадает с (минус) энтропией Фишера, которую даёт следующий выбор,
  • , ;
это (минус) энтропия Фишера.
  • , ;
это один из аналогов свободной энергии для энтропии Тсаллиса.
служит основой для статистической физики неэкстенсивных величин. При она стремится к классической энтропии Больцмана — Гиббса — Шеннона, а соответствующая функция Моримото — к (минус) энтропии Кульбака.


Практическое применение

Одной из первых научных дисциплин, в которой цепи Маркова нашли практическое применение, стала лингвистика (в частности текстология). Сам Марков для иллюстрации своих результатов исследовал зависимость в чередовании гласных и согласных в первых главах «Евгения Онегина» и «Детских годов Багрова-внука»[3].

Цепи Маркова используют для генерации текста[4], моделирования процессов смешивания сыпучих материалов[5], управленческом мониторинге[6], языковых моделях[7].

Примечания
  1. "Markov chain | Definition of Markov chain in US English by Oxford Dictionaries" (англ.). Oxford Dictionaries | English.. Lexico Dictionaries | English (14 декабря 2017). Дата обращения: 1 апреля 2020. Архивировано из оригинала 25 февраля 2021 года.
  2. Gagniuc, Paul A. Markov Chains: From Theory to Implementation and Experimentation (англ.). — USA, NJ: John Wiley & Sons, 2017. — P. 2—8. — ISBN 978-1-119-38755-8.
  3. Анатолий Ализар. Генерация фраз с 56-битной энтропией по цепям Маркова. Хакер. Хакер (журнал).
  4. Использование цепей Маркова для моделирования процесса смешивания - Современные наукоемкие технологии (научный журнал). top-technologies.ru. Дата обращения: 7 мая 2025.
  5. Рыжкова Т. В. Цепь Маркова, моделирующая изменения в клиентской базе // Вестник Российского экономического университета им. Г. В. Плеханова. — 2008. — Вып. 3. — С. 83–95. — ISSN 2413-2829.
  6. Проза нейросетей: как языковые модели научились говорить по-людски. Компьютерра (15 октября 2022). Дата обращения: 7 мая 2025.


Литература

Ссылки
Downgrade Counter