\item Ряды со стохастическим трендом и их модели: ARIMA, SARIMA.
\item Модели с условной гетероскедастичностью: ARCH, GARCH (модели для прогнозирования волатильности доходности финансовых активов).
\item Сингулярный спектральный анализ (SSA).
\item Локальная аппроксимация (LA).
\item Алгоритмы обнаружения изменений свойств временных рядов.
\end{enumerate}
\subsection{Модель случайности}
Вероятностное пространство включает следующие элементы: $\{\Omega, F, P \}$, где $\Omega=\{\omega_1, \omega_2, ... \}$ -- пространство элементарных событий, множество(конечное или счетное); $F$ -- $\sigma$ -алгебра событий -- структура на множестве событий $\Omega$; P -- вероятность -- мера, определенная на F.
$\sigma$ -алгебра F - набор подмножеств (подмножеств событий), который
\begin{enumerate}
\item содержит достоверное событие: $\Omega\subset F$.
\item вместе с любым событием $A \subset F$ содержит и противоположное к нему: если $A \subset F$, то $\overline{A}\subset F$.
\item вместе с любыми событиями $A_1, A_2, ... A_n, ...$ система F содержит их объединение -- если $A_1, A_2, ... A_n \subset F, то \cup_{i=1}^{\infty} A_i \subset F$.
\end{enumerate}
(сигма-алгебра позволяет включить бесконечное число множеств.)
Мера -- это неотрицательная $\sigma$-аддитивная функция множеств, всегда положительная если пространство дискретно.
Пусть: $\Omega$ -- некоторое множество, и F -- $\sigma$-алгебра его подмножеств. Функция $\mu: F \to R \cup+\infty$ называется мерой на $\{\Omega, F \}$ если она удовлетворяет условиям:
\begin{itemize}
\item для любого множества $A \in F$его мера неотрицательна: $\mu(A)\gg0$;
\item для любого счётного набора попарно непересекающихся множеств
$A_1, A_2, A_3, ... \in F$ (т.е. такого, что $A_i \cap A_j =\oslash$ при всех $i \neq j$) мера их объединения равна сумме их мер:
(другими словами) $\Omega$ - это множество всех возможных значений. $F$ -- это вероятность получения определённого сочетания. например, бросаем кубик и за два броска выпало $\{1, 2\}$. какая вероятность?
\[\frac{6!}{2!*4!}=15, \]
то есть 1/15. Или, например есть температура, которая может изменяться равномерно в интервале $10^\circ-15^\circ$. тогда её вероятность $P < 7,5=1/2$
\subsection{Определение вероятности}
Функция распределения представляет собой вероятность того, что случайная величина $\xi$ будет меньше ...\footnote{неразборчиво}. Неубывающая, всегда либо растёт, либо постоянна. непрерывна слева (значит справа необязательно определена).
Вероятностью называется числовая функция P, определенная на $\sigma$-алгебре $F$со значениями в $R, (P: F \to R)$ и удовлетворяющая следующей системе аксиом:
\begin{enumerate}
\item$0\ll P(A)\ll1, \forall A \in F$;
\item Для любого счётного набора попарно несовместных событий $A_1, A_2, A_3, ... \in F$ выполняется равенство $(\cup_{i=1}^{\infty} A_i)=\sum_{i=1}^{\infty} P(A_i)$.
\item$P\{\Omega\}=1$
\end{enumerate}
Случайная величина представляет собой измеримое отображение вероятностного пространства $\{\Omega, F, P \}$ в измеримое пространство $\{ R, F(R), P_X \}$ на числовой прямой.
Пусть $\Omega=\{\omega_1, \omega_2, ..., \omega_n, ...\}$. Если случайная величина может принимать не более чем счетное число значений, то она называется дискретной, если конечное число значений, то простой:
\subsection{Непрерывная случайная величина, функция распределения случайной величины}
Непрерывная случайная величина имеет плотность (справедливо только для абсолютно непрерывных).
Случайная величина может принимать не только дискретные значения, но и
любые значения из некоторого конечного или бесконечного интервала: $(a, b), [\infty, b], ...$. Такая величина называется \textbf{непрерывной случайной величиной}.
Соответствие между значениями случайной величины и вероятностями, с которыми она их принимает, называют \textbf{законом распределения случайной величины}. Для дискретной случайной величины этот закон задается простым перечислением вероятностей каждого ее значения.
\textbf{Функцией распределения случайной величины}$\xi$ называется функция $F_X(x)$, при каждом $x$ равная вероятности того, что случайная величина $X$ принимает значения, меньшие, чем $x$:
\[ F_X(x)= P(X < x)\]
\subsection{Абсолютно непрерывная функция распределения}
Функция распределения $F_X(x)$ называется абсолютно непрерывной, если существует такая функция $p_X(x)$, что
\[ F_X(b)- F_X(a)=\int_a^b p_X(x) dx \]
называется плотностью распределения случайной величины X.
оба графика это нормальное распределение. у синего среднее $0$у красного среднее $-1$. сигма это разброс относительно среднего. важно, что площадь одинаковая. распределение зарактеризуется двумя параметрами -- среднее и дисперсия. у красной
\item\textbf{Правило трёх сигм} -- если отклонение случайной величины меньше трёх сигм (стандартных отклонений) мы считаем что вероятность пренебрежимо мала.
\item Если $x\sim N(a,\sigma^2)$, то $P(|\xi- a| < 3\sigma)\approx0,997$
Во временных рядах каждое следующее значение в момент $t$ зависит от предыдущего в момент $t-1$. Например, изменение температуры или цен. Если эта зависимость существует, то существует связь, мера этой связи называется ковариацией. ковариация величины с самой собой это дисперсия.
Две случайные величины $X$ и $Y$ называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина.
Рассмотрим класс динамических объектов поведение которых может быть описано последовательностью наблюдений, полученных в дискретные моменты времени. Значения наблюдений в момент времени $t$ зависят
\begin{enumerate}
\item от значений, зарегистрированных в предыдущие моменты времени,
\item от совокупного воздействия множества случайных факторов.
\end{enumerate}
Полученную последовательность случайных величин, мы будем называть временным рядом.
\item могут быть описаны одномерными или многомерными временными рядами
\item образующие временной ряд последовательности случайных величин не являются независимыми. наблюдаемое значение в момент времени $t$ зависит от значений, зарегистрированных в предыдущие моменты времени
\item закон распределения может изменяться от числа наблюдаемых временных отсчётов и момента наблюдения $k$.
\begin{frm} Временной ряд представляет собой последовательность наблюдений, выполняемых в фиксированные промежутки времени. Предполагается, что временной ряд образует последовательность случайных величин, которая является случайным процессом. \end{frm}
Ряд называется стационарным в широком смысле (или слабостационарным), если его дисперсия и матожидание существуют и не зависят от времени, а автокорреляционная функция зависит только от величины сдвига.
Функции распределения Гауссова процесса любого порядка определяются вектором математических ожиданий и ковариационной матрицей. Следовательно из слабой стационарности следует строгая стационарность.
Гауссовский белый шум. Модель процесса
\[ Y_t =\xi_t, \xi_t = N(0, \sigma^2)\]
Свойства процесса
\begin{equation*}
\begin{gathered}
EY_t = 0, Var Y_t = \sigma^2\\
\gamma_j = \rho_j = 0 \iff j \neq 0
\end{gathered}
\end{equation*}
Обозначение $\xi_t\sim WN(0, \sigma^2)$
\subsection{Основные определения}
\begin{itemize}
\item Ковариации и корреляции между элементами $y_t$ и $y{t+\tau}$ процесса называются автоковариациями и автокорреляциями.
\item Последовательность автокорреляций называется автокорреляционной функцией процесса.
\item График автокорреляционной функции называется кореллограммой.
Если в разложении Вольда случайного процесса присутствует только конечное число членов, то такой процесс называется моделью скользящего среднего (MA(q), moving average).
Обратимый процесс -- это процесс, при котором существует такой оператор, при котором сумма операндов равна единице. Для бесконечных процессов условие обратимости находить очень сложно.
Процесс $y_t=\xi_t+\beta_1\xi_{t-1}+\beta_2\xi_{t-2}+...+\beta_q\xi_{t-q}=B(L)\xi_t$ обратим, если для него существует представление $A(L)y_t=\xi_t$ такое, что $A(L)* B(L)=1$.
Можем для процесса построить характеристическое уравнение (взять коэффициенты и приравнять нулю). Если корни характеристического уравнения по модулю больше 1, то процесс обратим.
Для того, чтобы процесс авторегрессии был стационарным необходимо, чтобы корни характеристического уравнения $A(z)=1-\alpha_1\lambda-\alpha_2\lambda^2-...-\alpha_k\lambda^k =0$ были по модулю больше единицы
Основной инструмент для выбора границ порядков -- автокорреляционная и частная автокорреляционная функция временного ряда. Если в авторегрессии для значения члена то в модели скользящего среднего не может быть больше двух членов.
Частный коэффициент автокорреляции определяет меру корреляционной связи между значениями элементами $y_t$ и $y_{t+k}$ за вычетом той части, которая определена промежуточными значениями. (то есть как будут связаны т и т-н элементы, если выкинуть все промежуточные).
\section{Многомерные параметрические модели временных рядов}
Какие ряды следует включать в модель? Включаются только те, которые являются «причинными по Грейнджеру». Факторы должны иметь тот же порядок интеграции. То есть если изъятие информации о факторе меняет условное матожидание ряда.
H_0 \delta_1 = 0 \text{не может быть отвергнута}\\
\end{cases}
$$
Если вероятность ошибиться меньше 0,05 -- принимаем гипотезу.
\subsection{Ложная регрессия}
\subsection{Коинтеграция}
Если наблюдаемые ряды принадлежат к классы DS процессов, то при определённых условиях между ними может существовать связь, проявляющаяся в том, что для них существует стационарная линейная комбинация.
Есть процесс, есть модель. Надо проверить, соответствует ли какое-то следующее значение модели.
\begin{equation*}
\begin{gathered}
H_0: \alpha\neq 0;\\
H_1: \alpha = 0;\\
y_t = \alpha; y_{t+1} + \xi
\end{gathered}
\end{equation*}
Нам машина посчитала альфу, но на реальной выборке не получится посчитать 0. значение отклонения делим на дисперсию и получаем p-value, если оно $\geq0,05$ нулевая гипотеза неверна. то есть это уровень доверия. Если выборка маленькая - можно взять больший коэффициент.
Стационарный процесс. Чтобы его проверить нужно построить автокорреляционную функцию
видно, что первые три значения (лаги) отличаются (нулевой равен единице, это белый шум, там н е может быть корелляций), а все последующие незначительно отличаются от нуля. Получим одну из моделей \hrf{eq:arima-models} котороые возможно считать по АРИМА с нужными параметрами. По автокорреляции мы видим, какие варианты моделей возможны. для каждой модели строим распечатки и делаем диагностику.
Проверка стационарности процесса. Размер выборки должен быть треть от числа лагов. корреляционная и автокорреляционная функция участвуют в выборе правильной модели. по АКФ мы видим, что может быть самое больше -- два лага.
Вычислили на обучающей выборке, затем вычисляем на контрольной выборке. По автокорреляции мы считаем не порядок авторегрессии, а порядок скользящего среднего. А для того чтобы примерно прикинуть порядок p -- нужно вычислить частный коэффициент автокорреляции.
влияние игреков уменьшается чем дальше мы отходим от $\alpha_0$. частный коэффициент показывает влияние предыдущих значений на последующие.
Криетрий Акаике
\begin{equation*}
\begin{gathered}
AIC = \tilde{\sigma}^2 + \frac{r}{N};\\
SIC = \tilde{\sigma}^2 + \frac{r\ln r}{N};
\end{gathered}
\end{equation*}
r = число параметров модели, N - объём выборки. добавляет штраф за переобучение. Шваарц более сильно штрфует, Хеннана-куина штрафует ещё сильнее. Нужно выбрать лучшую модель по критерию Акаике.
Люнг-Бокс говорит о том, насколько мы ошибёмся, если отвергнем нулевую гипотезу (остатки не коррелированы). Если остатки коррелированы - модель плохая, мы не смоделировали зависимость. Критерий гетероскедастичности -- если остатки неоднородны лучше не брать такую модель.
Для того, чтобы определить, является ли процесс обратимым, необходимо проверить, существует ли такая последовательность коэффициентов $\{\psi_i \}$, что процесс можно представить в виде:
$$
X_t = \sum_{i=1}^{\infty}\psi_i \varepsilon_{t-i}
$$
где $\varepsilon_t$ - белый шум.
Для процесса с заданной автокорреляционной функцией $\rho_1=0.5$ и $\rho_k =0, k \geq2$ можно найти автоковариационную функцию:
Так как $\rho_k =0$ для $k \geq2$, то $\gamma_k =0$ для $k \geq3$. Также, $\gamma_1=\rho_1=0.5$ и $\gamma_2=\rho_1\rho_1+\rho_2\rho_0=0.5$. Таким образом, автоковариационная функция для данного процесса равна:
$$
\gamma_k =
\begin{cases}
0.5 & k = 1 \\
0.5 & k = 2 \\
0 & k \geq 3
\end{cases}
$$
Для того, чтобы процесс был обратимым, необходимо, чтобы $\gamma_k > 0$ для всех $k \geq1$. В данном случае, $\gamma_3=0$, что означает, что процесс не является обратимым.
Да, возможно проверить обратимость процесса с заданной автокорреляционной функцией $\rho_1=0.5$ и $\rho_k =0, k \geq2$с помощью теоремы Вольда.
Теорема Вольда утверждает, что стационарный процесс обратим тогда и только тогда, когда его спектральная плотность имеет нули только на одной точке.
Спектральная плотность для процесса с заданной автокорреляционной функцией может быть найдена с помощью преобразования Фурье. В данном случае, автокорреляционная функция имеет вид:
$$
\rho_1 = 0.5; \quad\rho_k = 0, k \geq 2
$$
С учетом свойства симметричности автокорреляционной функции, получаем:
В данном случае, $f(\lambda)=\rho_0+\rho_1 e^{-i \lambda}=1+0.5 e^{-i \lambda}$.
Спектральная плотность имеет нули тогда и только тогда, когда ее модуль равен нулю. Модуль спектральной плотности $|f(\lambda)| =\sqrt{1+0.5^2- e^{-i \lambda}}$ не равен нулю ни в одной точке, следовательно, процесс является обратимым по теореме Вольда.
Теорема Вольда утверждает, что стационарный процесс обратим тогда и только тогда, когда его спектральная плотность имеет нули только на одной точке.
Чтобы проверить, имеет ли спектральная плотность нули, необходимо решить уравнение:
$$
f(\lambda) = 1 + 0.5 e^{-i \lambda} = 0
$$
Умножим обе части на $e^{i \lambda}$:
$$
e^{i \lambda} + 0.5 = 0
$$
Отсюда получаем:
$$
e^{i \lambda} = -0.5
$$
Решение этого уравнения может быть найдено с помощью формулы Эйлера:
$$
e^{i \lambda} = \cos\lambda + i \sin\lambda
$$
Следовательно,
$$
\cos\lambda + i \sin\lambda = -0.5
$$
Отсюда можно найти значение $\lambda$:
$$
\lambda = \pi + 2n \pi, \quad n \in\mathbb{Z}
$$
Заметим, что полученное значение $\lambda$ соответствует нулю спектральной плотности только в одной точке. Следовательно, процесс является обратимым по теореме Вольда.
\subsection{1}
Чтобы найти прогноз на 1 и 2 шага вперед, нам нужно сначала представить модель процесса в виде линейного уравнения с лагами (ARMA) и затем использовать найденные значения для расчета прогноза.
Модель имеет вид:
$$(1-0,3L)y_t =0,2+(1-0,4L^2)\xi_t$$
Преобразуем уравнение, чтобы получить значение $y_t$:
$$y_t =(0,3L)y_t +0,2+\xi_t -0,4L^2\xi_t$$
Теперь у нас есть линейное уравнение с лагами:
$$y_t =0,3y_{t-1}+0,2+\xi_t -0,4\xi_{t-2}$$
Теперь мы можем использовать это уравнение для прогнозирования на шаг вперед (t + 1) и на два шага вперед (t + 2).
Прогноз на 1 шаг вперед (t + 1):
$$y_{t+1|t}=0,3y_{t}+0,2+\xi_{t+1}-0,4\xi_{t-1}$$
Поскольку мы не знаем значения ошибок, мы предполагаем, что ожидаемое значение ошибки равно нулю ($E[\xi_t]=0$):
Итак, прогноз на 1 шаг вперед равен $0,3y_{t}+0,2$, а прогноз на 2 шага вперед равен $0,09y_{t}+0,26$. Значения $y_t$ должны быть известны или предварительно рассчитаны для получения числовых прогнозов