another week
This commit is contained in:
parent
867a5b8380
commit
bdaaace996
|
@ -690,4 +690,55 @@ $Q(a,x)=\frac{1}{l}\sum^l_{i=1}(a(x_i)-y_i)^2$
|
||||||
Метод опорных векторов
|
Метод опорных векторов
|
||||||
|
|
||||||
\section{Домашнее задание}
|
\section{Домашнее задание}
|
||||||
|
\section{Задания на РК}
|
||||||
|
В таблице показаны прогнозы, сделанные по двум регрессионным моделям. Для каждой модели рассчитайте сумму квадратов ошибки и оцените качество моделей.
|
||||||
|
\begin{table}[H]
|
||||||
|
\centering
|
||||||
|
\begin{tabular}{||r|c|c||}
|
||||||
|
\hline
|
||||||
|
f1 & f2 & fact \\ [0.5ex]
|
||||||
|
\hline\hline
|
||||||
|
2.623 & 2.664 & 2.691 \\
|
||||||
|
2.423 & 2.436 & 2.367 \\
|
||||||
|
2.423 & 2.399 & 2.412 \\
|
||||||
|
2.448 & 2.447 & 2.440 \\
|
||||||
|
2.762 & 2.847 & 2.693 \\
|
||||||
|
2.435 & 2.411 & 2.493 \\
|
||||||
|
2.519 & 2.516 & 2.598 \\
|
||||||
|
2.772 & 2.870 & 2.814 \\
|
||||||
|
2.601 & 2.586 & 2.583 \\
|
||||||
|
2.422 & 2.414 & 2.485 \\
|
||||||
|
\hline
|
||||||
|
\end{tabular}
|
||||||
|
\end{table}
|
||||||
|
\[MSE_1 = \frac{1}{N}\sum_{i=1}^N(f_i-f1_i)^2\]
|
||||||
|
|
||||||
|
\section{Решающие деревья, случайный лес}
|
||||||
|
Дерево -- это ациклический граф.
|
||||||
|
|
||||||
|
Решающие деревья -- это инструмент построения логических алгоритмов для решения задач классификации и регрессии. В отличие от линейных алгоритмов позволяет восстанавливать нелинейные зависимости произвольной сложности.
|
||||||
|
|
||||||
|
Алгоритм обучения, на вход которого поступает обучающая выборка $(X, Y) = (x_i,y_i)_{i=1}-1^l$, строит решающее дерево, которое представляет собой связный ациклический граф, включающий:
|
||||||
|
\begin{itemize}
|
||||||
|
\item набор вершин двух типов вершин: внутренних и листовых;
|
||||||
|
\item набор правил перехода из внутренних вершин в листовые и внутренние;
|
||||||
|
\item набор правил останова- прекращения обучения.
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
После окончания процесса обучения для каждого объекта $x \in (X,Y)$ определяется класс или вектор степени уверенности алгоритма в выборе каждого класса в случае решения задачи классификации;
|
||||||
|
|
||||||
|
\subsection{Параметры алгоритма обучения}
|
||||||
|
квадратные скобки -- это предикаты -- если да, идём налево в дереве, если нет -- направо.
|
||||||
|
|
||||||
|
\subsection{Энтропия}
|
||||||
|
Энтропия -- это уровень неопределённости относительно реализации случайной величины $H = -\sum_{i=1}^k p_i \log_2p_i$.
|
||||||
|
|
||||||
|
\subsection{Критерии качества разбиения}
|
||||||
|
\textbf{IG -- information gain}
|
||||||
|
|
||||||
|
Вместо IG можно рассматривать взвешенный энтропийный критерий, Критерий джини, критерий в задачах в регрессии.
|
||||||
|
|
||||||
|
\subsection{Листовые вершины}
|
||||||
|
В каждой листовой вершине дерево будет выдавать константу или вектор вероятностей.
|
||||||
|
|
||||||
\end{document}
|
\end{document}
|
|
@ -231,4 +231,121 @@ $\frac{\sin{X}}{X}$ -- первый замечательный предел
|
||||||
|
|
||||||
Чтобы понять порядок ЦФ -- нужно подать единичный импульс. После ЦАП также нельзя делать большой порядок, поэтому делаем интерполяцию.
|
Чтобы понять порядок ЦФ -- нужно подать единичный импульс. После ЦАП также нельзя делать большой порядок, поэтому делаем интерполяцию.
|
||||||
|
|
||||||
|
\section{Теорема Котельникова}
|
||||||
|
Криетрий ограниченности спектра сигнала. $x(t)$ - имеет ограниченный спектр частот, если его преобразование фурье равно нулю для всех $\omega$ больших чем $2\pi f_a$, где $f_a$ -- ширина спектра процесса
|
||||||
|
\[X(j\omega) = 0; |\omega| > 2\pi f_a\]
|
||||||
|
Каждый процесс с ограниченным спектром $X(t)$ может быть представлен в виде
|
||||||
|
\[X(t) = \sum_{k=-\infty}^\infty x(t_k) \frac{sin 2\pi f_a(t-t_k)}{2\pi f_a(t-t_k)}\]
|
||||||
|
где $t_k = \frac{k}{2f_a}$, $k=0, \pm1, \pm2, \pm3...$.
|
||||||
|
|
||||||
|
$\frac{sin 2\pi f_a(t-t_k)}{2\pi f_a(t-t_k)}$ -- импульсная характеристика идеального фильтра низких частот с прямоугольной АЧХ. То есть это указание о том, как именно восстанавливать сигнал -- пропустить через идеальный ФНЧ. Важно в теореме -- ширина спектра сигнала. а не максимальная частота.
|
||||||
|
|
||||||
|
(1)
|
||||||
|
|
||||||
|
Вводить для 8-битной системы мощные средства передискретизации -- избыточно.
|
||||||
|
|
||||||
|
Классический случай дискретизации -- когда исходный сигнал находится в первой зоне (рис2, рис4). Другие сигналы называются полосовые сигналы. Для полосового сигнала спектр окажется такой же
|
||||||
|
|
||||||
|
\subsection{Субдискретизация}
|
||||||
|
Субдискретизация -- (англ. under-sampling) дискретизация полезного сигнала, располагающегося вне основной полосы, т.е. лежащего в зоне с номером больше, чем 1 (полосовая дискретизация).
|
||||||
|
|
||||||
|
Орбита-ТМ М32
|
||||||
|
\begin{itemize}
|
||||||
|
\item $f_c \approx 219MHz$
|
||||||
|
\item $\Delta f = 6MHz$
|
||||||
|
\item $3MBps$
|
||||||
|
\item Фазовая манипуляция
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
Котельников в лоб -- дискретизация должна быть на 400+ МГЦ.
|
||||||
|
|
||||||
|
(2)
|
||||||
|
|
||||||
|
Применяя методику субдискретизации можно существенно уменьшить требования к параметрам приёмника. Но требования к АЦП остаются такими же.
|
||||||
|
|
||||||
|
(3)
|
||||||
|
Когда сигнал лежит в зоне нечётным номером -- это полный образ, если с чётным -- инверсия. В любом случае в интересующей полосе образ.
|
||||||
|
|
||||||
|
Фильтр для классической дискретизации -- это ФНЧ. для субдискретизации -- полосовой фильтр.
|
||||||
|
|
||||||
|
(4)
|
||||||
|
|
||||||
|
полосовой фильтру
|
||||||
|
полоса пропускания f1-f2
|
||||||
|
переходная полоса справа f2...2fs-f2 слева f1...fs-f1
|
||||||
|
полоса задержания <fs-f1 >2fs-f2
|
||||||
|
|
||||||
|
Если большой ДД -- нужен большой порядок фильтра. Снизить требование поможет также передискретизация -- плис -- цифровая фильтрация с прореживанием.
|
||||||
|
|
||||||
|
Методика расчёта чатоты дискретизации при субдискретизации (Как сделать, чтобы сигнал лежал строго в середине зоны)
|
||||||
|
|
||||||
|
$f_c$ -- центральная частота полосового сигнала, $f_s>2\Delta f$
|
||||||
|
|
||||||
|
\[f_s = \frac{4f_c}{2z-1}\]
|
||||||
|
|
||||||
|
$z$ -- номер зоны. Пусть ширина полосы = 4МГц, центральная частота 71МГц, по теореме К $f_s = 8$МГц. зона будет равна 18.25, зона не может быть дробным, округялем до ближайшего целого, снова подставляем в эту же формулу, частота дискретизации будет 8,1143МГц. Если хотим запас фильтрации больше -- фс=10МГц, подставляем в выражение - зона 14,7, округляем до 14, частота дискретизации = 10,519МГц.
|
||||||
|
|
||||||
|
\section{Квантование}
|
||||||
|
Дискретный сигнал -- это сигнал с конечным количеством отсчётов, но разрядность пока бесконечна, поэтому возможно применить разрядность АЦП. Передаточная характеристика идеального квантователя
|
||||||
|
|
||||||
|
(5)
|
||||||
|
|
||||||
|
явно теряем в точности.
|
||||||
|
|
||||||
|
Signal-Noise-Ratio
|
||||||
|
|
||||||
|
\[SNR = 6,02N + 1,76dB\]
|
||||||
|
|
||||||
|
N -- разрядность. Сигнал -- нестационарный процесс, имеет равномерное распределение от 0 до фс/2, не коррелирует со входным сигналом, матмодель - входной сигнал умножается на шум квантования.
|
||||||
|
|
||||||
|
Если аналоговая частота больше -- есть более общий вариант
|
||||||
|
|
||||||
|
\[SNR = 6,02N + 1,76dB +10\log_{10}(\frac{f_s}{2f_a})\]
|
||||||
|
|
||||||
|
Если частота дискретизации много больше - частота увеличилась, а разрядность не увеличитася, тогда шум уменьшается. Шум всегда будет коррелировать с сигналом, это можно использовать, подав собственный шум на низкой частоте.
|
||||||
|
|
||||||
|
\section{Характеристики АЦП}
|
||||||
|
|
||||||
|
(6)
|
||||||
|
память+пэвм -- способ проверить АЦП для своей системы.
|
||||||
|
|
||||||
|
Характеристики могут быть статические и динамические. Статические:
|
||||||
|
\begin{itemize}
|
||||||
|
\item Дифференциальная нелинейность DNL
|
||||||
|
\item Интегральная нелинейность INL
|
||||||
|
\item пропущенные коды missing code
|
||||||
|
\item ошибка усиления gain error
|
||||||
|
\item ошибка смещения offset error
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
(7) ПХ идеального АЦП, все центры кода лежат на прямой
|
||||||
|
(8) пример ПХ реального АЦП.
|
||||||
|
|
||||||
|
Дифференциальная нелинейность -- наибольшее отклонение ширины кода от идеального значения в МЗР или процентах от полной шкалы.
|
||||||
|
|
||||||
|
Интегральная нелинейность -- наихудшее отклонение центра кода от прямой, также измеряется в МЗР или процентах от полной шкалы.
|
||||||
|
|
||||||
|
Пропущенные коды формируется из первых двух. в примере 8 кода 011 не будет, в даташите будет написано no missing code если например (N=14) то на младших разрядах можем уже не видеть биты.
|
||||||
|
|
||||||
|
Эти ошибки невозможно исправить
|
||||||
|
|
||||||
|
Ошибка смещения - это аддитивная добавка напряжения на входе проценты от шкалы
|
||||||
|
|
||||||
|
ошибка усиления - угол начального наклона (мультипликативная ошибка)
|
||||||
|
|
||||||
|
Эти ошибки возможно исправить программно или внешними аналоговыми цепями.
|
||||||
|
|
||||||
|
Динамические характеристики
|
||||||
|
\begin{itemize}
|
||||||
|
\item Реальное отношение сигнал-шум ($SNR_{real}$)
|
||||||
|
для н-разрядного АЦП возможно посчитать теорию. Реальная характеристика точно будет отличаться.
|
||||||
|
N=8, SNR=49,7dB. реальный может быть 48,1 или 47,1 (первый лучше) зависит от частоты типовой график
|
||||||
|
(9)
|
||||||
|
обратный график - эффективное число бит
|
||||||
|
\[ENoB = \frac{SNR_{real} - 1,76dB}{6,02}\]
|
||||||
|
\item Коэффициент гармонических искажений Total Harmonic Distortion -- отражает качество и линейность кармоник. Чем меньше брать в расчёт гармоник - тем легче продать. $THD=\sqrt{\frac{A_2+A_3...}{A_1}}\%$.
|
||||||
|
\item сигнал шум и искажение (SINAD) типовая схема 4096 отсчётов. более качественный параметр.
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
|
||||||
\end{document}
|
\end{document}
|
||||||
|
|
|
@ -12,7 +12,7 @@
|
||||||
\fontsize{14}{18}\selectfont
|
\fontsize{14}{18}\selectfont
|
||||||
\maketitle
|
\maketitle
|
||||||
\tableofcontents
|
\tableofcontents
|
||||||
\newpage
|
|
||||||
\section{Введение}
|
\section{Введение}
|
||||||
DevOps -- стратегия разработки ПО, призванная устранить разрыв между разработчиками, и другими командами. Методология автомтизации технологических процессов сборки, настройки и развёртывания программного обеспечения. Методология предполагает активное взаимодействие специалистов по разработке со специалистами по информационно-технологическому обсулуживанию и взаимную интеграцию их технологических процессов друг в друга, для обеспечения высокого качества программного продукта.
|
DevOps -- стратегия разработки ПО, призванная устранить разрыв между разработчиками, и другими командами. Методология автомтизации технологических процессов сборки, настройки и развёртывания программного обеспечения. Методология предполагает активное взаимодействие специалистов по разработке со специалистами по информационно-технологическому обсулуживанию и взаимную интеграцию их технологических процессов друг в друга, для обеспечения высокого качества программного продукта.
|
||||||
|
|
||||||
|
@ -212,5 +212,82 @@ DevOps-инженер -- высококвалифицированный спец
|
||||||
|
|
||||||
Контейнер -- уже собранное, настроенное и запущенное на основе образа приложение в изолированное среде.
|
Контейнер -- уже собранное, настроенное и запущенное на основе образа приложение в изолированное среде.
|
||||||
|
|
||||||
|
\subsection{Принципы работы Docker-образов}
|
||||||
|
Образ -- это единица, используемая для распространения приложений. Контейнер --
|
||||||
|
|
||||||
|
ПО, упакованное в контейнер:
|
||||||
|
\begin{itemize}
|
||||||
|
\item код приложения
|
||||||
|
\item системные пакеты
|
||||||
|
\item двоичные файлы
|
||||||
|
\item библиотеки
|
||||||
|
\item файлы конфигурации
|
||||||
|
\item ОС, работающую в контейнере
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
Например, разрабатываем портал отслеживания заказов, который будут использоваться торговыми точками некоторой компании. Нам нужно рассмотреть полный стек ПО длоял выполнения этого веб-приложения. MVC .Net Core, и мы планируем развернуть его с помощью Nginx в качестве обратного прокси-сервера в Ubuntu Linux.
|
||||||
|
|
||||||
|
Образ контейнера -- это переносимый пакет, содержащий ПО. При запуске он становится контейнером. Образ неизменен, после сборки образа, невозможно внести в него изменения.
|
||||||
|
|
||||||
|
ОС узла -- это ОС в которой выполняется модуль Docker.
|
||||||
|
|
||||||
|
ОС контейнера -- это ОС, которая входит в упакованный образ. В контейнере можно включать различные версии ОС Linux/Windows.
|
||||||
|
|
||||||
|
ОС контейнера изолирована от ОС узла и представляет собой среду, в которой развёртывается и выполняется приложение. В сочетании с неизменностью образа...
|
||||||
|
|
||||||
|
Что такое стековая файловая система унификации (unionfs)
|
||||||
|
|
||||||
|
Мы создаём образ для описанного веб-приложения. Расположим дистрибутив Ubuntu как базовый образ поверх файловой системы загрузки. Далее устанавливаем Nginx, который таким образом будет поверх Ubuntu.
|
||||||
|
|
||||||
|
Dockerfile -- это текстовый файл с инструкциями
|
||||||
|
\begin{itemize}
|
||||||
|
\item В файле определяется базовый и родительский образ, используемый для создания образа
|
||||||
|
\item команды для обновления базаоай ОС
|
||||||
|
\item ...
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
Базовый образ использует Docker scratch -- пустой образ, использующий ОС хоста.
|
||||||
|
Родительский образ -- предустановленная ОС или другая основа.
|
||||||
|
|
||||||
|
Оба типа образов...
|
||||||
|
|
||||||
|
Образы -- это файлы большого размера...
|
||||||
|
|
||||||
|
\subsection{Управление контейнерами}
|
||||||
|
Контейнер имеет ЖЦ, которым можно управлять и отслеживать состояние контейнера.
|
||||||
|
|
||||||
|
\begin{itemize}
|
||||||
|
\item создание
|
||||||
|
\item работа
|
||||||
|
\item приостановка
|
||||||
|
\item возобновление работы
|
||||||
|
\item запуск
|
||||||
|
\item остановка
|
||||||
|
\item перезапуск
|
||||||
|
\item принудительная остановка
|
||||||
|
\item удаление
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
|
\subsection{Работа с данными в Docker}
|
||||||
|
При планировании хранения данных контейнерным приложением необходимо помнить, что все данные из остановленных контейнеров уничтожаются.
|
||||||
|
|
||||||
|
Есть два основных способа обмена данными с контейнером -- тома (volume).
|
||||||
|
|
||||||
|
Контейнеры могут быть подключены...
|
||||||
|
|
||||||
|
Например, внутри контейнера по пути лежит файл индекс.хтмл.
|
||||||
|
|
||||||
|
Для монтирования данных используются следующие параметры: --вольюм и --маунт
|
||||||
|
|
||||||
|
Их различие в том, что маунт более явно заставляет указывать источник монтирования папки.
|
||||||
|
|
||||||
|
\subsection{Работа с сетью в Docker}
|
||||||
|
Конфигурация сети по умолчанию обеспечивает изоляцию контейнеров. Это позволяет..
|
||||||
|
|
||||||
|
Сеть типа мост -- конф по умолчанию к контейнерам при запуске, если иное не указано при запуске. Эта сеть является внутренней частной сетью, используемой контейнером. Она изолирует сеть узла от сети контейнера.
|
||||||
|
|
||||||
|
По умолчанию Docker не публикует порты контейнеров. Для включения сопоставления портов контейнеров и портов узла Docker используется флаг -п
|
||||||
|
|
||||||
|
Узел позволяет запускать непосредственно в сети узла.
|
||||||
|
|
||||||
\end{document}
|
\end{document}
|
||||||
|
|
|
@ -327,15 +327,15 @@ Cov(Y_t, Y_{t+\tau}) = E[(Y_T - EY_t)(Y_{t+\tau}-EY_{t+\tau})] = \gamma(\tau) =
|
||||||
где $\sum_{j=0}^\infty \beta_j < \infty, E(\xi_t) = 0; E(Y_t) = \mu; Var(\xi_t)=\sigma^2; cov(\xi_i, \xi_j) = 0 \iff i \neq j$.
|
где $\sum_{j=0}^\infty \beta_j < \infty, E(\xi_t) = 0; E(Y_t) = \mu; Var(\xi_t)=\sigma^2; cov(\xi_i, \xi_j) = 0 \iff i \neq j$.
|
||||||
|
|
||||||
Если в разложении Вольда случайного процесса присутствует только конечное число членов, то такой процесс называется моделью скользящего среднего (MA(q), moving average).
|
Если в разложении Вольда случайного процесса присутствует только конечное число членов, то такой процесс называется моделью скользящего среднего (MA(q), moving average).
|
||||||
\[Y_t - \mu = \sum_{j=0}^\q \beta_j\xi_{t-j} \]
|
\[Y_t - \mu = \sum_{j=0}^q \beta_j\xi_{t-j} \]
|
||||||
|
|
||||||
Различные формы представления МА
|
Различные формы представления МА
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item исходный ряд $Y_1, ..., Y_t, ...$
|
\item исходный ряд $Y_1, ..., Y_t, ...$
|
||||||
\item центрированный процесс $y_t = Y_t - \mu$
|
\item центрированный процесс $y_t = Y_t - \mu$
|
||||||
\item $MA(q)$ центрированного процесса $y_t = \sum_{j=0}^\q \beta_j\xi_{t-j}$
|
\item $MA(q)$ центрированного процесса $y_t = \sum_{j=0}^q \beta_j\xi_{t-j}$
|
||||||
\item с использованием оператора сдвига $y_t = B(L)\xi_t$
|
\item с использованием оператора сдвига $y_t = B(L)\xi_t$
|
||||||
\[ y_t = \sum_{j=0}^\q(\beta_jL^j)\xi_{t} = (1 + \beta_1L + \beta_2L^2 + ... + \beta_qL^q) \xi_t\]
|
\[ y_t = \sum_{j=0}^q(\beta_jL^j)\xi_{t} = (1 + \beta_1L + \beta_2L^2 + ... + \beta_qL^q) \xi_t\]
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Обратимый процесс -- это процесс, при котором существует такой оператор, при котором сумма операндов равна единице. Для бесконечных процессов условие обратимости находить очень сложно.
|
Обратимый процесс -- это процесс, при котором существует такой оператор, при котором сумма операндов равна единице. Для бесконечных процессов условие обратимости находить очень сложно.
|
||||||
|
@ -449,6 +449,73 @@ $ARIMA(p, d, q);$ Если ряд -- стационарный, то строим
|
||||||
\end{gathered}
|
\end{gathered}
|
||||||
\end{equation*}
|
\end{equation*}
|
||||||
|
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
y_t = = \alpha_1y_{t-1}+\alpha_2y_{t-2}+...+\alpha_py_{t-p}+\xi_t\\
|
||||||
|
cov(y_t, y_{t-1}) = cov(\alpha_1y_{t-1}+\alpha_2y_{t-2}+...+\alpha_py_{t-p})\\
|
||||||
|
\gamma(1) = \alpha_1\gamma(0)+\alpha_2\gamma(1) + ... + \alpha_p\gamma(p-1)\\
|
||||||
|
\rho(1) = \alpha_1\rho(0) + ... + \alpha_p\rho(p-1)\\
|
||||||
|
\rho(2) = \alpha_1\rho(0) + \alpha_2\rho(2) + ... + \alpha_p\rho(p-2)\\
|
||||||
|
\rho(p) = \alpha\rho(p-1) + \alpha_2\rho(p-2)...\alpha_p\rho(0)\\
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
Частный коэффициент автокорреляции определяет меру корреляционной связи между значениями элементами $y_t$ и $y_{t+k}$ за вычетом той части, которая определена промежуточными значениями. (то есть как будут связаны т и т-н элементы, если выкинуть все промежуточные).
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
\rho_{part}(2) = \frac{cov(y_{t-2} - \alpha_1y_{t-1}, y_t)}{\gamma(0)}
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
|
||||||
|
Свойства уравнения Юла-Уокера.
|
||||||
|
|
||||||
|
Построение авторегрессионной модели временного ряда по выборке методом Юла-Уокера.
|
||||||
|
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
\rho(0) = 1, \rho(1) = 0,8, \rho(2) = 0,6\\
|
||||||
|
\rho(1) = \alpha_1 + \alpha_2\rho(1)\\
|
||||||
|
\rho(2) = \alpha_1\rho(1) + \alpha_2\rho(0)\\
|
||||||
|
\alpha_1=?, \alpha_2=?\\
|
||||||
|
cov(y_t, y_{t-1}) = 0,8\\
|
||||||
|
cov(y_t, y_{t-2}) = 0,7\\
|
||||||
|
var(y_t)=0,9\\
|
||||||
|
\alpha_1=?, \alpha_2=?, \sigma^2=?
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
|
||||||
|
\subsection{Авторегрессия скользящего среднего}
|
||||||
|
|
||||||
|
Уравнение процесса
|
||||||
|
\[ y_t = \alpha_1y_{t-1} + \xi_t + \beta_1\xi_{t-1} \]
|
||||||
|
|
||||||
|
Условие стационарности $|\alpha_1| < 1$. пишем характеристическое уравнение
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
(1-\alpha_1L)y_t = (1+\beta_1L)\xi_t, \xi_t\simN(0, \sigma^2)\\
|
||||||
|
1-\alpha_1K=0\\
|
||||||
|
k=\frac{1}{\alpha_1}\\
|
||||||
|
|k| = |\frac{1}{\alpha_1}| > 1, \alpha_1 < 1.
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
|
||||||
|
Условие стационарности $|\beta_1| < 1$.
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
(1+\beta_1L) = 0\\
|
||||||
|
K=\frac{1}{\beta_1}\\
|
||||||
|
|K| = |\frac{1}{\beta_1} > 1, |\beta_1|<1
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
y_t = \alpha_1y_{t-1} = \xi_t+\beta_1\xi_{t-1}\\
|
||||||
|
(1-\alpha_1L)y_t = (1+\beta_1L)\xi_t\\
|
||||||
|
\frac{1}{1+\beta_1L} = (1+\beta L)^{-1}\\
|
||||||
|
(1 + \beta_1L)^{-1}(1-\alpha L)\\
|
||||||
|
\frac{1}{1+\beta_1L} = 1 - \beta_1L+\beta_1^2L^2 - ...
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
\appendix
|
\appendix
|
||||||
|
|
|
@ -258,7 +258,92 @@ d -- стереобаза (расстояние между двумя камер
|
||||||
|
|
||||||
Для определения объекта далее берутся характерные точки и признаки на одном изображении и ищутся на другом изображении.
|
Для определения объекта далее берутся характерные точки и признаки на одном изображении и ищутся на другом изображении.
|
||||||
|
|
||||||
|
\section{Вопросы к РК}
|
||||||
|
\begin{enumerate}
|
||||||
|
\item Этапы работы с изображениями
|
||||||
|
\item Характеристики камеры
|
||||||
|
\item Метод пропорции
|
||||||
|
\item Стереозрение
|
||||||
|
\item Pinhole-камера
|
||||||
|
\item Гомография
|
||||||
|
\item Учёт искажения линз (дисторсии)
|
||||||
|
\item Метод определения расстояния до объекта, анализа размытия изображения
|
||||||
|
\begin{itemize}
|
||||||
|
\item из-за расфокусировки
|
||||||
|
\item из-за движения камеры или объекта
|
||||||
|
\end{itemize}
|
||||||
|
\item Методы оценки размытия:
|
||||||
|
\begin{itemize}
|
||||||
|
\item Elder-Zucker,
|
||||||
|
\item Hu-Haan,
|
||||||
|
\item Akimov-Vatolin
|
||||||
|
\end{itemize}
|
||||||
|
\end{enumerate}
|
||||||
|
|
||||||
\section{Анализ размытия изображения}
|
\section{Анализ размытия изображения}
|
||||||
|
Зная точку фокусировки возможно определить, на каком расстоянии находится объект. Получается, не нужна стереопара.
|
||||||
|
(1)
|
||||||
|
$\sigma$ -- пиксели, размытие, $r$ -- расстояние, метры.
|
||||||
|
|
||||||
|
В отмеченных областях не можем мерить этим методом -- чувствительность метода будет невысокая (расстояние меняется незначительно, а размытие значительно, или наоборот). Возможно менять точку фокусировки. Есть неоднозначность -- одно и тоже размытие возможно на разных расстояниях. Но из-за разницы отношений возможно изменить расстояние до камеры и понять, к какой точки ближе.
|
||||||
|
|
||||||
|
(2)
|
||||||
|
|
||||||
|
плоскость фокусировки -- это место, где объект чёткий.
|
||||||
|
$D_{o}$ -- расстояние до объекта
|
||||||
|
$D_{f}$ -- расстояние от объектива до сфокусированного изображения
|
||||||
|
$D_{r}$ -- расстояние до размытого
|
||||||
|
|
||||||
|
\begin{equation*}
|
||||||
|
\begin{gathered}
|
||||||
|
\frac{1}{f} = \frac{1}{D_o} + \frac{1}{D_f} \\
|
||||||
|
\sigma = \frac{B D_r-D_f}{d_f}; D_r = D_f\pm\frac{D_f*\sigma}{B}
|
||||||
|
\end{gathered}
|
||||||
|
\end{equation*}
|
||||||
|
цель найти $D_o$.
|
||||||
|
Если объект в точке фокусировки $D_f = d_r, \sigma=0$. $D_f = \frac{f D_o}{d_o - f}$ и это не расстояние до объекта, а расстояние до сфокусированного объекта $D_{of}$.
|
||||||
|
|
||||||
|
\[D_o = \frac{B D_{of} f}{(B+\sigma)f - \sigma D_{of}}\]
|
||||||
|
|
||||||
|
Размытие зависит не только от расстояния, но и из-за других факторов, таких как качество изображения, света, свойств объекта и цветов. Разница размытий в разных цветах $F$ -- фокусное расстояние.
|
||||||
|
\[D_o = \frac{\sigma_r F_r F_g}{\sigma_rF_r+(F_g-F_r)B}\]
|
||||||
|
|
||||||
|
Размытие от движения. Формула будет как в стереозрении, но только не две камеры, а одна камера в разные моменты времени
|
||||||
|
|
||||||
|
(3)
|
||||||
|
$f$ -- фокусное расстояние, $m$ - расстояние движения камеры, $d$ -- расстояние до объекта
|
||||||
|
|
||||||
|
\[ \sigma = \frac{fm}{d}; d = \frac{fm}{\sigma} \]
|
||||||
|
|
||||||
|
Размытие будет зависеть от угла движения и других факторов, которые должны попадать в формулу. Формулы отдельные и для расфокусировки и для движения объекта. Все размытия нужно перевести из пикселей в метры
|
||||||
|
\[\sigma = \sigma_{pix}S_x\]
|
||||||
|
$S_x$ -- размер одного пикселя светочувствительной матрицы -- известная характеристика ($6,7*10^{-6}$).
|
||||||
|
|
||||||
|
\subsection{Оценка размытия}
|
||||||
|
Как автоматизировать расчёт размытия?
|
||||||
|
\begin{itemize}
|
||||||
|
\item Метод Elder-Zucker. Есть изображение, берём размытый объект.
|
||||||
|
(4)
|
||||||
|
1 перед размытым -- более чёткий, чем 2. в данном случае удобнее взять координату $y$. Берём изображение и преобразовываем в сигнал.
|
||||||
|
(5) изменение расстояния относительно изменения интенсивности пикселя.
|
||||||
|
|
||||||
|
Необходимо найти границы перехода и его центр. Предлагается найти первую производную ($b'(x)$ -- зависимость изменения интенсивности от координаты). Вторая производная ($b''(x) = 0$, $c$ -- центр размытия). Третья производная -- находим точки перехода (перепада) $b'''(x)$. Для каждого вычисления нужно выставить пороги, при которых мы точку считаем нулём.
|
||||||
|
|
||||||
|
\item Метод Hu-Haan. Аналогично есть изображение и рассматриваем сигнал, зависящий от одной координаты.
|
||||||
|
(6)
|
||||||
|
|
||||||
|
Взяли исходный сигнал и добавили дополнительное размытие с известным коэффициентом $\sigma_a$. Получаем сигнал. Взяли исходный сигнал и добавили дополнительное размытие с известным коэффициентом $\sigma_b$. Получаем сигнал. Находим разницу между переразмытыми сигналами ($ba(x - bb(x))$) разницу между исходным и первично размытым. Находим отношение
|
||||||
|
\[ratio(x) = \frac{b(x) - ba(x)}{ba(x) - bb(x)}\]
|
||||||
|
Если отношение маленькое - размытие исходного близко к $ba$. Если отношение максимальное - изначальное изображение близко к максимальному. Строим график и определяем $r_{max}$.
|
||||||
|
\[\sigma \approx \frac{\sigma_a\sigma_b}{(\sigma_b - \sibma_a)r_{max}(x) + \sigma_b}\]
|
||||||
|
\item Метод Акимова-Ватолина-Смирнова. Представляет собой совокупность двух предыдущих. Получаем сигнал от одной координаты.
|
||||||
|
(7) идеальный случай, размытия нет, резкий переход.
|
||||||
|
Если размытие есть (предполагаем что размытие подвержено гауссову закону распределения)
|
||||||
|
\[i(x) = f(x) \otimes g(x, \sigma) \]
|
||||||
|
и тогда переход - это и есть размытие. Что сделать, чтобы найти сигма-размытие -- переразмываем один раз и получаем известное $\sigma_1 \Rightarrow i_1(x)$ находим первую производную для обоих изображений. Берём отношение производных и получаем некоторый график
|
||||||
|
(8)
|
||||||
|
и по нему можем определить точки, где график будет около нуля и расстояние между ними это и будет размытие.
|
||||||
|
\end{itemize}
|
||||||
|
|
||||||
\end{document}
|
\end{document}
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue