added transition matrix stuff

This commit is contained in:
toni
2017-04-24 18:23:04 +02:00
parent 078d3b4562
commit d2665a369c
3 changed files with 53 additions and 20 deletions

View File

@@ -2,6 +2,6 @@
Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts.
Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was. Noch nichts. Hier kommt aber bald was.
Noch nichts. Hier kommt aber bald was.Noch nichts. Hier kommt aber bald was.Noch nichts. Hier kommt
\commentByToni{TODO: Namen von Methoden gross oder klein? \\ Normalisierungsfaktoren dazu schreiben, oder langt Bemerkung im Text?}
\end{abstract}
%\begin{IEEEkeywords} indoor positioning, Monte Carlo smoothing, particle smoothing, sequential Monte Carlo\end{IEEEkeywords}

View File

@@ -1,5 +1,5 @@
\section{Experiments}
viel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhaltaviel blabla für platzhalta

View File

@@ -1,8 +1,6 @@
\section{IMMPF and Mixing}
\label{sec:immpf}
\commentByToni{TODO: Namen von Methoden gross oder klein? \\ Normalisierungsfaktoren dazu schreiben, oder langt Bemerkung im Text?}
In the previous section we have introduced a standard particle filter, an evaluation step and two different transition models.
Using this, we are able to implement two different localisation schemes.
One providing a high diversity with a robust, but uncertain position estimation.
@@ -76,8 +74,8 @@ In context of particle filtering, this means that \eqref{equ:immpModeMixing} ena
Further, the number of particles in each mode can be selected independently of the actual mode probabilities.
Algorithm \ref{alg:immpf} shows the complete IMMPF procedure in detail.
As prior knowledge, $M$ initial probabilities $P(m_1 \mid \mObsVec_{1})$ and initial distributions $p(\mStateVec_{1} \mid m_1, \mObsVec_{1})$ each providing a particle set $\{W^i_{1}, \vec{X}^i_{1} \}_{i=1}^N$ are available.
As prior knowledge, $M$ initial probabilities $P(m_1 \mid \mObsVec_{1})$ and initial distributions $p(\mStateVec_{1} \mid m_1, \mObsVec_{1})$ providing a particle set $\{W^i_{1}, \vec{X}^i_{1} \}_{i=1}^N$ are available.
The mixing step requires that the independent running filtering process are all finished.
\begin{algorithm}[t]
\caption{IMMPF Algorithm}
@@ -95,36 +93,71 @@ As prior knowledge, $M$ initial probabilities $P(m_1 \mid \mObsVec_{1})$ and ini
\Statex{~}
\Statex \textbf{Run:} Parallel filtering for each $m_t \in M$ \Comment{Filtering}
\For{$i = 0$ \textbf{to} $N_{m_t}$}
\State Sample $\vec{X}_t^{i,m_t} \sim p(\vec{X}_t^{i,m_t} \mid \vec{X}_{t-1}^{i,m_t})$\Comment{Transition}
\State Sample $\vec{X}_t^{i,m_t} \sim p(\vec{X}_t^{i,m_t} \mid \vec{X}_{t-1}^{i,m_t}, \mObsVec_{t-1})$\Comment{Transition}
\State Compute $W^{i,m_t}_t \propto p(\vec{o}_t \mid \vec{X}_{t}^{i, m_t})$ \Comment{Evaluation}
\EndFor
\State Calculate $\lambda_t^{m_t} = \sum_{i=1}^{N_{m_t}} W^{i, m_t}_t$
\State Normalise $W^{i,m_t}_t$ using $\lambda_t^{m_t}$
\State Calculate $\omega_t^{m_t} = \sum_{i=1}^{N_{m_t}} W^{i, m_t}_t$
\State Normalise $W^{i,m_t}_t$ using $\omega_t^{m_t}$
\State Resample $\{W_{t}^{i,m_t}, \vec{X}_{t}^{i,m_t} \}$ to obtain $N_{m_t}$ new equally-weighted particles $\{\frac{1}{N_{m_t}}, \overline{\vec{X}}_{t}^{i,m_t} \}$
\vspace{0.1cm}
\State Estimate $P(m_t \mid \mObsVec_{1:t}) = \frac{\lambda_t^{m_t} P(m_t \mid \mObsVec_{1:t-1})}{\sum_{m=1}^M \lambda_t^{m_t} P(m_t \mid \mObsVec_{1:t-1})}$
\State Estimate $P(m_t \mid \mObsVec_{1:t}) = \frac{\omega_t^{m_t} P(m_t \mid \mObsVec_{1:t-1})}{\sum_{m=1}^M \omega_t^{m_t} P(m_t \mid \mObsVec_{1:t-1})}$
\end{algorithmic}
\end{algorithm}
%grundidee warum die matrix so gewählt wird.
With the above, we are finally able to combine the two filters described in section \ref{}.
The basic idea is that if the more restrictive filter
With the above, we are finally able to combine the two filters described in section \ref{sec:rse}.
The basic idea of our approach is to utilize the restrictive filter as the dominant one, providing the state estimation for the localisation.
Due to its robustness and good diversity the other, more permissive one, is then used as support for possible sample impoverishment.
If we recognize that the dominant filter gets stuck or loses track, particles from the supporting filter will be picked with a higher probability while mixing the new particle set for the dominant filter.
grundidee der restrictive filter soll aufgrund seiner hohen genauigkeit die state estimation machen. der andere filter dient als support, wenn der genaurer in sample impoverishment läuft. da seine transition sehr robust ist und eine hohe diversity hat. d.h. wenn festgestellt wird, da der genauere filter stecken bleibt sollen partikel aus dem robusten gezogen werden, um somit ein sample impoversichemnt zu verhinden.
dafür kld nehmen...
%kld
This is achieved by measuring the Kullback-Leibler divergence $D_{\text{KL}}(P \|Q)$ between both filtering posterior distributions $p(\mStateVec_{t} \mid m_t, \mObsVec_{1:t})$.
The Kullback-Leibler divergence is a non-symmetric non-negative difference between two probability distributions $Q$ and $P$.
It is also stated as the amount of information lost when $Q$ is used to approximate $P$ \cite{Sun2013}.
We set $D_{\text{KL}} = D_{\text{KL}}(P \|Q)$, while $P$ is the dominant and $Q$ the supporting filter.
Since the supporting filter is more robust and ignores all environmental restrictions, we are able to make a statement whether state estimation is stuck due to sample impoverishment or not by looking at the positive exponential distribution
%
\begin{equation}
f(D_{\text{KL}}, \lambda) = e^{-\lambda D_{\text{KL}}}
\label{equ:KLD}
\end{equation}
%
If $D_{\text{KL}}$ increases to a certain point, \eqref{equ:KLD} provides a probability that allows for mixing the particle sets.
$\lambda$ depends highly on the respective filter models and is therefore chosen heuristically.
In most cases $\lambda$ tends to be somewhere between $0.01$ and $0.10$.
aber:
es ist offensichlich, das das nur so lange funktioniert, wie wie wi-fi messungen stabil sind, da der robuste filter komplett abhängig davon ist und sprünge durch das wifi zulässt
heißt, schlechtes (attenuation) wi-fi für zu einer hohen kld und somit liefert der robuste filter komplett miese ergebnisse. um das zu verhinden soll nicht nur der gute filter vom robusten ziehen können, sonder nauch umgekehrt und zwar in abhängigkeit zu aktuellen wifi qualität. ist die qualität schlecht, dann ziehe partikel aus dem guten filter, da die restrictive transition und der pdr ansatz zusätzliches wissen schaffen. die qualität wird über ein das heuristische maß blabal gemssen.
All this can be utilized by a non-trivial markov blaa. The Markov transition matrix at time $t$ is then given by
However, it is obvious that \eqref{equ:KLD} only works reliable if the measurement noises are within reasonable limits, because the support filter depends solely on them.
Especially Wi-Fi serves as the main source for estimation and thus attenuated or bad Wi-Fi readings are causing $D_{\text{KL}}$ to grow, even if the dominant filter provides a good position estimation.
In such scenarios a lower diversity and higher focus of the particle set, as given by the dominant filter, is required.
We achieves this by introducing a Wi-Fi quality factor, allowing the support filter to pick particles from the dominant filter and prevent the later from doing it vice versa.
The quality factor $ $ is defined by
%
\begin{equation}
d
\enspace ,
\label{equ:immpWifiQuality}
\end{equation}
%
where..
To incorporate all this within the IMMPF, we utilize a non-trivial Markov switching process.
This is done by updating the Markov transition matrix $\Pi_t$ at every time step $t$.
As reminder, $\Pi_t$ highly influences the mixing process in \eqref{equ:immpModeMixing2}.
Considering the above presented measures, $\Pi_t$ is two-dimensional and given by
%
\begin{equation}
\Pi_t =
\begin{pmatrix}
f(D_{\text{KL}}, \lambda) & 1 - f(D_{\text{KL}}, \lambda) \\
0 & \sigma_{\text{move}}\\
\end{pmatrix}
\enspace ,
\label{equ:immpMatrix}
\end{equation}
%
This matrix is the centrepiece of our approach.
It is responsible for controlling and satisfying the need of diversity and the need of focus for the whole localization approach.
Therefore, recovering from sample impoverishment or degeneracy depends to a large extent on $\Pi_t$.