본문 바로가기

Time Series Analaysis/Time Series Analysis

Linear Gaussian State Space Model


본 글에서는 State Space Model 중 Gaussian State Space Model에 대해 살펴보고자 합니다.

 

[참고자료]


1. State Space Model(SSM)

상태 공간 모형(State Space Model)은 시계열 데이터 모형으로 크게 상태 방정식(state equation)관측 방정식(observation equation)으로 이루어집니다. 

[Figure 1] State Space Model

▶ 상태 방정식(state equation)

  • $x_t$:  state process(hidden or latent process)로 관측되지 않는 데이터(""unobserved data"")입니다.
  • $x_t$에 대한 가정: Markov Process 

Markov Process과거와 현재 상태가 주어졌을 때의 미래 상태의 조건부 확률 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정된다는 것을 의미합니다. 즉, $t+1$ 시점은 오직 $t$ 시점에만 의존합니다(dependent).

$$P(x_{t+1}|x_t, x_{t-1}, \cdots, x_0) = P(x_{t+1}|x_t)$$

 

따라서, $x_t$에 대한 모형 설정으로 AR(1) 모형 혹은 ARMA(1,1) 모형 등을 생각할 수 있다.

본 글에서는 ARMAX(1,1) 모형으로 설정하겠습니다.

※ 시계열 통계 모형 참고자료(AR, MA, ARMA, ARMAX)

$$x_t = \Phi x_{t-1} + \gamma u_t + w_t$$

 

▶ 관측 방정식(observation equation)

$$y_t = A_t x_t  + \Gamma u_t + v_t$$

$y_t$는 우리가 실제로 관측한 데이터입니다.
우리는 state vector $x_t \in \mathbb{R}^p$에 대해서 직접적으로 관측할 수는 없지만,
observation vector $y_t \in \mathbb{R}^q$를 통해 간접적으로 관측할 수 있습니다. 

 

▶ State Space Model의 목표

State Space Model의 목표는 observation vector $y_{1:s} = \{y_1,y_2, \cdots, y_s\}$를 기반으로 $x_t$를 추정하는 것입니다.

  • $s<t$
  • $s=t$
  • $s>t$
A primary aim of state space model, would be to produce estimators for the underlying unobserved signal $x_t$, given the data $y_{1:s} = \{y_1, \cdots, y_n\}$(⇒ observed data)

 

Noise vector $w_t$와 $v_t$가 정규분포(Normal distribution)을 따르는 경우,
우리는 Gaussian State Space Model이라고 지칭합니다.


2. Gaussian State Space Model(GSSM)

▶ 상태 방정식(state equation)

$$x_t = \Phi x_{t-1} + \gamma u_t + w_t \in \mathbb{R}^p \tag{1}$$

  • $w_t \stackrel{iid}{\sim} \mathbf{\color{darkred}{N_p(0, Q)}} \in \mathbb{R}^p, \, Q \in \mathbb{R}^{p \times p}$
  • $u_t \in \mathbb{R}^p$: fixed input, exogenous variables(파생변수)
  • $x_0 \sim \mathbf{\color{darkred}{N_p(\mu_0, \Sigma_0)}}$

정규분포의 성질에 의해 $x_t, \, t \in \{1,2,\cdots T\}$는 모두 정규분포를 따릅니다.

 

▶ 관측 방정식(observation equation)

$$y_t = A_t x_t  + \Gamma u_t + v_t \in \mathbb{R}^q \tag{2}$$

  • $A_t  \in \mathbb{R}^{q \times p}$: measurement or observation matrix
  • $v_t \stackrel{iid}{\sim} \mathbf{\color{darkred}{N_q(0, R)}} \in \mathbb{R}^{q}, \, R \in \mathbb{R}^{q \times q}$

마찬가지로 정규분포의 성질에 의해 $y_t, \, t \in \{1,2,\cdots, T\}$도 정규분포를 따릅니다.

 

▶ Assumption

  • $x_{0}, \, \{w_t\}, \{v_t\}$는 모두 독립이다.
    • 이 가정은 필수는 아닙니다.

▶ Estimation of parameter $\theta$

현재 우리가 추정해야 하는 파라미터는 $\theta = (\Phi, \gamma, A_t, \Gamma, Q,\Sigma_0, R)$입니다.

파라미터 추정 방법으로 Expectation Maximize(EM) 알고리즘과 Markov Chain Monte Carlo(MCMC) 방법이 존재합니다.

현재 모수 $\theta$ 추정까지 완료된 상태에서
State Space Model의 목적인 $y_{1:s} = \{y_1,y_2,\cdots,y_s\}$가 주어졌을 때 $x_t$를 추정하는 방법에 대해 살펴보고자 합니다.

 

▶ Filtering v.s. Smoothing v.s. Forecasting

인덱스 $s$와 $t$에 따른 다음 3가지의 문제를 정의하고자 합니다.

  1. $s<t$인 경우: forecasting or prediction
  2. $s=t$인 경우: filtering 
  3. $s>t$인 경우: smoothing

즉, $P(x_{t+1}|y_{1:t})$는 prediction  distribution, $P(x_{t+1}|y_{t+1})$는 filtered distribution, $P(x_{t+1}|y_{1:T})$는 smoothed distribution이라고 지칭하겠습니다.

 

또한, 우리는 식 $(1)$과 식 $(2)$에서 정규분포를 가정했기 때문에 prediction distribution, filtered distribution, smoothed distribution 모두 정규분포를 따릅니다.

  • $x_{t+1}|y_{1:t} \sim N$
  • $x_{t+1}|y_{t+1} \sim N$
  • $x_{t+1}|y_{1:T} \sim N$

▶ Kalman Filter v.s Smoothing

[1]. Kalman Filter

이전 관측치 $y_{1:t}$를 사용하지 않고,
새로운 데이터 $y_{t+1}$가 주어졌을 때, filter distribution $P(x_{t}|y_{t})$을 $P(x_{t+1}|y_{t+1})$로 업데이트 할 때 Kalman Filter 방법론을 사용합니다.

→ $x_{t+1}|y_{t+1}$가 정규분포를 따르는 것은 알고 있으며 정규분포의 모수인 평균분산을 Kalman Filter를 통해 구하고자 하는 것

 

[2]. (Rausch - Tung - Streinbel, RTS) Smoothing

$P(x_{t+1}|y_{1:T})$가 주어졌을 때, $P(x_{t}|y_{1:T})$를 예측할 때 Smoothing 방법론을 사용합니다.

즉, 이전 hidden state에 대해 예측하는 것입니다.

→ $x_{t+1}|y_{1:T}$의 평균과 분산을 구하고자 하는 것

 

먼저, Kalman Filter에 대해 알아보겠습니다.


2.1 Kalman Filter

▶Define problem

$$ \text{Calculate distribution of } x_{t+1}|y_{t+1} $$

$$x_{t+1}|y_{t+1} \sim N(?,?)$$

 

▶Kalman Filter의 구성요소

Kalman Filter는 크게 두 단계로 이루어져 있습니다.

  • "Time Update"
  • "Measurement Upate"

2.1.1 Time Update

▶ Purpose

마지막으로 업데이트 된 filtered distribution $P(x_t|y_{1:t})$가 주어졌을 때,

prediction distribution $P(x_{t+1}|y_{1:t})$을 계산하는 것이 Time Update의 목적입니다.

 

▶ Notation

$xt|y_{1:s}$에 대한 기댓값과 공분산을 다음과 같이 명시하겠습니다.

$$\hat{x}_{t|s} = E(x_t|y_{1:s}) \tag{a}$$

$$\begin{align*}
P_{t1,t2|s} &= E[(x_{t1|s} - \hat{x}_{t1|s})(x_{t2|s} - \hat{x}_{t2|s})|y_{1:s}] \\ &= E[(x_{t1|s} - \hat{x}_{t1|s})(x_{t2} - \hat{x}_{t2|s}) | y_{1:s}]\end{align*} \tag{b}$$

 

▶ Compute mean of $x_{t+1}|y_{1:t}$

$$\begin{align*}
\mathbf{\color{darkred}{\hat{x}_{t+1|t}}} &= E[x_{t+1}|y_{1:t}] \\ &= E[\Phi x_t + \gamma u_t + w_t] (\because (1))\\ &= E[\Phi x_t|y_{1:t}] + E[\gamma u_t |y_{1:t}] + E[w_t|y_{1:t}] \\ &= \mathbf{\color{darkred}{\Phi \hat{x}_{t|t} + \gamma u_t}} \end{align*}$$

  • $\hat{x}_{t|t} = E[x_t|y_{1:t}]$
  • $u_t$는 고정된 값이므로, $E[\gamma u_t|y_{1:t}] = \gamma u_t$
  • $w_t \perp y_{1:t} \to E[w_t|y_{1:t}] = E[w_t] = 0$

▶ Compute covariance of $x_{t+1}|y_{1:t}$

$$\begin{align*}
\mathbf{\color{darkred}{P_{t+1|t}}}= Var(x_{t+1}|y_{1:t}) &= Var(\Phi x_t + \gamma u_t + w_t|y_{1:t}) \\ &= Var[\Phi x_t|y_{1:t}] + Var[w_t|y_{1:t}] \\ &= \Phi Var[x_t|y_{1:t}]\Phi^T + Q
\\ &= \mathbf{\color{darkred}{\Phi P_{t|t} \Phi^T + Q}}
\end{align*}$$

  • $P_{t|t} =  Var[x_t|y_{1:t}]$
  • $x_t \perp w_t \to Cov(x_t, w_t |y_{1:t})=0$
  • $w_t \perp y_{1:t} \to Var(w_t | y_{1:t}) = Var(w_t)  = Q$

▶ Distribution of $x_{t+1}|y_{1:t}$

$$x_{t+1}|y_{1:t} \sim N(\hat{x}_{t+1}|t, P_{t+1|t})$$

  • $\hat{x}_{t+1} = \Phi \hat{x}_{t|t} + \gamma u_t$
  • $P_{t+1|t} = \Phi P_{t|t} \Phi^T + Q$

2.1.2 Measurement Update

▶ Purpose

마지막으로 업데이트 된 prediction distribution $P(x_{t+1}|y_{1:t})$가 주어졌을 때,

filtered distribution $P(x_{t+1}|y_{t+1})$을 계산하는 것이 Measurement Update의 목적입니다.

 

▶ Step

Measurement Update는 크게 2단계로 이루어집니다.

  • calculate joint distribution of $y_{t+1},x_{t+1}|y_{1:t}$
  • calculate conditional distribution of $x_{t+1}|y_{t+1}$

First step: calculate the joint distribution of $y_{t+1}, x_{t+1}|y_{1:t}$

우리가 계산해야 하는 값은 다음과 같습니다.

  • $E[y_{t+1}|y_{1:t}]$, $Cov(y_{t+1}, y_{t+1}|y_{1:t})$ → unknown value
  • $E[x_{t+1}|y_{1:t}] = \hat{x}_{t+1|t}$, $Cov(x_{t+1}, x_{t+1}|y_{1:t}) = P_{t+1|t}$ → known value(Time Update에서 구한 값)
  • $Cov(y_{t+1},x_{t+1}|y_{1:t})$  → unknown value

[1]. calculate the $E[y_{t+1}|y_{1:t}]$, $Cov(y_{t+1}, y_{t+1}|y_{1:t})$

$$\begin{align*}
\mathbf{\color{darkred}{\hat{y}_{t+1|t}}} &= E[y_{t+1}|y_{1:t}] \\ &=  E[A_{t+1}x_{t+1} + \Gamma u_{t+1} + v_{t+1} |y_{1:t}] \\ &= A_{t+1} E[x_{t+1}|y_{1:t}] + \Gamma u_{t+1}  \\ &= \mathbf{\color{darkred}{A_{t+1} \hat{x}_{t+1|t} + \Gamma u_{t+1}}}
\end{align*}
$$

 

$$
\begin{align*}
\mathbf{\color{darkred}{Cov(y_{t+1}, y_{t+1}|y_{1:t})}} &= E[(y_{t+1} - \hat{y}_{t+1|t})(y_{t+1} - \hat{y}_{t+1|t})^T|y_{1:t}] \\ &=E[(A_{t+1}x_{t+1} + v_{t+1} - A_{t+1}\hat{x}_{t+1|t})(A_{t+1}x_{t+1} + v_{t+1} - A_{t+1}\hat{x}_{t+1|t})^T | y_{1:t}] \\ &=  E[(A_{t+1}x_{t+1}-A_{t+1}\hat{x}_{t+1|t})(A_{t+1}x_{t+1}-A_{t+1}\hat{x}_{t+1|t})^T|y_{1:t}] + E[v_{t+1} v_{t+1} | y_{1:t}] \\ &= \mathbf{\color{darkred}{A^T_{t+1} P_{t+1|t} A^T_{t+1} + R}} \end{align*}
$$

[2]. calcualte the $Cov(y_{t+1},x_{t+1}|y_{1:t})$

$$
\begin{align*}
\mathbf{\color{darkred}{Cov(y_{t+1}, x_{t+1}|y_{1:t})}} &= E[(y_{t+1}-\hat{y}_{t+1|t})(x_{t+1} - \hat{x}_{t+1|t})|y_{1:t}] \\ &= E[(A_{t+1}x_{t+1} + v_{t+1} - A_{t+1}\hat{x}_{t+1|t})(x_{t+1} - \hat{x}_{t+1|t})^T|y_{1:t}] \\ &= A_{t+1} E[(x_{t+1} - \hat{x}_{t+1|t})(x_{t+1} - \hat{x}_{t+1|t})^T | y_{1:t}] \\ &= \mathbf{\color{darkred}{A_{t+1}P_{t+1|t}}}
\end{align*}
$$

 

[3]. calculate joint distribution

$$
\begin{bmatrix}
x_{t+1} \\
y_{t+1}
\end{bmatrix} 
\sim N\begin{pmatrix}
\begin{bmatrix}
\hat{x}_{t+1|t} \\ 
 A_{t+1} \hat{x}_{t+1|t} + \Gamma u_{t+1}
\end{bmatrix}, 

\begin{bmatrix}
\Phi P_{t|t} \Phi^T + Q & P_{t+1|t} A_{t+1}^T \\ 
A_{t+1} P_{t+1|t} & A^T_t P_{t+1|t} A^T_t + R 
\end{bmatrix}
  \end{pmatrix} \tag{3}
$$

 

Second step: calculate the conditional distribution of $x_{t+1}|y_{t+1}$

정규분포의 결합 분포(joint distribution)에서 조건부 분포(conditional distribution)로 변환하는 공식을 이용합니다.

※ 다변수 정규분포 참고자료 → 식 (8.6.22)와 식 (8.6.25) 참고 

 

[1]. conditional mean of $x_{t+1}|y_{t+1}$

$$
E[x_{t+1}|y_{t+1}] = \hat{x}_{t+1|t} + P_{t+1|t}A^T_{t+1}(A^T_t P_{t+1|t} A^T_t + R )^{-1}(y_{t+1} -  A_{t+1} \hat{x}_{t+1|t} + \Gamma u_{t+1})
$$

 

[2]. conditional covariance of $x_{t+1}|y_{t+1}$

$$
Cov(x_{t+1},x_{t+1}|y_{t+1})= \Phi P_{t+1|t} \Phi^T + Q - P_{t+1|t} A_{t+1}^T(A^T_t P_{t+1|t} A^T_t + R )^{-1}A_{t+1} P_{t+1|t}
$$

 

[3]. conditional distribution

$$
x_{t+1}|y_{t+1} \sim N(\hat{x}_{t+1|t+1}, P_{t+1|t+1})\tag{4}
$$

  • $\hat{x}_{t+1|t+1} = \hat{x}_{t+1|t} + P_{t+1|t}A^T_{t+1}(A^T_t P_{t+1|t} A^T_t + R )^{-1}(y_{t+1} -  A_{t+1} \hat{x}_{t+1|t} + \Gamma u_{t+1})$
  • $P_{t+1|t+1} = \Phi P_{t+1|t} \Phi^T + Q - P_{t+1|t} A_{t+1}^T(A^T_t P_{t+1|t} A^T_t + R )^{-1}A_{t+1} P_{t+1|t}$

 

우리가 Kalman filter를 통해 최종적으로 구하고자 했던 $x_{t+1}|y_{t+1}$의 분포를 구하였습니다.


▶ Algorithms of Kalman Filter

Kalman Filter의 알고리즘을 요약하면 다음과 같습니다.

🔶 Algorithm of Kalmann Filter
1. Initialize with $\hat{x}_{0|-1} = \mu_0, P_{0|-1} = \Sigma_0$
2. Time update
$$
\hat{x}_{t+1|t} = \Phi \hat{x}_{t|t} + \gamma u_t 
$$
$$
P_{t+1|t} = \Phi P_{t|t} \Phi^T + Q 
$$
3. Measurement Update
    
    $$
    E[x_{t+1}|y_{t+1}] = \hat{x}_{t+1|t} + P_{t+1|t}A^T_{t+1}(A^T_t P_{t+1|t} A^T_t + R )^{-1}(y_{t+1} -  A_{t+1} \hat{x}_{t+1|t} + \Gamma u_{t+1})
    $$
    
    $$
    Cov(x_{t+1},x_{t+1}|y_{t+1})= \Phi P_{t+1|t} \Phi^T + Q - P_{t+1|t} A_{t+1}^T(A^T_t P_{t+1|t} A^T_t + R )^{-1}A_{t+1} P_{t+1|t}
    $$

 

[참고]

🔶 Kalman Gain Matrix

$$K_{t+1} = P_{t+1|t}A^T_{t+1}(A^T_t P_{t+1|t} A^T_t + R )^{-1}$$

$K_{t+1}$을 Kalman Gain Matrix라고 불리우며 Sherman-Morrison-Woodbury 이론에 따라서 다음과 같이 $K_{t+1}$을 표현할 수 있습니다.

$$
K_{t+1} = (P^{-1}_{t+1|t} + A^T_{t+1}RA_{t+1})^{-1} A^T_{t+1} R^{-1}
$$

 


2.2 (Rausch - Tung - Streibel) Smoothing

▶Define problem

$$ \text{Given, } x_{t+1}|y_{1:T}, \text{calculate distribution of } x_{t}|y_{1:T} , \, t<T$$

$$x_{t}|y_{1:T} \sim N(?,?)$$

 

▶Two property

(a). $x_t \perp y_{t+1|T} |x_{t+1}$
(b). (a)번의 성질에 의해, $p(x_t|x_{t+1},y_{1:T}) = p(x_t|x_{t+1},y_{1:t})$이 성립합니다.

 

Calculate distribution of $x_t|y_{1:T}$

크게 3단계로 이루어집니다.

  • calculate the joint distribution of $x_{t}, x_{t+1}|y_{1:t}( = x_{t}, x_{t+1}|y_{1:T})$
  • calcualte the conditional distribution of $x_t|x_{t+1},y_{1:t}(= x_t|x_{t+1},y_{1:T})$
  • calculate the $x_t|y_{1:T}$ using below two property
    • (Tower property) $E[Z|X] = E[E[Z|Y,X]|X] \tag{5}$
    • (Law of Total Conditional Variance) $Cov[Z|X] = Cov[E[Z|Y,X]|X] + E[Cov[Z|Y,X]|X] \tag{6}$

 First step: calculate the joint distribution of $x_{t}, x_{t+1}|y_{1:t}( = x_{t}, x_{t+1}|y_{1:T})$

우리가 계산해야 하는 값은 다음과 같습니다.

  • $E[x_t|y_{1:t}] = \hat{x}_{t|t} , Cov(x_t,x_t|y_{1:t}) = P_{t|t}$ → known value($\because \text{definition of   } (a), (b)$)
  • $E[x_t+1|y_{1:t}] = \hat{x}_{t+1|t},  Cov(x_{t+1},x_{t+1}|y_{1:t}) = P_{t+1|t}$ → known value
  • $Cov(x_t,x_{t+1}|y_{1:t})$ → unknown value

[1]. Calculate the $Cov(x_t,x_{t+1}|y_{1:t})$

$$\begin{align*}
\mathbf{\color{darkred}{Cov(x_t,x_{t+1}|y_{1:t})}} &= E[(x_t - \hat{x}_{t|t})(x_{t+1} - \hat{x}_{t+1|t})^T|y_{1:t}] \\ &= E[(x_t - \hat{x}_{t|t})(\Phi x_t + w_t - \Phi \hat{x}_{t|t})^T|y_{1:t}] \\ &= \mathbf{\color{darkred}{P_{t|t}\Phi^T}}
\end{align*}$$

 

[2]. Calculate joint distribution

$$x_{t},x_{t+1}|y_t \sim N(\begin{bmatrix} \hat{x}_{t|t} \\ \hat{x}_{t+1|t} \end{bmatrix}, \begin{bmatrix} P_{t|t} & P_{t|t} \Phi^T \\ \Phi P_{t|t} & P_{t+1|t}\end{bmatrix})$$

 

 Second step: calculate the conditional distribution of $x_t|x_{t+1},y_{1:t}(= x_t|x_{t+1},y_{1:T})$

[1]. calculate the conditional mean $x_t|x_{t+1},y_{1:t}$

$$E(x_t|x_{t+1},y_{1:T}) = E(x_t|x_{t+1},y_{1:t}) = \hat{x}_{t|t} + L_t(x_{t+1} - \hat{x}_{t+1|t})$$

  • $L_t = P_{t|t}\Phi^TP^{-1}_{t+1|t}$

[2]. calculate the conditional covariance $x_t|x_{t+1},y_{1:t}$

$$Cov(x_t|x_{t+1},y_{1:T}) = Cov(x_t|x_{t+1},y_{1:t}) = P_{t|t} - L_tP_{t+1|t}L_t^T$$

 

[3]. calculate conditional distribution

$$x_t|x_{t+1},y_{1:t} \sim N(\hat{x}_{t|t} + L_t(x_{t+1} - \hat{x}_{t+1|t}), P_{t|t} - L_tP_{t+1|t}L_t^T)$$

 

Third step: calculate the conditional distribution of $ x_t|y_{1:T} $

  • "Tower property"(식 $(5)$)와 " Law of Total Conditional Variance "(식 $(6)$)을 이용하여 조건부 평균과 조건부 공분산을 구합니다.

[1]. calculate the conditional mean $x_t|y_{1:T}$

$$\begin{align*}
\mathbf{\color{darkred}{\hat{x}_{t|T}}} &= E[x_t|y_{1:T}] \\ &= E[E[x_t|x_{t+1}, y_{1:T}]|y_{1:T}] \\ &= E[\hat{x}_{t|t} + L_t(x_{t+1} - \hat{x}_{t+1|t})|y_{1:T}] \\ &= \mathbf{\color{darkred}{\hat{x}_{t|t} + L_t(\hat{x}_{t+1|T} - \hat{x}_{t+1|t})}}
\end{align*}$$

 

[2]. calculate the conditional covariance $x_t|y_{1:T}$

$$\begin{align*} 
\mathbf{\color{darkred}{P_{t|T}}} &= Cov[x_t|y_{1:T}] \\ &= Cov(E[x_t|x_{t+1}, y_{1:T}]|y_{1:T}) + E[Cov[x_t|x_{t+1},y_{1:T}]|y_{1:T}] \\ &= Cov[\hat{x}_{t|t} + L_t(x_{t+1} - \hat{x}_{t+1|t})|y_{1:T}] + E[P_{t|t} - L_tP_{t+1|t}L
^T_{t}|y_{1:T}] \\ &= L_tP_{t+1|t}L^T_t + P_{t|t} - L_tP_{t+1|t}L^T_t \\ &= \mathbf{\color{darkred}{P_{t|t} + L_t(P_{t+1|T} - P_{t+1|t})L^T_t}}
\end{align*}$$

 

[3].conditional distribution

$$x_t|y_{1:T} \sim N(\hat{x}_{t|T}, P_{t|T})$$

  • $\hat{x}_{t|T} =\hat{x}_{t|t} + L_t(\hat{x}_{t+1|T} - \hat{x}_{t+1|t}) $
  • $P_{t|T}=P_{t|t} + L_t(P_{t+1|T} - P_{t+1|t})L^T_t$

Algorithm of (Rausch - Tung - Streibel) Smoothing

 (Rausch - Tung - Streibel) Smoothing의 알고리즘을 요약하면 다음과 같습니다.

🔶 Algorithm of (Rausch - Tung - Streibel) Smoothing

[1]. 먼저, Kalman Filter를 통해 filtered와 one-step prediciton quantities인 $\hat{z}_{t|t},\,\hat{z}_{t+1|t}, P_{t|t}, P_{t+1|t}$을 얻습니다($0,1,\cdots,T$).

  • filtered quantities : $\hat{z}_{t|t}, P_{t|t}$
  • one-step prediction quantities: $\hat{z}_{t+1|t}, P_{t+1|t}$

[2]. $\hat{x}_{T|T}, P_{T|T}$으로 smoother 초기화

[3]. $p(x_{t+1}|y_{1:T})$가 주어진 상황에서, $p(x_t|y_{1:T})$


본 글에서는 observation data $y_{1:s} = \{y_1, \cdots, y_s\}$가 주어졌을 때, hidden state $x_t$를 추정하는 (Gaussian) State Space Model에 대해 알아보았습니다.


 

'Time Series Analaysis > Time Series Analysis' 카테고리의 다른 글

Convolutional LSTM network(ConvLSTM)  (0) 2024.01.29
Gated Recurrent Unit(GRU)  (2) 2024.01.23
Long Short Term Memory(LSTM)  (0) 2024.01.22
Recurrent Neural Network(RNN)  (0) 2024.01.22