Time Series Analaysis/Time Series Analysis
2024. 1. 23.
Gated Recurrent Unit(GRU)
Recurrent Neural Network(RNN)은 순서가 있는 데이터(시계열 데이터)에서 의미를 찾아내기 위해 고안된 모델로 기울기 소멸 문제(vanishing gradient problem)가 존재합니다. RNN 단점을 보완한 모델로 Long Short Term Memory(LSTM)과 Gated Recurrent Unit(GRU)가 있습니다. LSTM은 은닉층의 각 노드(혹은 뉴런)에 망각 게이트(forget gate), 입력 게이트(input gate), 출력 게이트(output gate)를 추가하여 cell state의 정보 흐름을 제어합니다. LSTM은 복잡한 구조 때문에 많은 파라미터가 필요하여 데이터가 충분하지 않은 경우 오버피팅 문제가 발생합니다. 본 내용은 LSTM보다 구조가 더 간..