최신글
-
Young's Portfolio Portfolio ( ## 1) : 2019 ~ 2024.08
-
Generative Model Diffusion Model OverviewDiffusion model은 대표적인 이미지 생성 모델(Image Generative Model)입니다. "Diffusion"이 "확산" 현상을 의미하듯이입력 데이터에 노이즈(noise)를 매 스텝(step, $t$)마다 추가한 후 다시 제거하는 과정을 학습하면서 데이터를 생성하는 deep generative model입니다. Diffusion model은 크게 2가지 단계로 구성됩니다.1️⃣ Forward process(diffusion process)입력 데이터($x_0$)로부터 노이즈(noise; $\epsilon \sim N(\mu, \sigma^2)$)를 조금씩 더해가면서 입력 데이터($x_0$)는 완전한 noise 이미지($x_T$)가 생성됩니다.⭐ 정규분포의 모수인 $\mu,..
-
2024 [Workshop #2] Identification of functional dynamic brain states based on graph attention networks 2024년 8월 1일에 다른 연구실과 함께 진행한 워크샵에서 발표한 'One Class Classification Using Bayesian Optimization' 발표 자료입니다.
-
Coding Study [##프로그래머스 & 백준 coding study ## : 2024.07] 2024년 6월에 푼 프로그래머스 코딩문제("코딩테스트 공부 목적")본 글은 프로그래머스와 백준에서 푼 문제를 정리한 글입니다.1. [백준: 구현] 그룹 단어 체커 (정답률: 53.508%)[문제]그룹 단어란 단어에 존재하는 모든 문자에 대해서, 각 문자가 연속해서 나타나는 경우만을 말한다. 예를 들면, ccazzzzbb는 c, a, z, b가 모두 연속해서 나타나고, kin도 k, i, n이 연속해서 나타나기 때문에 그룹 단어이지만, aabbbccb는 b가 떨어져서 나타나기 때문에 그룹 단어가 아니다.단어 N개를 입력으로 받아 그룹 단어의 개수를 출력하는 프로그램을 작성하시오. [입력]첫째 줄에 단어의 개수 N이 들어온다. N은 100보다 작거나 같은 자연수이다. 둘째 줄부터 N개의 줄에 단어가 들어온..
-
2024 [Workshop] One Class Classification Using Bayesian Optimization 2024년 6월 28일에 다른 연구실과 함께 진행한 워크샵 때 발표한 'One Class Classification Using Bayesian Optimization' 발표 자료입니다.
Time Series Study
-
Time Series Analysis Linear Gaussian State Space Model 본 글에서는 State Space Model 중 Gaussian State Space Model에 대해 살펴보고자 합니다. [참고자료]Time Series Analysis and Its ApplicationsLinear Gaussian State Space ModelStanford Lecture Note: Linear Gaussian State Space Model1. State Space Model(SSM)상태 공간 모형(State Space Model)은 시계열 데이터 모형으로 크게 상태 방정식(state equation)과 관측 방정식(observation equation)으로 이루어집니다. ▶ 상태 방정식(state equation)$x_t$: state process(hidden or late..
-
Time Series Anomaly Detection Multi-Scaled Convolutional Recurrent Encoder Decoder(MSCRED) for Anomaly Detection 본 글은 다변량 시계열 데이터 기반 이상치 탐지 방법론 Multi-Scaled Convolutional Recurrent Encoder Decoder(MSCRED)에 대한 설명을 논문 "A Deep Neural Network for Unsupervised Anomaly Detection and Diagnosis in Multivariate Time Series Data(2019)"을 바탕으로 작성하였습니다. ▶ 다변량 시계열 데이터 기반 이상치 탐지의 중요성다변량 시계열 데이터 기반 이상치 탐지는 특정 시점(time step)에서 비정상 상태(abnormal status) 여부를 확인(탐지)하는 것입니다. 이상치 탐지는 재정 손실 또는 기업 손실을 피하기 위해서 매우 중요하며 작동자(Operator)에..
-
Time Series Analysis Convolutional LSTM network(ConvLSTM) 본 글에서는 Long Short Term Memory(LSTM)에 convolution structure를 추가함으로써 temporal correlation(시간 의존성)뿐만 아니라 공간 데이터(spatial information)도 다루는 Convolutional LSTM network에 대해 설명하도록 하겠습니다. 즉, ConvLSTM은 시공간 데이터(spatial-temporal data)를 기반으로 미래 시점을 예측하고자 제안되었으며 논문 "Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting(2015)"을 바탕으로 작성하였습니다. ▶ Background ConvLSTM에 대해 본격적으로 설명하기에 ..
-
Time Series Anomaly Detection LSTM-based Encoder-Decoder for Multi-sensor Anomaly Detection(EncDec-AD) 본 글은 다변량 시계열 데이터 이상치 기반 모델인 LSTM-based Encoder-Decoder(EncDec)에 대해 논문 [LSTM-based Encoder-Decoder for Multi-sensor Anomaly Detection(EncDec-AD)(2016)]을 바탕으로 작성하였습니다. Long Short Term Memory Networks based Encoder-Decoder for Anomaly Detection(EncDec-AD)는 정상 시계열 데이터 재건축(reconstruct)을 목적으로 학습하며 reconstruct error를 기반으로 이상치(anomaly)를 탐지하는 모델입니다. ▶ Main Idea of EncDec-AD LSTM based encoder: 시계열 데이터의 입..
-
Time Series Analysis Gated Recurrent Unit(GRU) Recurrent Neural Network(RNN)은 순서가 있는 데이터(시계열 데이터)에서 의미를 찾아내기 위해 고안된 모델로 기울기 소멸 문제(vanishing gradient problem)가 존재합니다. RNN 단점을 보완한 모델로 Long Short Term Memory(LSTM)과 Gated Recurrent Unit(GRU)가 있습니다. LSTM은 은닉층의 각 노드(혹은 뉴런)에 망각 게이트(forget gate), 입력 게이트(input gate), 출력 게이트(output gate)를 추가하여 cell state의 정보 흐름을 제어합니다. LSTM은 복잡한 구조 때문에 많은 파라미터가 필요하여 데이터가 충분하지 않은 경우 오버피팅 문제가 발생합니다. 본 내용은 LSTM보다 구조가 더 간..
Gaussian Process
-
Gaussian Process Adaptive Gaussian Process Change Point Detection(ADAGA): 일변량 시계열 데이터 이상치 탐지 방법론 Time seris data에서 change point를 탐지(detect)하는 것은 현실 세계에서 많은 분야의 근본적인 업무입니다. Change Point(CP)란, 데이터를 표현하는데 사용된 모델의 hyper-parameter가 갑자기 변하는 지점(point)을 의미합니다. 본 글은 논문 Adaptive Gaussian Process Change Point Detection(2022)을 바탕으로 gaussian process(가우시안 프로세스)와 statistical hypothesis testing(가설 검정)을 결합한 ADAGA를 통해 time series data에서 어떻게 CP를 탐지하는지에 대해서 설명하고자 합니다. ADAGA의 경우, 크게 두 개의 파트로 나눌 수 있으며 자세한 설명은 에서..
-
Gaussian Process [Graph Gaussian Process(GGP)]: Bayesian Semi-supervised Learning with Graph Gaussian Process(GGP) 본 글은 논문 [Bayesian Semi-supervised Learning with Graph Gaussian Process(GGP)]를 바탕으로 작성하였으며 Gaussian Process(GP)를 기반으로 Graph($G$) 상에서 어떻게 적용하는지를 중점으로 다룬 내용입니다. 0. Background [Graph] Graph($G$)에 대한 정의 및 구성은 다음 글을 참고하시면 좋을거 같습니다. Graph Structure 1. Graph Structure Graph란 방향성이 있거나(directed) 없는(undirected) 엣지(edge)로 연결된 노드(node=vertices)들의 집합이다. [그림1]에서 볼 수 있듯이 Grpah는 Edge와 Vertices로 이루어져 있다. Edge는 Li..
-
Gaussian Process [Gaussian Process (2)]: Gaussian Process Regression(GPR) Gaussian Process Regression(GPR)에 대해 알기 전에 필요한 기본적인 개념은 [Gaussian Process (1): Mathematical Basics]에서 다루었습니다. 본 글에서는 본격적으로 Gaussian Process Regression(GPR)에 대해 다루어 보고자 합니다. 0. Definition Gaussian Process Regression(GPR)는 Gaussian Process(GP)의 특성을 이용한 Nonparametric Bayesian Regression(비모수 베이지안 회귀) 방법입니다. GPR은 크게 다음 2가지의 관점에서 살펴볼 수 있는데 본 글에서는 Function-space view 관점에서 살펴볼 것입니다. Weight-space view Fu..
-
Gaussian Process Gaussian Process(1): Mathematical Basics 본 글에서는 Gaussian Process Regression(GPR)에 대해 알기 전에 필요한 사전적인 개념에 대해 설명하고자 합니다. 목차는 다음과 같습니다. 일변량 정규분포 / 다변량 정규분포 결합 분포 / 조건부 분포 랜덤 프로세스 / 가우시안 프로세스 커널 함수(공분산 함수) 1. 일변량 정규분포 / 다변량 정규분포 [일변량 정규분포(Univariate Gaussian or Normal Distribution)] 확률 변수(random variable) $X$가 펑균이 $\mu$, 분산이 $\sigma^2$인 일변량 정규분포(Univariate Gaussian or Normal Distribution)를 따르는 경우, 확률 밀도 함수(probability denstiy distribution: ..
Graph Neural Network
-
Graph(Graph Neural Network) Fraud Detection: CARE-GNN Graph Neural Network(GNN) based Fraud Detection은 서로 다른 특성을 갖는 이웃 정보를 종합(aggregate)함으로써 각 node가 suspicous(사기꾼)인지 benign(일반인)인지 판단합니다. ▶ Problem Definition▷ Definition 1: Multi-relation graph$$G = \{V,X,\{\varepsilon_r\}|^R_{r=1} Y\}$$$V=\{v_1,v_2, \cdots, v_n\}$: the set of nodes각 nodes $v_i$는 $d$ 차원의 feature vector를 갖음($x_i \in \mathbb{R}^d$).$X = \{x_1,x_2, \cdots, x_n\}$: node-feature matrix..
-
Graph(Graph Neural Network) [Graph Clustering 방법론] Deep Attentional Embedded Graph Clustering(DAEGC) 본 글에서는 Graph Clustering 방법론 중 'Deep Attentional Embedded Graph Clustering(DAEGC)'를 제안한 [Attributed Graph Clustering: A Deep Attentional Embedding Approach(2019)] 논문을 토대로 설명하고자 합니다. 모델을 설명하기 전 세 가지 개념에 대해 먼저 짚고 넘어가고자 합니다. [Attributed Graph] Attributed Graph는 graph structure $(V, E)$와 각 node가 갖고 있는 attribute $X$가 관측된 graph를 의미합니다. $G = (V,E,X)$ $V = \{v_i\}_{i=1,\cdots,n}$: node의 집합 $E=\{e_{ij}\}$..
-
Graph(Graph Neural Network) Scalable MCMC for Mixed Membership Stochastic Blockmodels 이번 대학원 '베이지안 통계학' 수업에서 기말 프로젝트로 'Scalable MCMC for Mixed Membership Stochastic Blockmodels' 논문 발표를 맡게 되었다. 주 연구 주제인 Graph를 bayesian 접근으로 modeling을 한 논문이다. 'Bayesian Graph Convolutional Neural Networks for semi-supervised classification'의 논문에 따르면, 기존 Graph Convolution Neural Network(GCN) 모델은 graph structure에 대한 uncertainty(불확실성)을 잘 다루지 못 한다는 한계점이 존재한다. 예를 들어, graph에 noisy data(-> spurious edges 존..
-
Graph(Graph Neural Network) GCN - Image Classification Image Classification하면 대표적으로 생각나는 모델이 CNN(Convolution Neural Network)이다. 이미지 분류를 GCN(Graph Convolution Neural Network)을 통해서도 가능하며 이번에 가장 기본적으로 사용되는 MNIST Dataset을 GCN을 통해 이미지 분류를 하였다. pytorch에서 제공해주는 mnist dataset과 GCNConv layer를 이용하였다. 먼저, pytorch에서 제공해주는 GCNConv 알고리즘에 대해 공부한 내용을 정리해 보고자 한다. Graph로 구조화된 mnist dataset과 GCNConv layer를 사용하기 위해서는 다음 package을 설치해줘야 한다. !pip install --verbose --no-ca..
-
Graph(Graph Neural Network) Bayesian graph convolutional neural networks for semi-supervised classification Graph Convolutional Neural Networks(GCNNs)와 Bayesian Neural Networks(BNN)을 모두 적용한 Bayesian Graph Convolutional Neural Networks에 대해 담은 논문에 대해 정리해 보고자 한다. 이번에도 예제 이전까지에 대한 내용을 정리하고자 한다. 1. Introduction 최근에, convolutional neural network를 graph structure data에 적용하려는 다양한 시도를 통해 수 많은 발전과 향상이 있었다. GCN의 목적은 node들 사이의 관계를 나타내는 Ground Truth를 구하는 것이 목적이다. graph를 설계할 때, noisy data를 사용하거나 모델을 가정해서 사용하는 경우 성능..