분류 전체보기8 PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and Localization. ICPR. 2020 PaDiM 1. 요약 이 논문에서는 pre-trained backbone network에서 정의되는 patch들의 distribution을 modeling하여 anomaly detection을 수행하는 기법을 제안한다. 이 patch들은 SPADE와 같이 backbone network에서 얻은 feature map들을 concatenate하여 얻는다. 이때, modeling되는 distribution은 mean \( \boldsymbol{\mu} \)와 covariance matrix \( \boldsymbol{\Sigma} \)로 정의되는 normal distribution \( \mathcal{N}(\mu, \Sigma) \)이다. $$ \mu_{ij} \in \{ \boldsymbol{\mu} | .. 2021. 10. 11. SPADE: Sub-image Anomaly Detection with Deep Pyramid Correspondences. arXiv. 2020 SPADE 1. 요약 최근 리더보드에서 상위 등수를 가진 기법들의 기반이 되는 기법이다. ImageNet으로 pre-trained된 weights를 그대로 사용하여 MVTec AD benchmark에서 기존 기법들보다 높은 performance를 보여준다. 이 논문에서 주목할 점은 (1) pre-trained backbone network의 사용 (2) Feature gallery \( \mathbb{G} \)의 도입 (3) kNN 기반의 normal image retrieval 이다. Anomalous feature를 구체적으로 정의할 수 없는 anomaly detection 분야의 특성 상, 좋은 performance를 갖는 기법들은 normal feature를 얼마나 잘 이해하는가?에 따라 구분될 .. 2021. 10. 9. Virtual Class Enhanced Discriminative Embedding Learning. NIPS. 2018. Virtual Softmax 1. Method 이 논문에서 제안하는 Virtual Softmax는 Softmax에서 파생된 classifier입니다. 먼저 Softmax의 수식은 아래와 같습니다. $$ \frac{\mathcal{e}^{W^{T}_{y_i}X_i}}{\sum^C_{j=1}\mathcal{e}^{W^{T}_{y_j}X_i}} $$ Softmax는 수식에서 볼 수 있듯이 weight와 입력의 feature의 inner product \(Wx\)를 기반으로 연산됩니다. 학습 중에는 \( W^T_{y_i}X_i > \max_{j \in c, j \neq y_i}(W^T_jX_i)\)를 충족하도록 penalty를 부여함으로써 입력이 올바른 class로 분류되도록 합니다. 하지만, Softmax는 .. 2021. 7. 28. HRN: A Holistic Approach to One Class Learning. NIPS. 2020 HRN: H-Regularization with 2-Norm instance level normalization 1. Background 1.1 One-Class Learning \( \mathcal{X} \)를 모든 data라고 하자. 이 때, \( X\subseteq \mathcal{X} \)는 특정 class에 속한 모든 instance들의 집합이라고 하자. One-class learning에서는 training dataset \( T \subseteq X \)이 주어진 상황에서 one-class classifier \( f(x) : \mathcal{X} \rightarrow \{ 0, 1 \} \)를 학습하고자 한다. 여기서 \( f(x)=1 \)는 \( x \in X \)인 경우이고, 관측한 c.. 2021. 7. 26. 이전 1 2 다음