anomaly detection6 PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and Localization. ICPR. 2020 PaDiM 1. 요약 이 논문에서는 pre-trained backbone network에서 정의되는 patch들의 distribution을 modeling하여 anomaly detection을 수행하는 기법을 제안한다. 이 patch들은 SPADE와 같이 backbone network에서 얻은 feature map들을 concatenate하여 얻는다. 이때, modeling되는 distribution은 mean \( \boldsymbol{\mu} \)와 covariance matrix \( \boldsymbol{\Sigma} \)로 정의되는 normal distribution \( \mathcal{N}(\mu, \Sigma) \)이다. $$ \mu_{ij} \in \{ \boldsymbol{\mu} | .. 2021. 10. 11. SPADE: Sub-image Anomaly Detection with Deep Pyramid Correspondences. arXiv. 2020 SPADE 1. 요약 최근 리더보드에서 상위 등수를 가진 기법들의 기반이 되는 기법이다. ImageNet으로 pre-trained된 weights를 그대로 사용하여 MVTec AD benchmark에서 기존 기법들보다 높은 performance를 보여준다. 이 논문에서 주목할 점은 (1) pre-trained backbone network의 사용 (2) Feature gallery \( \mathbb{G} \)의 도입 (3) kNN 기반의 normal image retrieval 이다. Anomalous feature를 구체적으로 정의할 수 없는 anomaly detection 분야의 특성 상, 좋은 performance를 갖는 기법들은 normal feature를 얼마나 잘 이해하는가?에 따라 구분될 .. 2021. 10. 9. HRN: A Holistic Approach to One Class Learning. NIPS. 2020 HRN: H-Regularization with 2-Norm instance level normalization 1. Background 1.1 One-Class Learning \( \mathcal{X} \)를 모든 data라고 하자. 이 때, \( X\subseteq \mathcal{X} \)는 특정 class에 속한 모든 instance들의 집합이라고 하자. One-class learning에서는 training dataset \( T \subseteq X \)이 주어진 상황에서 one-class classifier \( f(x) : \mathcal{X} \rightarrow \{ 0, 1 \} \)를 학습하고자 한다. 여기서 \( f(x)=1 \)는 \( x \in X \)인 경우이고, 관측한 c.. 2021. 7. 26. Deep One-Class Classification. ICML. 2018. (2/2) DSVDD: Deep Support Vector Data Description 3. Properties of Deep SVDD Proposition 1: All-zero-weights solution. Let \(\mathcal{W}_{0}\) be the set of all-zero network weights, i.e., \(\boldsymbol{W}^{l} = \boldsymbol{0}\) for every \(\boldsymbol{W}^{l} \in \mathcal{W}_{0}\). For this choice of parameters, the network maps any input to the same output, i.e., \(\phi(\boldsymbol{x};\mathcal{W}_{0}.. 2021. 7. 5. 이전 1 2 다음