AI19 [Image Classification] One-Shot Learning One-Shot Learning 이미지 분류 문제에서는 Few-Shot Learning을 K-way N-shot Learning이라고도 합니다. way는 학습 데이터로 사용한 클래스의 수입니다. 예를 들어 남자와 여자 사진을 하나씩 갖고 학습하는 것은 2-way 1-shot Learning입니다. 클래스별로 학습 데이터가 1개씩만 있는 경우 One-Shot Learning이라고 합니다. 이미지 분류에서는 클래스별로 이미지 한 장씩 있는 경우입니다. One-Shot Learning이 작동하는 방식은 클래스 수 K만큼의 이미지로 데이터 베이스를 구성한 다음, 새로운 이미지가 주어졌을 때 데이터 베이스에서 가장 유사한 이미지의 클래스로 분류하는 것입니다. 따라서 우리는 두 이미지 사이에 유사도를 계산하면 됩니.. 2022. 12. 23. Transfer Learning VS Few-Shot Learning DNN을 학습하기 위해서는 특정할 수는 없지만 대규모의 학습 데이터가 필요합니다. 하지만 3환경에서 학습 데이터가 충분한 경우는 많지 않습니다. 그래서 학습 데이터가 적은 환경에서도 DNN을 학습하기 위한 방법을 많이 연구가 진행됐습니다. 그 중 가장 흔하게 접할 수 있는 방법은 Transfer Learning입니다. Transfer Learning Transfer Learning은 다른 데이터셋으로 이미 잘 학습된 DNN(Pretrained Model)을 이용합니다. DNN은 층이 깊어질수록 주어진 문제를 해결하는 구체적인 특징을 데이터에서 찾습니다. 반대로 말하면 신경망의 앞단은 데이터의 일반적인 특징을 추출합니다. 따라서 신경망 앞단의 성능은 어떤 문제에 적용하던 크게 다르지 않을 것입니다. 그렇다.. 2022. 12. 22. 메타 러닝 (Meta Learning) 자동화와 AutoML 규칙적인 작업은 자동화할 수 있습니다. AI가 위협하는 사람의 일자리 1순위가 바로 규칙적이고 반복적인 작업을 하는 일자리입니다. 심지어는 사람이 발견하기 어려운 규칙도 AI는 찾아낼 수 있습니다. 그러니 우리의 일자리가 언제 빼앗길지 모른다는 불안감이 더 커집니다. 그렇다면 과연 AI를 만드는 일도 자동화로부터 안전할 수 있을까요? AI는 '만든다'고 표현하지 않고 '학습한다'고 표현합니다. '기계 학습' 방법론이 AI 기술의 발전을 이끌고 있기 때문입니다. 따라서 AI 연구자들은 AI를 어떻게 하면 더 나은 AI를 학습할 수 있는지 연구합니다. 그런데 꽤 오래 전부터 AI를 만드는 일도 자동화하는 시도가 있었습니다. AI를 학습하는 과정이 다양한 조합을 시도해보는 반복적인 작업이.. 2022. 12. 19. [SUPER RESOLUTION] Activating More Pixels in Inmage Super-Resolution Transformer (HAT : HYBRID ATTENTION TRANSFORMER) | 2022.05 Key1 | LAM으로 Transformer 아키텍처의 문제점을 논리적으로 분석 Key2 | 더 많은 이미지 픽셀을 활성화하기 위해 channel-attention 사용 Key3 | Transformer (self-attention schema) 사용 Key4 | window partition mechanism의 문제점을 해소하기 위해 overlapping cross attention module 도입 1. Introduction Transformer는 이미지 초해상화 분야에서도 좋은 성과를 보이고 있습니다. 그러나 초해상화에 비교적 작은 영역만을 활용하기 때문에 성능 향상의 여지가 있습니다. 다시 말해 고화질 이미지를 생성할 때 더 많은 픽셀을 활성화한다면 더 좋은 성능을 보일 수도 있다는 것입니다. .. 2022. 10. 4. [SEGMENTATION] DeepLab v3 | 2017 DeepLab v2 논문 리뷰 바로가기 DeepLab v3 논문 바로가기 1. v2와 차이점 2. Performance 1. v2와 차이점 1.1 Going Deeper DeepLab v3에서는 v2와 마찬가지로 ResNet-101을 사용하였지만, 마지막 Block4와 동일한 블럭을 3개(Block 5, 6, 7) 이어붙여 더 깊은 네트워크를 구성했다. Block마다 3x3 convolution layer를 3개 포함하고 있는데, Block4 ~ 7에서는 3x3 convolution lyaer에 atrous 알고리즘을 적용했다. 이로써 특징맵의 사이즈를 원본의 1/16으로 유지하면서도 Receptive Field 사이즈를 키울 수 있다. 1.2 Fully Connected CRF 삭제 DeepLab v1.. 2021. 8. 17. [SEGMENTATION] DeepLab v2 | 2016 0DeepLab v1 논문 리뷰 바로가기 DeepLab v2 논문 바로가기 1. 서론 2. v1과 차이점 3. Performance 1. 서론 DeepLab v1은 VGG-16을 기반으로 atrous convolution, fully-connected CRF, multi-scale processing을 적용해 시멘틱 세그멘테이션하는 알고리즘이었다. v2에서는 v1과 달리 DCNN 모델을 ResNet-101을 사용하고 다양한 스케일을 처리하기 위해 Atrous Spatial Pyramid Pooling(ASPP)을 이용했다. 본 글에서는 v2의 변화에 대해 소개하도록 하겠다. 2. v1과 차이점 2.1 ResNet-101 DeepLab v1에서는 VGG-16을 사용했지만, v2로 넘어오면서 ResNet-1.. 2021. 8. 3. 이전 1 2 3 4 다음