본문 바로가기

AI/메타 러닝4

[Image Classification] Fine Tune Few-Shot Learning 요약 Few-Shot Learning에서 사용하는 Neural Network는 Support Set과 관계없이 학습(Pretrain)된다. Support Set에 대해 Fine Tune을 하면 Few-Shot Learning의 성능을 높일 수 있다. 이외에도 Regularization, Innitialization, Cosine Similiarity를 이용해 Few-Shot Learning의 성능을 개선할 수 있다. Base Category에 대해 Pretrain된 네트워크 f(x)가 있다. f(x)를 Support Set에 Fine Tune하는 가장 간단한 방법은 Classifier를 추가하는 것이다. p (prediction) = Softmax( W · f(x) + b) A Good Initializ.. 2023. 1. 5.
[Image Classification] One-Shot Learning One-Shot Learning 이미지 분류 문제에서는 Few-Shot Learning을 K-way N-shot Learning이라고도 합니다. way는 학습 데이터로 사용한 클래스의 수입니다. 예를 들어 남자와 여자 사진을 하나씩 갖고 학습하는 것은 2-way 1-shot Learning입니다. 클래스별로 학습 데이터가 1개씩만 있는 경우 One-Shot Learning이라고 합니다. 이미지 분류에서는 클래스별로 이미지 한 장씩 있는 경우입니다. One-Shot Learning이 작동하는 방식은 클래스 수 K만큼의 이미지로 데이터 베이스를 구성한 다음, 새로운 이미지가 주어졌을 때 데이터 베이스에서 가장 유사한 이미지의 클래스로 분류하는 것입니다. 따라서 우리는 두 이미지 사이에 유사도를 계산하면 됩니.. 2022. 12. 23.
Transfer Learning VS Few-Shot Learning DNN을 학습하기 위해서는 특정할 수는 없지만 대규모의 학습 데이터가 필요합니다. 하지만 3환경에서 학습 데이터가 충분한 경우는 많지 않습니다. 그래서 학습 데이터가 적은 환경에서도 DNN을 학습하기 위한 방법을 많이 연구가 진행됐습니다. 그 중 가장 흔하게 접할 수 있는 방법은 Transfer Learning입니다. Transfer Learning Transfer Learning은 다른 데이터셋으로 이미 잘 학습된 DNN(Pretrained Model)을 이용합니다. DNN은 층이 깊어질수록 주어진 문제를 해결하는 구체적인 특징을 데이터에서 찾습니다. 반대로 말하면 신경망의 앞단은 데이터의 일반적인 특징을 추출합니다. 따라서 신경망 앞단의 성능은 어떤 문제에 적용하던 크게 다르지 않을 것입니다. 그렇다.. 2022. 12. 22.
메타 러닝 (Meta Learning) 자동화와 AutoML 규칙적인 작업은 자동화할 수 있습니다. AI가 위협하는 사람의 일자리 1순위가 바로 규칙적이고 반복적인 작업을 하는 일자리입니다. 심지어는 사람이 발견하기 어려운 규칙도 AI는 찾아낼 수 있습니다. 그러니 우리의 일자리가 언제 빼앗길지 모른다는 불안감이 더 커집니다. 그렇다면 과연 AI를 만드는 일도 자동화로부터 안전할 수 있을까요? AI는 '만든다'고 표현하지 않고 '학습한다'고 표현합니다. '기계 학습' 방법론이 AI 기술의 발전을 이끌고 있기 때문입니다. 따라서 AI 연구자들은 AI를 어떻게 하면 더 나은 AI를 학습할 수 있는지 연구합니다. 그런데 꽤 오래 전부터 AI를 만드는 일도 자동화하는 시도가 있었습니다. AI를 학습하는 과정이 다양한 조합을 시도해보는 반복적인 작업이.. 2022. 12. 19.