전체 글 (21) 썸네일형 리스트형 Fast R-CNN 이전 모델인 R-CNN은 CNN을 Object detection 활용할수 있다는 가능성을 보여준 모델이지만 단점이 몇가지 존재합니다. Selective search를 통해 획득된 2000개의 Region proposal 들은 각각 CNN에 모델로 입력되기 때문에 시간이 매우 오래 걸립니다. AlexNet의 구조를 사용하기 때문에 Image 크기가 224x224로 고정되어 있어 Warping을 수행해야 하며 이미지 데이터의 손실이 일어 납니다. Multi-stage pipelines 구조이기 때문에 end-to-end로 학습시키지 못합니다. Selective search가 CPU로 동작하여 GPU를 활용하지 못해 네트워크의 병목 현상이 발생합니다. (좀더 후속 모델인 Faster R-CNN에서 해결됨) F.. R-CNN R-CNN이란? Region with Convolutional Neuron Networks features의 약자이며 2-Step Detector 입니다. Region proposal(Selective search)에서 설정한 Region을 CNN의 입력으로 사용하여 Object detection을 수행하는 모델입니다. R-CNN은 2014년 CNN을 Object Detection 분야에 최초로 적용시킨 모델이며 CNN을 이용한 검출 방식이 Classification 뿐만아니라 Object Detection 분야에도 사용될 수 있다는 가능성을 보여준 모델입니다. R-CNN의 기본적인 구조는 전체 Task를 두 단계(2-Stage Detector)로 나눌 수 있습니다. 1-Step: 물체의 위치를 찾는 R.. BERT (Bidirectional Encoder Representations from Transformers) BERT란? Bidirectoinal Encoder Representations from Transformers(이하 BERT)는 2018년 10월에 구글이 공개한 Pretrained Model입니다. (BERT라는 이름의 유래는 세서미 스트리트 미국 인형극의 캐릭터 이름이기도 합니다) BERT는 등장과 동시에 수많은 NLP 태스크에서 최고 성능을 보여주면서 명실공히 NLP의 한 획을 그은 Model로 평가 받고 있습니다. BERT는 Transformer의 Encoder 부분을 이용하여 구현 되었으며, Wikipedia(25억 단어)와 Book corpus(8억 단어)와 같은 레이블이 없는 텍스트 데이터로 Pretrained Model 입니다. BERT가 높은 성능을 얻을 수 있었던 것은, 레이블이 없는.. 이전 1 ··· 3 4 5 6 7 다음