Computer Vision

    [Model Review] YOLOv5 + Roboflow Annotation

    ! 주의 ! 이 글에는 적은 yolo v5에 대한 요약과 짧은 사용법, 그리고 roboflow annotation에 대한 개인적인 견해가 쓰여있습니다. 1. YOLOv5 Summary You Only Look Once - one stage detection 모델 R-CNN이나 Faster R-CNN과 달리 이미지 분할 없이 이미지를 한 번만 보는 특징 전처리모델과 인공신경망 통합 실시간 객체탐지 Backbone : input image → feature map CSP-Darknet https://keyog.tistory.com/30 Head : predict classes / bounding boxes Dense Prediction : One stage detector(predict classes + b..

    [Model Review] MobileNet SSD 논문 퀵 리뷰

    퀄리티가 높지 않습니다. 주의! Mobile Object Detection model - based on VGG- 16 https://arxiv.org/abs/1704.04861 1. Summary VGG-16 기반 기본 모델이다. 기존 VGG-16 모델이 3x3x3 convolution을 3-dimention으로 사용했기 때문에 총 parameter 개수가 81개였는데, mobile 기기 위에 올리기 위해 depthwise convolution과 pointwise convolution을 함께 사용하여 331 x 3 + 311 x 3 = 27 + 9 = 36개의 parameter로 줄인 방식의 모델이다. → 이를 Depth separable convolution 이라고 부른다. 2. Architectur..

    [ML/DL] nms(None-maximum-suppression) - hard nms / soft nms

    nms(None-maximum-suppression) Soft-NMS -- Improving Object Detection With One Line of Code Theory 예측된 bounding box의 confidence가 임계치(threshold) 이상이면 참으로 처리하게 된다. 그렇게 되면 하나의 Object에 대해 여러 개의 Bounding box가 겹쳐서 생성될 수 있다. → 한 객체에 대해 가장 신뢰도가 높은 하나의 bounding box만 남기고 나머지를 삭제하는 post processing 알고리즘의 일종 = nms non-maximum suppression bounding box 집합에서 class score이 가장 높은 것부터 다른 집합으로 옮기고 원본 bounding box 집합에..

    [Evaluate Performance] mAP(mean Average Precision)

    SSD, Faster R-CNN에서 사용하는 대표적인 성능평가지표인 mAP(mean Average Precision)에 대해 공부한 내용을 정리해봤습니다. 차마 다시 글로 적을 자신이 없어서 필기 사진으로 대체합니다ㅎㅎ mAP 구현은 COCO Eval API와 Cartucho님의 mAP 구현 repository를 참고하여 COCO format에서는 COCO Eval을, VOC데이터는 Cartucho mAP를 사용해서 만들었습니다. annotation format만 맞춰주면 되기 때문에 수정해서 적용시키는데 어려운 것은 없을 것 같습니다. 이 글을 보고 시도하시다가 어려운 점이 있으시면 댓글로 남겨주세요. GitHub - cocodataset/cocoapi: COCO API - Dataset @ http:..