-
DEFORMABLE DETR: DEFORMABLE TRANSFORMERS FOR END-TO-END OBJECT DETECTIONContribution 세미나 2024. 4. 5. 10:35

Contribution: Transformer attention module에 deformable 방식 적용
기존 transformer의 문제점
- 학습 수렴속도가 느리다
- 작은 객체 검출이 어렵다
이유
- 초기 attention module은 uniform하게 가중치 부여되어 있어, 특정 영역으로 attention을 주기까지 오랜 학습 시간이 필요함, 개수가 많아질수록 더 심해짐
2. 작은 객체를 검출하기 위해서는 그만큼 image patch size를 줄여야 하는데 연산량이 제곱으로 늘어나서 한계가 있음
핵심
: 그렇다면 우리가 모든 영역을 다 볼 필요가 있을까?

Deformable 연산을 활용하여 초기에 의미있는 image patch들만 골라서 attention에 적용해보자
기존

Deformable

Multi-scale deformable

'Contribution 세미나' 카테고리의 다른 글
DINO: DETR with Improved DeNoising Anchor Boxes for End-to-End Object Detection (0) 2024.04.05 DN-DETR: Accelerate DETR Training by Introducing Query DeNoising (0) 2024.04.05 DAB-DETR: DYNAMIC ANCHOR BOXES ARE BETTER QUERIES FOR DETR (0) 2024.04.05 Conditional DETR for Fast Training Convergence (0) 2024.04.05 시작하기에 앞서.. (2) 2023.12.10