Contribution 세미나
CLIP-Adapter: Better Vision-Language Models with Feature Adapters
PaperGPT
2024. 4. 16. 10:38

Coop의 경우 text prompt에 집중을 했다면
CLIP-Adapter의 경우 visual, text feature에 집중
단순히 layer를 추가하는건 overfitting을 방지하기 쉽지 않음, 그러나 residual 구조를 활용하면 어느정도 generalization을 보장할 수 있음
단순하게 2 layer 구조 사용 (생각보다 이런식의 구조가 많이 쓰이는 것 같음)

hyper-parameter에 따라 어떻게 비중을 가져 갈지 선택

Loss는 일반적인 cross-entropy

Dataset에 따라서 optimal한 alpha, beta값이 존재, 하지만 매번 값을 찾는건 비효율적
따라서 이것도 같이 학습 해보자

실험

CLIP-Adapter의 성능이 기존 coop보다 좋음

전부 학습하는것 보다 visual adapter만 학습하는게 성능이 더 좋음

red, pink, brown을 비교했을때 CLIP-Adapter가 구별하기 더 쉬움

기존과 domain gap이 많이 발생할 수록 높은 alpha
비슷할수록 낮은 alpha값에서 좋은 성능을 보여줌
실제 optimal한 값도 해당 값으로 수렴