Contribution 세미나

Visual Prompt Tuning

PaperGPT 2024. 4. 16. 11:20

ECCV 2022, 401회 인용

vision prompt를 활용에서 base가 되는 논문

 

 

고전적인 find-tuning 방식에서 벗어나 visual prompt를 학습함으로써 적은 파라미터로도 좋은 성능을 보여줌

 

 

크게 VPT-DEEP과 VPT-SHALLOW로 구분

 

VPT-SHALLOW (기존 파라미터의 0.04%)

 

 

VPT-DEEP (기존 파라미터의 0.53%)

 

 

실험

 

전부 base class에 대한 성능으로 보면 됨

 

 

학습 데이터가 부족할때 visual prompt의 강점이 부각

 

 

모델 사이즈가 커져도 prompt learning의 성능이 기존보다 좋음

 

 

Prompt 위치에 따른 성능 비교

 

 

데이터 종류에 따라 optimal한 prompt 개수가 다르다 (한개만 써도 어느정도 성능이 보장)

 

 

일반적으로 prompt depth와 성능이 비례

 

 

Head 활용 방안에 따른 성능 비교