Contribution 세미나
Learning to Prompt for Vision-Language Models
PaperGPT
2024. 4. 15. 15:53
VLM을 downstream task로 사용할 때 prompt를 어떻게 설정하는게 좋을까?
Prompt 설정하는 방식의 base가 되는 논문 느낌..

Prompt의 경우 DB의 특징을 반영하는 단어가 포함되어야 좋은 성능을 보여줌, 이를 메뉴얼하게 튜닝하는건 많은 시간이 소요됨
그리고 실제 이렇게 만든 prompt가 과연 optimal한 prompt일까..?
결국 prompt를 학습하여 좋은 성능을 만들어 보자가 핵심

컨셉

V는 word embeddings vector의 dimension과 동일 (ex. bert 결과)
M개의 context token을 사용
[CLASS]는 학습하고자 하는 class word
학습은 기본적은 cross entropy 사용
해당 논문에서는 2가지 방식 사용
Unified context
모든 class에서 동일한 prompt 사용
Class-specific context
각각 class마다 다른 prompt 사용

추가적으로 [CLASS] token의 위치를 가운데로도 테스트

실험






