無需參數訪問!CMU用大模型自動優化視覺語言提示詞 | CVPR’24

視覺語言模型(如 GPT-4o、DALL-E 3)通常擁有數十億參數,且模型權重不公開,使得傳統的白盒優化方法(如反向傳播)難以實施。

那麼,有沒有更輕鬆的優化方法呢?

就在最近,卡內基梅隆大學(CMU)的研究團隊對於這個問題提出了一種創新的“黑盒優化”策略——

通過大語言模型自動調整自然語言提示詞,使視覺語言模型在文生圖、視覺識別等多個下游任務中獲得更好的表現。

這一方法不僅無需觸及模型內部參數,還大幅提升了優化的靈活性與速度,讓用戶即使沒有技術背景也能輕鬆提升模型性能。

該研究已被CVPR 2024接收。

大多數視覺語言模型(如 DALL-E 3、GPT-4o 等)並未公開模型權重或特徵嵌入,導致傳統依賴反向傳播的優化方式不再適用。

不過,這些模型通常向用戶開放了自然語言接口,使得通過優化提示詞來提升模型表現成爲可能。

然而,傳統的提示詞工程嚴重依賴工程師的經驗和先驗知識。

例如,爲提升 CLIP 模型的視覺識別效果,OpenAI 花費了一年時間收集了幾十種有效的提示詞模板(如 “A good photo of a [class]”)。

同樣,在使用DALL-E 3和Stable Diffusion等文生圖模型時,用戶往往也需掌握大量提示詞技巧才能生成滿意的結果。

那麼,有沒有替代人類提示詞工程師的方法?

有的 CMU 團隊提出了一種新策略:用 ChatGPT 等大語言模型自動優化提示詞。

像提示詞工程師利用反饋改進提示詞一樣,CMU 的方法將正負反饋交給 ChatGPT,以更高效地調整提示詞,具體過程如圖所示:

這種優化過程類似於機器學習中的“爬山法”(hill-climbing)策略,不同之處在於大語言模型可以自動分析提示詞表現,從正負反饋中找到最優改進方向。

研究團隊利用這一特性來更高效地優化提示詞。這個過程可以用以下步驟概括:

經過多輪迭代,最終返回得分最高的提示詞作爲優化結果。

通過這一方法,CMU 團隊在無需人類提示工程師參與的情況下,在多個小樣本視覺識別數據集上取得了最佳準確性,甚至超越了傳統的白盒提示詞優化方法(如 CoOp)。

此外,該方法在無需瞭解數據集內容的前提下,自動捕捉到了下游任務的視覺特性並將其融入提示詞中,取得了更好的效果。

例如,在食物識別任務中,ChatGPT 自動將提示詞調整爲識別“多樣化的美食和原料”,從而提升了模型的表現。

研究團隊還證明了,通過 ChatGPT 黑盒優化得到的提示詞不僅適用於單一模型架構,還能在不同模型架構(如 ResNet 和 ViT)之間泛化,並且在多種模型上表現優於白盒優化得到的提示詞。

這一系列實驗證明,大語言模型能夠從提示詞的性能反饋中提取出隱含的“梯度”方向,從而實現無需反向傳播的模型優化。

CMU 團隊進一步探索了該方法在生成任務中的應用潛力。

在文本到圖像生成(T2I)任務中,ChatGPT 能夠自動優化提示詞,從而生成更符合用戶需求的高質量圖像。

例如,對於輸入描述“一個動物注視着一個人”,系統可以通過逐步優化提示詞來提升生成圖像的準確性。

此外,這一方法還適用於提示反演(Prompt Inversion)。

提示反演是一種根據現有圖像反推生成模型輸入提示詞的技術,簡單來說,就是通過圖像生成能夠再現其特徵的文本描述(提示詞)。

研究團隊在複雜的文本到圖像任務上進行了測試,結果表明這一方法僅需三輪提示詞優化,就能顯著提高用戶的滿意度。

此外,研究團隊還指出,提示反演可以幫助用戶快速定製特定的圖像效果,例如“讓這隻狗變成站立姿勢”或“讓背景變成夜景”,從而生成符合特定需求的圖像。

CMU 團隊表示,提出的黑盒優化範式突破了傳統模型調優的限制,不僅在圖像分類和生成任務中表現出色,還展示了廣泛的應用潛力。

這一方法無需訪問模型權重,僅通過“文本梯度”實現精準優化,具備強大的擴展性。

未來,黑盒優化有望應用於實時監控、自動駕駛、智能醫療等複雜動態場景,爲多模態模型的調優帶來更加靈活高效的解決方案。

團隊的一作劉士弘(Shihong Liu)是卡內基梅隆大學的研究生畢業生,曾任機器人研究所研究員。

目前在 北美Amazon 工作,負責大型分佈式系統的計算和大語言模型驅動的 AI Agent 的開發。

△劉士弘(Shihong Liu)

團隊的共同一作林之秋(Zhiqiu Lin)是卡內基梅隆大學的博士研究生,專注於視覺-語言大模型的自動評估與優化。

Zhiqiu Lin在CVPR、NeurIPS、ICML、ECCV等頂級會議上發表了十數篇論文,並曾榮獲最佳論文提名和最佳短論文獎等。

△林之秋(Zhiqiu Lin)

Deva Ramanan教授是計算機視覺領域的國際知名學者,現任卡內基梅隆大學教授。

△Deva Ramanan教授

他的研究涵蓋計算機視覺、機器學習和人工智能領域,曾獲得多項頂級學術榮譽,包括2009年的David Marr獎、2010年的PASCAL VOC終身成就獎、2012年的IEEE PAMI青年研究員獎、2012年《大衆科學》評選的“十位傑出科學家”之一、2013年美國國家科學院Kavli Fellow、2018年和2024年的Longuet-Higgins獎,以及因其代表性工作(如COCO數據集)獲得的Koenderink獎。

此外,他的論文在CVPR、ECCV和ICCV上多次獲得最佳論文提名及榮譽獎。他的研究成果對視覺識別、自動駕駛、和人機交互等應用產生了深遠影響,是該領域極具影響力的科學家之一。

CVPR’24論文鏈接:https://arxiv.org/abs/2309.05950

論文代碼:https://github.com/shihongl1998/LLM-as-a-blackbox-optimizer

項目網站:https://llm-can-optimize-vlm.github.io