Command Palette
Search for a command to run...
Jamison Meindl Yunsheng Tian Tony Cui Veronika Thost Zhang-Wei Hong Jie Chen Wojciech Matusik Mina Konaković Luković

摘要
昂贵的、无导数的黑箱函数全局优化对样本效率要求极高。传统方法如贝叶斯优化(Bayesian Optimization, BO)虽具有效性,但通常需针对具体应用领域进行细致的参数调优。与此同时,大语言模型(Large Language Models, LLMs)展现出广泛的能力,但当前最先进模型在求解连续黑箱优化任务方面仍存在局限。本文提出 GPTOpt,一种基于大语言模型的优化方法,使 LLM 获得处理连续黑箱优化任务的能力。通过在由多种贝叶斯优化参数化生成的大量合成数据集上对大语言模型进行微调,GPTOpt 利用 LLM 的预训练知识,实现对不同优化任务的泛化能力。在多个黑箱优化基准测试中,GPTOpt 均超越传统优化器,充分展示了大语言模型在高级数值推理方面的潜力,并为无需参数调优的全局优化提供了一种灵活的框架。