推理时计算扩展:比扩展模型参数更有效的优化策略

Abstract让大语言模型(LLM)能够通过使用更多推理时计算来改进输出,是构建能够在开放式自然语言任务上持续自我改进的通用agent的关键一步。本文研究了LLM推理时计算的扩展规律,重点回答一个问题:如果允许LLM使用固定但非平凡的推理时计算量,它能在挑战性提示上将性能提升多少?我们发现,在许多任务上,适当地扩展推理时计算可以比扩展模型参数更有效地提升性能。这一发现为LLM的发展开辟了新的方向——不是一味追求更大的模型,而是让模型学会如何更好地”思考”。 Key Contributions 推理时计算扩展定律:首次系统性地研究了LLM推理时计算的扩展规律,揭示了在固定模型参数下,增加推理时计算如何影响性能 与参数扩展的对比:通过大量实验证明,在许多任务上,扩展推理时计算比扩展模型参数更有效且成本更低 多种扩展策略对比:评估了best-of-N采样、beam search、sequ...

阅读全文

大型语言模型是推理教师

论文概述本文提出了Fine-tune-CoT(思维链微调)方法,使用大型语言模型作为推理教师,使较小的模型具备复杂推理能力。通过从超大型教师模型生成推理样本来微调较小的模型,该方法将模型规模要求降低了几个数量级,同时实现了显著的推理能力。 论文信息: 发布时间:2022-12-20 作者:Namgyu Ho, Laura Schmid, Se-Young Yun 机构:KAIST 研究方向:提示工程, 大型语言模型推理 核心技术:知识蒸馏 研究背景大型语言模型在复杂推理任务上展现出强大的能力,但这些能力通常需要超过100B参数的模型才能涌现。本研究针对以下问题展开: 现有问题 复杂推理能力主要存在于超大规模模型中 小型模型在推理任务上表现不佳 缺乏将大模型推理能力迁移到小模型的有效方法 研究动机本研究旨在探索如何将大型语言模型的推理能力蒸馏到小型模型中,使得小型模型也能具备复杂...

阅读全文

© 2025 Generative AI Discovery All Rights Reserved.
Theme by hiero