大型语言模型(LLM)在面对精确计算时常常会产生“幻觉”,我们如何能既保留其强大的推理能力,又确保计算结果的绝对准确?本文提出了一种精妙的解决方案:基于“暂停推理”的外部计算。与传统的“中断”后需要重建上下文不同,该方法通过在推理流中引入
<CAL-C>
和<RESULT:value>
等特殊Token,实现了推理过程的无缝暂停、外部精确计算、以及计算结果的即时整合。这不仅是一种解决计算问题的有效策略,更为未来将LLM与任意外部函数(如API调用、数据库查询)进行深度、有状态的结合,提供了一个极具前景的实现范式。