当前位置: 首页 > news >正文

LLM什么时候才能输出固定格式

转载原文地址

基于概率统计建模,llm展示了非凡的潜力。但是同样由于token的概率性输出,成为llm落地的一个小绊脚石。这里讨论一下几种常见的让llm规范输出目标格式内容的方法,不清楚当前最新研究进展是否有突破。

万能prompt大法

通过在prompt里面指定写明"要求json格式,不要多余输出","输出格式严格要求{xxx: xxx, yyy: yyy}"等等。得益于目前llm日渐提升的指令遵循能力,构造一个好的Prompt能大概率生成JSON格式或者其他指定格式的输出。

推理后处理方案: 正则表达式

很多时候llm依然会掺杂一些无聊的车轱辘话:"好的,我将严格遵循json规范输出,结果为{xxx: xxx, yyy: yyy}",这个时候可以选择使用正则表达式匹配进行后处理,提取出所有文本中有json内容的部分。

推理中处理方案: 动态限制解码

如果一定要100%要求json,容不得一点点差错,可以考虑动态限制解码。

在模型推理输出每一个token的时候,动态调整输出词的概率,比如模型第一个词打算开始输出车轱辘话"好的,我将遵循……"的"好"字时候,我们直接将"{"字符的概率拉到100%,让模型强制输出json的第一个字符,后续解码的时候,如果采样输出的token会导致json不合法,就降低该token的概率,提高使json合法的概率的token的概率。

不过似乎了解到,这种方案会一定程度降低模型智能,而且需要自己部署llm来token级别的控制,稍有些麻烦。

此外,llm的安全性输出也可以考虑这种方案,如果模型输出的内容可能产出违禁词,那么就强制修改token的概率,避免生成违禁词。

http://icebutterfly214.com/news/474/

相关文章:

  • sg.绑定键盘事件
  • 壁纸收集
  • Windows11安装miniconda
  • 10.27 CSP-S模拟40 改题记录
  • 详细介绍:Redis多租户资源隔离方案:基于ACL的权限控制与管理
  • 20251027周一日记
  • 学校协同云盘怎么选?2025年10大热门教育网盘推荐与对比
  • GPU集群之间的交互
  • CF1267G Game Relics
  • 102302115方朴第一次作业
  • 解题报告-梦熊 CSP-S2025 模拟赛T2
  • 鄙“站”麻将和算24,刷新后会换
  • 20232422 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 20232404 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 「WC2014-紫荆花之恋」题解
  • 谢谢你周医生
  • 来源未知
  • Date 10.27
  • 10.27及动手动脑
  • go包装bing搜索
  • 鼾声识别芯片方案和睡眠产品的应用场景
  • 2025年工程管理软件公司综合推荐榜:助力建筑行业数字化升级
  • Excel高性能异步导出完整方案!
  • 2025年多功能综合杆厂家排名前十推荐
  • 2025年度在线网站客服系统综合排行榜正式发布
  • JDD Oxygen智能零售论坛 | 《大模型时代的广告营销变革与实践》
  • 2025年市面上新加坡留学品牌、行业内公司及口碑产品推荐排行
  • 11-文件上传
  • TensorFlow与PyTorch深度对比分析:从基础原理到实战选择的完整指南 - 指南
  • Navicat 17 超详细保姆级下载安装教程:附激活工具使用步骤​