当前位置: 首页 > news >正文

LLM什么时候才能输出固定格式

转载原文地址

基于概率统计建模,llm展示了非凡的潜力。但是同样由于token的概率性输出,成为llm落地的一个小绊脚石。这里讨论一下几种常见的让llm规范输出目标格式内容的方法,不清楚当前最新研究进展是否有突破。

万能prompt大法

通过在prompt里面指定写明"要求json格式,不要多余输出","输出格式严格要求{xxx: xxx, yyy: yyy}"等等。得益于目前llm日渐提升的指令遵循能力,构造一个好的Prompt能大概率生成JSON格式或者其他指定格式的输出。

推理后处理方案: 正则表达式

很多时候llm依然会掺杂一些无聊的车轱辘话:"好的,我将严格遵循json规范输出,结果为{xxx: xxx, yyy: yyy}",这个时候可以选择使用正则表达式匹配进行后处理,提取出所有文本中有json内容的部分。

推理中处理方案: 动态限制解码

如果一定要100%要求json,容不得一点点差错,可以考虑动态限制解码。

在模型推理输出每一个token的时候,动态调整输出词的概率,比如模型第一个词打算开始输出车轱辘话"好的,我将遵循……"的"好"字时候,我们直接将"{"字符的概率拉到100%,让模型强制输出json的第一个字符,后续解码的时候,如果采样输出的token会导致json不合法,就降低该token的概率,提高使json合法的概率的token的概率。

不过似乎了解到,这种方案会一定程度降低模型智能,而且需要自己部署llm来token级别的控制,稍有些麻烦。

此外,llm的安全性输出也可以考虑这种方案,如果模型输出的内容可能产出违禁词,那么就强制修改token的概率,避免生成违禁词。

http://www.fuzeviewer.com/news/474/

相关文章:

  • 《程序员修炼之道》 阅读笔记三
  • 第四篇:docker底层原理
  • 关于springboot+Servlet报错404的问题
  • Codechef Painting Tree 题解 [ 蓝 ] [ 树形 DP ] [ 概率期望 ] [ 分类讨论 ]
  • 【CI130x 离在线】如何运行 curl 脚本
  • 这才是真正的AI NAS!极空间私有云Z2Ultra评测
  • 新东方第三节课名言作文
  • 十月阅读_3
  • 中考_体育
  • 常见问题处理 --- phpstudy启动mysql失败
  • 20232308 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 【密码学实战】openHiTLS PKCS12命令行程序: PKCS12文件生成与解析
  • 「CTSC2017-游戏」题解
  • vue3 vue3-form-element表单生成工具 输入框增加后缀
  • 20232402 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 掘金2025年:数字化商业浪潮下,如何选对平台与伙伴?一站式多商户商城系统推荐榜发布,多商户商城代理招募/多商户项目合伙人加盟/一站式开店代理项目加盟
  • 为医疗器械行业搭建“数字桥梁”,破解协同效率与合规难题
  • PostgreSQL 服务版
  • 20232307 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 2025年10月办公家具公司评价榜:基于真实数据的权威推荐清单
  • vue+antv/x6项目使用问题
  • 《程序员修炼之道:从小工到专家》前五分之一观后感
  • 坐标系与投影关系
  • 用gdb的动态视角看ret2text的实现
  • 1027随笔
  • ask_skill
  • SVN 主分支合并之通过主分支合并子分支执行流程
  • 现代c++编程体验2
  • 化繁为简:解密国标GB28181算法算力平台EasyGBS如何以兼容性与易用性赋能安防集成
  • 计算机毕业设计springboot音乐畅听系统 基于Spring Boot框架的智能音乐播放系统编写 Spring Boot驱动的音乐在线欣赏平台构建