微信扫码
与创始人交个朋友
我要投稿
LLM已经向我们展示了其强大的生成能力,但是当我们想提从生成的文本中提取结构化数据,确实遇到了非常大的挑战。
特别是在提取json格式时, 不仅要求模型输出符合特定的语法规则,还需要确保数据能被正确的提取出来。
下面将给大家介绍 lm-format-enforcer 这个款Json格式提取工具
比JSONFormer Outlines支持更多的能力。
目前已经成为了 vllm 作为 JSON 格式输出的后端之一.
支持批量生成和波束搜索 :每个input/beam 可以在每个时间步过滤不同的标记
支持 JSON 模式、JSON 模式(无模式)和正则表达式格式
支持 JSON 模式中的必需字段和可选字段
支持 JSON 模式中的嵌套字段、数组和字典
使语言模型可以自由控制 JSON 模式中的空格和字段顺序,从而减少幻觉。
支持 transformers, LangChain, LlamaIndex, llama.cpp, vLLM, Haystack, NVIDIA TensorRT-LLM and ExLlamaV2.
语言模型在每个时间步骤step,输出LLM的logits之后,在生成下一个token之前,通过设定的规则,只允许在给定的token的范围内采样,并通过添加bias的方式,不允许采样其他token,从而实现指定的结构化生成。
具体可以参考上图,分两步走:
创建Token词表的前缀树
依靠前缀树,约束Token按照指定结构输出
首先会根据 tokenizer 给出的词表,初始化一个字符级别的前缀树。
前缀树上某个节点对应某个token,该节点的第一个子节点连着这个token中的第一个个字符,下一个子节点,对应这token中的下一个字符。
当token中的字符遍历完了,这时候就是填入该token对应的 token id
这样整个token词表中的 token 和 token id 的映射都会通过这样的方式插入到前缀树中。
在初始化的时候,会接收用户指定的 json schema
接着在后续每一步生成过程中,会根据之前生成的内容,判断目前处于什么状态
然后根据当前所处的状态直接给出限定的字符集合。
from pydantic import BaseModel
from lmformatenforcer import JsonSchemaParser
from lmformatenforcer.integrations.transformers import build_transformers_prefix_allowed_tokens_fn
from transformers import pipeline
class AnswerFormat(BaseModel):
first_name: str
last_name: str
year_of_birth: int
num_seasons_in_nba: int
# Create a transformers pipeline
hf_pipeline = pipeline('text-generation', model='TheBloke/Llama-2-7b-Chat-GPTQ', device_map='auto')
prompt = f'Here is information about Michael Jordan in the following json schema: {AnswerFormat.schema_json()} :\n'
# Create a character level parser and build a transformers prefix function from it
parser = JsonSchemaParser(AnswerFormat.schema())
prefix_function = build_transformers_prefix_allowed_tokens_fn(hf_pipeline.tokenizer, parser)
# Call the pipeline with the prefix function
output_dict = hf_pipeline(prompt, prefix_allowed_tokens_fn=prefix_function)
# Extract the results
result = output_dict[0]['generated_text'][len(prompt):]
print(result)
# {'first_name': 'Michael', 'last_name': 'Jordan', 'year_of_birth': 1963, 'num_seasons_in_nba': 15
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-01
企业级 RAG 应用程序的终极工具包
2024-12-01
本地知识库,通过RAG来解决信息的精准生成
2024-12-01
比GraphRAG还好的LightRAG到底是何方神圣?
2024-12-01
LightRAG - 更快更便宜的GraphRAG
2024-12-01
全面解析LLM业务落地:RAG技术的创新应用、ReAct的智能化实践及基于业务场景的评估框架设计
2024-12-01
LightRAG:提升检索增强生成的效率与准确性
2024-12-01
深度解析比微软的GraphRAG简洁很多的LightRAG,一看就懂
2024-12-01
LightRAG:GraphRAG 的可替代方案
2024-07-18
2024-05-05
2024-05-19
2024-07-09
2024-06-20
2024-07-09
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-12-01
2024-11-27
2024-11-25
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27