微信扫码
与创始人交个朋友
我要投稿
大家好,我是刘聪NLP。
RAG已经成为了大模型落地的重要场景,那么如何retrieval到正确的证据片段变的十分重要。
目前一般采用采用向量匹配的方式来增加语义召回的结果。在METB榜单上,英文向量表征已被大模型(生成模型)占领,中文向量表征还是以BERT模型(编码模型)为主。
之前写过一篇大模型这么强,为什么不使用能LLMs直接进行文本表征?
大模型的训练方式都是基于文本续写形式来训练的,损失函数主要预测下一个Token是否准确,而不是判断整个句子表征的好坏。因此直接用当前的大模型来对文本进行表征,效果并不理想。
今天刷到一篇论文《Simple Techniques for Enhancing Sentence Embeddings in Generative Language Models》,主要就是通过提示工程的方法,来增加大模型的直接生成文本表征能力。
paper:https://arxiv.org/abs/2404.03921
是否还记得想当年的PromptBERT,用过增加提示模板的方法,来直接提高BERT模型的文本表征效果。而对于生成模型,利用[MASK]标记显然是不合理的,毕竟大模型在预训练阶段也没有涉及[MASK]标记。
那么如何更好地将生成模型预测下一个Token的方式,与生成一个向量的偏差更小呢?
主要设计了三种方式,将句子用一个“word”表示(PromptEOL)、用“something”表示(PromptSTH)或者说可以总结成什么内容(PromptSUM)。
从结果上来看,在直接生成向量时,PromptEOL方式效果更好,说明与与大模型本身预训练阶段更加吻合。
但相较于BERT模型直接生成向量来说,还是存在差距,
那是不是大模型直接生成向量的效果就是不理想呢?
参考COT和ICL方式,提出Pretended Chain of Thought(假思维链)和Knowledge Enhancement(知识增强)方法:
从结果上来看,通过提示词工程,不仅可以激发大模型的推理能力,大模型的向量表征能力同样可以被激发出来。
好了好了,这一篇有感而发贴(水贴)。
主要就是想表达,其实也许不是大模型直接表征能力不行,也许是真的没用对,一些巧思,往往可以有意想不到的结果。
PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注是我坚持的最大动力!
欢迎多多关注公众号「NLP工作站」,加入交流群,交个朋友吧,一起学习,一起进步!
我们的口号是“生命不止,学习不停”!
往期推荐:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-14
2024-04-26
2024-03-30
2024-04-12
2024-05-10
2024-07-18
2024-05-22
2024-05-28
2024-04-25
2024-04-26
2024-11-15
2024-11-14
2024-11-13
2024-11-13
2024-11-13
2024-11-12
2024-11-11
2024-11-08