支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


直接拿大模型当搜索页(SERP)会怎样?

发布日期:2025-02-28 17:05:46 浏览次数: 1719 作者:Jina AI
推荐语

探索未来搜索技术的革新,大模型如何颠覆传统搜索引擎。

核心内容:
1. 大模型作为搜索引擎结果页(SERP)的创新思路
2. 用户对传统搜索与聊天式搜索界面的偏好变化
3. 大模型海量知识储备和数据覆盖率的优势分析

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

反其道而行 模型即搜索

自检索增强生成 (RAG) 技术兴起后,利用大型语言模型 (LLM) 改进搜索已成为行业共识。从 Perplexity 到 DeepSearch 和 DeepResearch,将搜索引擎结果融入 LLM 的内容生成过程已是业内普遍做法。

很多用户表示,现在已经不怎么用 Google 了,觉得传统的翻页搜索既麻烦又过时。相比之下,他们更喜欢聊天式的搜索界面,能够直接给出高精度、高召回率的结果,这似乎也代表了搜索的未来发展方向。

那么,直接拿大模型当搜索页(SERP)会怎样?

你可以像使用 Google 一样探索 LLM 内部蕴藏的知识,同样可以分页、点击链接,所有你熟悉的传统搜索元素都不少。但这一切完全由 AI 生成。 如果这个概念还不够直观,请先查看下方的演示。

标题、链接、摘要都由 LLM 生成。可以直接访问 jina.ai/llm-serp-demo 实际体验。

这个想法靠谱吗?

在大牛们纷纷举起手来要发表幻觉问题之前,我们先来给刚入门的小白们解释一下为什么这个思路不是 那么的 离谱。

首先是海量的知识储备,LLM 是在海量的网络知识库上训练的,已经“记住”了大量的互联网信息。例如,DeepSeek-R1、GPT-4、Claude-3.7 和 Gemini-2.0 等模型,都接受过来自公共互联网的数万亿 token 的训练。

其次是可观的数据覆盖率,粗略估计,领先的 LLM 已经学习了 1% 到约 5% 的高质量、公开可访问的网络文本。这个比例乍看似乎不高,但如果以 Google 的索引作为基准(视作世界上 100% 的用户可访问数据),那么 LLM 已经相当于一个小型搜索引擎所能提供的数据量了。

搜索引擎数据覆盖率 (以 Google 为 100%)
Google100%
Bing30-50%
百度5-10%
Yandex3-5%
Brave Search<1%
LLM (预估值)1-5% (高质量数据)

最后是记忆激活机制:我们可以通过巧妙的 Prompt Engineering (提示词工程),激活 LLM 的记忆,让他们能够像搜索引擎一样运行,并生成类似搜索引擎结果页 (SERP) 的结果。

诚然,LLM 作为 SERP 也面临着一些挑战,其中最突出的仍然是幻觉问题,即模型可能会生成不实或不准确的信息。但我们有理由相信,随着模型架构的不断演进和训练数据的日益丰富,幻觉问题终将得到缓解。正如在 X/Twitter 上,大家热衷于使用最新发布的 LLM 生成 SVG 图像,并亲眼见证生成质量不断提高一样,我们也对 LLM 理解数字世界的能力抱有同样的期待。

图片 4:基于浏览器的编码环境,显示了粉红色小猪的详细 SVG 创建,以及描述性文本和代码片段

知识截止日期是 LLM as SERP 的另一个重要局限。 理想的搜索引擎应该能够提供近乎实时的信息,但由于 LLM 权重在训练后被冻结,无法提供超出其截止日期的准确信息。

一般来说,查询越接近这个截止日期,就越容易出现幻觉。较早的信息可能已经被反复引用和修正,因此在训练数据中占据了更大的比重。(这里我们假设信息权重分配是均匀分布的,但实际情况中,突发的大新闻和头条们,即便离知识截止时间较近,也可能因其反复的曝光而在训练预料中获得高权重。)

但反过来说,这个局限恰恰启发了我们对他的应用场景:它可以被巧妙的用在回答模型知识范围内的问题。相当于我们打了个赌,赌用户的问题(或 DeepSearch 中的过渡问题)落不落在模型的知识截止日期之前,如果落在截止之内,且模型性能比较好(参考上面提到的 SVG 生成图片的例子),那么这个回答就是更有可能是正确的。如果落在截止时间之后,那么这个回答错误的可能性就要高一些。

LLM as SERP 究竟有何用?

DeepSearch/RAG 或任何依赖外部信息的系统中,一个绕不开的问题是:如何判断当前的问题能否通过 LLM 自身的知识来解答,还是必须借助外部信息才能解决? 目前常见的做法是采用基于提示词的路由策略,并配合类似这样的提示词:

- 对于问候、闲聊或常识性问题,直接回答,无需检索外部信息。
- 对于其他问题,提供基于外部知识验证过的答案,并给出精确引用 (exactQuote) 和对应网址 (url) 作为参考文献。

然而,这种方法也难免有所疏漏:有时会不必要地触发搜索,有时又会遗漏关键的信息需求。特别是一些较新的推理模型,往往要等到生成过程过半,才能判断是否需要外部数据。

那么,如果一开始就不分青红皂白的搜索呢?

我们可以同时调用真实的搜索引擎 API 和 LLM as SERP。这样就避免了前期进行路由决策的麻烦,可以把决策推迟到下游。在后续环节里,我们可以直接比较两者的结果:一边是来自真实搜索的最新数据,一边是 LLM 训练截止日期内的知识以及可能存在的偏差信息。

LLM-SERP 提供的搜索结果,会混合真实知识和虚构信息(也就是“幻觉”)。由于真实的搜索引擎提供的是基于事实的内容,加上 LLM 提供的半真实半虚构内容,总体来说,真实内容的占比会更高一些,所以后续的推理步骤就可以自然地偏重真实知识。

下一步 LLM 可以通过简单的总结来找出结果之间的矛盾和共识,并根据信息源的新鲜度、可靠性,来归纳真实信息。归纳总结这件事情,这种事情本来就是 LLM 的优势所在,所以我们无需将这些复杂的逻辑硬编码到提示词里。

当然,我们还能借助 Jina Reader 访问每个搜索结果的网址,通过访问网页来核实信息。这一步验证无论如何都省不掉,千万别只看搜索引擎提供的摘要,不管这个搜索引擎是真是假。

结论

通过使用 LLM as SERP,我们将“这是否在模型的知识范围内?”的二元问题转化为更可靠的证据加权过程。这样就避免了在 DeepSearch 系统中通过前置系统提示词来路由的需求。当然这个应用场景的假设逻辑链为:

  1. 大模型的训练预料相当于一个小型高质量搜索引擎。

  2. 大模型随着不断地发展,幻觉问题会减轻。而知识截止和幻觉问题相对独立,即一个完美的大模型,回答那些落在知识截止时间之前的问题应该零幻觉。在回答那些落在知识截止时间之后的问题,才会出现幻觉。

  3. 网上的信息也是亦真亦假,大模型的信息也是亦真亦假

  4. 在做搜索接地时(Search Grounding) 我们无需过度担心真假带来的问题,而只需要考虑召回率即可。总结的事情,即提升 Precision(精准率)的事情留给大模型去做。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询