微信扫码
与创始人交个朋友
我要投稿
01
随着自然语言处理和深度学习的高速发展,向量检索为提升搜索用户体验发挥出重要作用,近似最近邻(ANN)搜索是在有限时空条件下实现向量搜索的主要方式。ANN的核心思想是近似,所有ANN算法都致力于在低规模计算开销下保证最后选择的邻居是查询向量的最近邻概率很高,但不追求100%的准确性。根据近似思路的不同,ANN检索算法主要分为四类:基于树的ANN算法、基于LSH的ANN算法、基于量化的ANN算法和基于图的ANN算法。接下来对本文涉及的几种ANN算法原理进行简要介绍。
△IVF_FLAT
IVF_FLAT:如上图所示,基于量化[2]的方案是通过一组特定的点来表示全部的向量空间,每个特定点代表一个子空间,它常与倒排索引相结合[3],首先对向量空间进行划分,每个数据点按照与其最近的子空间质心形成倒排拉链,这样每条倒排拉链对应一个子空间,拉链中元素为落在该子空间的向量id。检索时首先通过与质心的距离计算选取若干个子空间,然后只计算所选子空间内数据点与查询向量的距离,排序后得到最后结果,该思路被称作IVF_FLAT方案。
△IVF_PQ
IVF_PQ:除了借助向量量化选取子空间减少计算以外,量化对于ANN检索的贡献还在于可以使用量化点计算量化距离从而代替精确距离的计算,这样减少了计算但会带来精度损失,这就要求量化的精度不能太低。乘积量化[3](PQ)可以借助几组子向量器的质心,产生大量的质心,降低量化学习的复杂度。它与残差量化[4]相结合可以在有限的时空条件下提升整体量化的精度。基于乘积量化的IVF方案经典思路如上图所示,它是在构建时先对所有数据进行一次向量量化,根据这次向量量化的簇心形成倒排拉链,然后计算出所有数据与其质心的残差,然后再对残差进行乘积量化,记录对应其量化点的编码。检索时同样先与向量量化的质心计算决定候选拉链减少计算量,然后计算查询与质心的残差后对候选点进行距离计算,计算距离时是计算查询残差与候选点的量化距离,最后进行距离排序后返回检索结果,该思路被称作IVF_PQ方案。
Cagra[6]:基于图的ANN方案进行向量检索的过程都是通过图索引中点的邻接关系逼近到和查询向量点距离最近的若干个结果,图索引的构造和检索策略是基于图的ANN搜索方案研究的重点,需要考虑准召、搜索效率和空间开销等多方面因素。经过业界的不懈研究,以HNSW[5]为代表的诸多基于图的方案凭借优异性能都得到了广泛应用,但大部分的图算法在构建流程和检索路由过程中很难充分利用到GPU的并行能力,NVIDIA针对图算法这一挑战自研了名为Cagra[6]的基于GPU的ANN图算法,如上图所示。该算法以NN-descent[7]图为基础,然后借鉴NGT[8]的路径调整的思路对边进行剪枝,最后对剪枝后的正向图与对应的反向图各取一半的边进行合并,生成最终的Cagra图索引。检索过程维护一个top-M(M大于等于返回结果数目K)的列表和一个长度固定的候选列表,每轮迭代局部排序出距离最小的top-M并更新,然后将top-M的未被检索的邻居添加到候选列表中,直至top-M列表的节点都被遍历,然后选取top-K作为结果返回。Milvus[9]数据库就是借助Cagra算法实现了出色的性能加速。
02
在百度的某一类搜索业务场景下,对单次用户查询,会进行扩展检索以召回更多样化的相关结果。具体的业务场景需求:
03
3.1 索引算法选择
RAFT[1]代码库是NVIDIA设计开发的一套开源代码库,包含了可广泛应用于机器学习和信息检索场景的基本算法和原语,这些算法经过CUDA加速优化并可以通过构建块使编程简易化。它提供了四种GPU-ANN算法:BruteForce、IVF_FLAT、IVF_PQ和Cagra,这些算法都通过相同名称的顶层接口来实现索引的构建(build)、存储(serialize)、加载(deserialize)、检索(search),为用户的使用提供了便利,以IVF_FLAT为例:
//T为数据的类型,IdxT为数据id的类型
template <typename T, typename IdxT>
auto build(raft::resources const& handle,//资源句柄
const index_params& params,//构建索引参数
raft::device_matrix_view<const T, IdxT, row_major> dataset) //显存中存储的数据集
-> index<T, IdxT>;
template <typename T, typename IdxT>
void serialize(raft::resources const& handle,//资源句柄
const std::string& filename,//存储文件名
const index<T, IdxT>& index);//索引对象
template <typename T, typename IdxT>
index<T, IdxT> deserialize(raft::resources const& handle, //资源句柄
const std::string& filename);//加载文件名
template <typename T, typename IdxT>
void search(raft::resources const& handle,//资源句柄
const search_params& params,//检索参数
const index<T, IdxT>& index,//索引对象
const T* queries,//查询指针
uint32_t n_queries,//查询数目
uint32_t k,//每条查询返回结果数
IdxT* neighbors,//返回结果id的指针
float* distances,//返回结果距离的指针
rmm::mr::device_memory_resource* mr = nullptr) //可选的内存资源指针
我们对RAFT支持的四种算法进行了对比测试以找到适合我们场景最佳的算法选型,主要结论如下:
因此我们的场景下,最终选择采用 IVF_INT8 索引算法。
3.2 离线建库
std::shared_ptr<rmm::mr::device_memory_resource> resource_ptr = std::make_shared<rmm::mr::managed_memory_resource>();rmm::mr::set_current_device_resource(resource_ptr.get());raft::device_resourcesdev_resources(rmm::cuda_stream_per_thread, {nullptr}, resource_ptr);
索引调参
拉链长度控制:
IVF_INT8在构建阶段需要训练簇心,训练数据从构建索引数据中按一定比例获取,由kmeans_trainset_fraction参数控制。而构建多少条倒排链由n_lists参数决定,该建库参数影响着达到目标召回率时的检索计算量,因此需要调参以获得更佳的检索性能。
我们实践的经验规律是控制平均链长在一千到两千之间时,有较好的综合性能表现。
//DataT为输入数据的类型,MathT为实际进行kmeans的类型,IndexT为数据id的类型,MappingOpT为数据类型映射的类型template <typename DataT, typename MathT, typename IndexT, typename MappingOpT = raft::identity_op>void fit(const raft::resources& handle, //资源句柄 kmeans_balanced_params const& params, //kmeans平衡聚类所需的参数 raft::device_matrix_view<const DataT, IndexT> X, //训练数据集 raft::device_matrix_view<MathT, IndexT> centroids, //聚类中心 MappingOpT mapping_op = raft::identity_op()) //输入数据类型到计算数据类型的映射
3.3 在线检索
下图展示了我们所设计的基于GPU的ANN在线检索方案,通过batch检索来达到充分发挥GPU并行计算能力的目的。在上游查询到达时,查询将会放入查询队列中,检索线程会按照batchsize取出对应数量的query组成BatchQuery,并将其作为输入进行基于GPU的ANN检索。在检索过程中需要先将BatchQuery拷贝到显存中,然后在GPU上进行IVF_INT8算法检索,返回对应query顺序的BatchResult结果并将其从显存拷贝取出,检索服务模块对BatchResult按query拆分后进行算分、过滤等后置操作后返回结果到上游。
△在线检索方案
向量距离计算并行化 & 显存数据复用
基于实时流量统计的动态 batchsize 控制
整体上,通过借助RAFT代码中IVF_INT8算法的高效实现、动态batchsize控制和显存数据复用逻辑充分发挥了GPU的并行计算优势,使得检索服务单实例可以达到更高的查询的吞吐能力,降低了高流量场景下副本数,大大降低了所需成本。
3.4 达到的效果
根据上述方案实现并测试后,对2500w256维数据集构建索引,索引所占显存<10G,建库时间<10分钟,检索服务单实例在返回结果top30的条件下可以承载约2w qps,平均查询延时在ms级。在我们的高检索流量落地场景中,总成本相比于CPU方案分别可以节省30%~50%资源。
04
4.1 GPU在ANN检索场景的讨论
在ANN算法设计上,CPU方案可以进行步骤繁杂的流程,而GPU方案需要简化搜索逻辑,减少数据依赖和同步阶段,加强并行度以发挥GPU的高并发能力。所以对延时要求相对宽容、查询流量较高的场景更适合GPU方案。
对于大规模数据ANN在线检索场景,由于单实例资源有限,全部数据索引很难存放于同一个实例中,因此要对数据进行划分成若干个库层,查询会分发给每个库层进行检索得到局部结果后进行合并从而得到最终结果;另一方面,每个实例能够处理的流量也是有限的,因此根据上游下发的流量需要建立若干个副本共同承担查询流量。一个库种的检索成本与其库层数和每个库层的副本数高度相关。
对于低流量下的ANN在线检索场景,每个库层只需要少数副本,因为CPU资源足以承担计算,应用GPU只会浪费算力并放大GPU价格昂贵的缺点,导致总资源成本增加。而对于高流量下ANN在线检索场景,高流量所带来的巨额总计算量为GPU取代CPU创造了可能。因为CPU算力有限,基于CPU的ANN方案处理检索的能力也是有限的,因此需要对每个库层增添大量副本,这无疑会对成本造成极大的压力。虽然GPU的价格要比CPU昂贵,但如果能够有效发挥出GPU的并发处理计算能力,那么使用GPU替代CPU进行ANN检索势必能够实现高吞吐处理请求的效果,这样单副本可以承载更多的流量,从而减少每个库层的副本数节省资源。
4.2 未来展望
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-26
戴上眼镜的Kimi能力超强,领先 o1 和 Gemini
2024-12-21
Gemini 2.0 Flash Thinking:谷歌推出实验性多模态推理模型,在快速生成的同时展示详细的思考过程
2024-12-20
快手可灵1.6正式上线,他们又一次超越了自己。
2024-12-19
GPT-4o掀起全模态热潮!一文梳理全模态大模型最新研究进展
2024-12-19
国家电网发布国内首个千亿级多模态电力行业大模型
2024-12-19
初创公司 Odyssey 推出 AI 工具 Explorer了
2024-12-19
利用 Gemini 构建 PDF 文档 AI 管道:原理、实现与应用(含代码)
2024-12-18
一手实测豆包新发布的视觉理解大模型,他们真的卷起飞了。
2024-09-12
2024-05-30
2024-06-17
2024-08-06
2024-08-30
2024-06-14
2024-04-21
2024-06-26
2024-07-21
2024-07-07