微信扫码
添加专属顾问
 
                        我要投稿
LlamaIndex,将企业数据转化为生产级别的 LLM 应用。它具有以下主要特点:
数据集成:支持 160 多种数据源,包括非结构化、半结构化和结构化数据。可以无缝地将各种数据源集成到 LLM 应用中
索引:存储和索引数据,以满足不同的使用场景。LlamaIndex 可以与 40 多种向量存储、文档存储、图形存储和 SQL 数据库进行集成
查询:编排从prompt chain,RAG,agent的工作流
评估:提供全面的模块套件,用于评估 LLM 应用的性能
# 安装依赖pip install llama_index pyvis# 导入包from llama_index import (ObsidianReader, # 这个太赞了,可直接读obsidian文件LLMPredictor,ServiceContext,KnowledgeGraphIndex,)from llama_index.graph_stores import SimpleGraphStorefrom llama_index.storage.storage_context import StorageContextfrom llama_index.llms import OpenAIfilepath = '/path/to/your/obsidian/vault'# 初始化contextuse_context = {"temperature": 0,"model": "选择一个model,huggingface上找一个就行","chunk_size": 512}documents = ObsidianReader(filepath).load_data()llm = OpenAI(temperature=use_context['temperature'], model=use_context['model'])service_context = ServiceContext.from_defaults(llm=llm,chunk_size=use_context['chunk_size'])graph_store = SimpleGraphStore()storage_context = StorageContext.from_defaults(graph_store=graph_store)# 构建知识图谱indexindex = KnowledgeGraphIndex.from_documents(documents=documents,max_triplets_per_chunk=2,storage_context=storage_context,service_context=service_context,include_embeddings=True,)# 搞定,你可以实验一下跑的结果query = "写一段提示词,可以跟你本地的markdown文件内容相关的问题"query_engine = index.as_query_engine(include_text=True,response_mode="tree_summarize",embedding_mode="hybrid",similarity_top_k=5,)response = query_engine.query(query)
以上是一个简单的实现示例,实际应用中,可能需要根据情况进行调整和优化。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-31
Opera One升级内置AI 迎来智能助手新纪元
2025-10-31
LangExtract——大模型文本提炼工具
2025-10-31
用户测评|DeepSeek-OCR,你用了吗?
2025-10-31
从Palantir智能化技术路线看AI时代企业级架构平台的核心战略位置
2025-10-31
OpenAI 公开 Atlas 架构:为 Agent 重新发明浏览器
2025-10-31
Palantir 本体论模式:重塑企业 AI 应用的 “语义根基” 与产业启示
2025-10-31
树莓派这种“玩具级”设备,真能跑大模型吗?
2025-10-30
Cursor 2.0的一些有趣的新特性
 
            2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20