AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


LLocalSearch:完全本地化的搜索Agent助手,自动整理全网搜索结果,已开源可立即体验!
发布日期:2024-04-12 12:15:46 浏览次数: 1819


项目简介

LLocalSearch是一个完全本地化运行的搜索聚合器,采用LLM(大型语言模型)Agent进行工作。用户可以提出问题,系统将通过一系列LLM找到答案,并且用户能够看到Agent的进展和最终答案。


该项目的特点是不需要OpenAI或Google的API密钥,保证了搜索过程的隐私性和安全性。此外,LLocalSearch支持跟进问题,具备完全本地化操作的特性,无需通过外部API进行数据处理,为用户提供了一个既方便又安全的本地搜索服务




Demo



特点

·?️ 完全本地化(无需API密钥) 

·? 可在“低端”大型语言模型硬件上运行(演示视频使用了一个7b模型) 

·? 进度日志,让搜索过程的理解更加深入 

·? 提出后续问题 

·? 移动友好界面 

·? 通过Docker Compose快速且易于部署 

·? 网络界面,允许从任何设备轻松访问 

·? 手工制作的UI,具有明暗模式


自托管与开发

1.需求 

·一个运行中的Ollama服务器,容器能够访问到GPU不是必需的,但推荐使用 


·确保Ollama不仅仅在localhost上监听,而是在所有接口上监听(或至少是docker网络上)。如果你在docker内使用ollama,那么你不需要更改任何设置。


·Docker Compose 


2.运行最新发布版 

如果你不打算在这个项目上进行开发,这是推荐的代码

git clone https://github.com/nilsherzig/LLocalSearch.gitcd ./LLocalSearch# ? check the env vars inside the compose file (and `env-example` file) and change them if neededdocker-compose up

? 你现在应该能够在 http://localhost:3000 上打开网络界面。默认情况下,没有其他内容被暴露。


3.运行当前的git版本

具有更新的特性,但可能稳定性较差。

git clone https://github.com/nilsherzig/LLocalsearch.git# 1. make sure to check the env vars inside the `docker-compose.dev.yaml`.# 2. Make sure you've really checked the dev compose file not the normal one.
# 3. build the containers and start the servicesmake dev # Both front and backend will hot reload on code changes.

如果你没有安装make,你可以手动运行Makefile内的命令。

现在,你应该能够在 http://localhost:3000 访问前端界面。







53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询