微信扫码
添加专属顾问
我要投稿
3、支持双向链接、关系图谱、标签等笔记索引功能。
4、开放的插件生态,高度可扩展
5、可跨平台同步
Obsidian 比较适合动手能力较强,喜欢折腾的用户。因为大量的高级功能,需要通过插件来实现。所以大家根据自己的情况选择。
接下来我们说如何给Obsidian 加上AI 功能。
前段时间我介绍了用ollama本地化运行llama3的方案。超简单在本地部署Llama3的方案。今天我们也要用到ollama。ollama本地部署后,通过服务提供API接口。(运行 ollama serve即可,默认开机自动启动)
我们通过Obsidian 插件就可以实现AI功能。在Obsidian设置->第三方插件->社区插件市场->浏览:
搜索copilot:
安装并启用插件。
然后在设置->第三方插件(copilot)中设置以下项:
1、Default Model ollama(local)
embedding models:本地文档embedding的模型可以选ollama-nomic-embed-text,(当然也可以用openai的)
ollama model:选择你用的大模型
推荐几个不错的:qwen:14b、wizardlm2:7b、llama3:8b
然后保存就可以生效。
注:这里用到的模型,需要先用“ollama pull 模型名称”命令下载。
接下来我们来体验一下:点击左侧菜单的copilot chat按纽,右侧会显示copilot面板,在输入框就可以进行提问。
在Mode Selection里有三个选项:
chat是直接和AI对话,就是上面的这种交互方式。
Long note QA是对当前文档进行问答
Vault QA是知识库问答。也就是用前面的embedding对所有的笔记进行索引,然后进行RAG回答。
总体来说,使用下来,体验并不如Notion那么丝滑,但是它也确实是解决了几个Notion的痛点,可以作为平替。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-04-02
2024-07-07
2025-02-02
2024-06-24
2024-04-27
2024-05-08
2024-06-06
2025-01-03
2024-04-02
2024-05-04