AI驱动的桌面笔记应用Reor

网友 竹林风 说,已经成功的用 mxbai-embed-large 映射到 text-embedding-ada-002,并测试成功了。不愧是爱折腾的人,老苏还没时间试,因为又找到了另一个支持 AI 的桌面版笔记 Reor

Reor 简介

什么是 Reor ?

Reor 是一款由人工智能驱动的桌面笔记应用:它会自动链接相关笔记、回答笔记中的问题并提供语义搜索。所有内容都存储在本地,您可以使用类似 ObsidianMarkdown 编辑器编辑笔记。

Reor 可以成为你的一款私人和本地的 AI 个人知识管理应用

主要特点

  1. AI 驱动的笔记管理Reor 自动链接相关笔记,支持语义搜索,并可以回答关于笔记的问题。

  2. 本地存储:所有数据都存储在本地,用户可以使用类似 ObsidianMarkdown 编辑器编辑笔记。

  3. 模型本地运行Reor 支持本地运行大型语言模型(LLMs),用户可以通过应用下载和运行模型,还可以连接到 OpenAI 兼容的 API

  4. 智能信息检索:应用通过向量数据库连接相关笔记,并提供基于检索增强生成(RAG)的问答功能。

  5. 易于导入和集成:用户可以手动将其他应用的 Markdown 文件导入到 Reor

Reor 的目标是增强用户的思维过程,帮助他们更有效地管理和利用知识。

核心功能

聊天

  • 你可以向整个笔记集提问,询问任何你想知道的内容!Reor 会自动为大型语言模型(LLM)提供相关上下文。

  • 例如,可以问:“我对哲学的看法是什么?”或“总结一下我关于黑洞的笔记”。

  • 在设置中,你可以连接本地 LLM 或使用你的 API 密钥连接到 OpenAI 模型。

  • LLM 可以被提供“工具”,如搜索、创建文件等。这能让 LLM 在你的知识库中更有效地执行任务。

  • 你还可以编辑提供给 LLM 的系统提示。

写作助手

  • Reor 内置了写作助手,可以帮助你进行写作。

  • 你可以通过在新行上按空格键或选择文本并点击出现的图标来触发它。

链接

  • Reor 会自动将你的笔记链接到“相关笔记”侧边栏中的其他笔记。

  • 你可以通过高亮特定文本并点击出现的按钮来查看与之相关的笔记。

  • 你也可以通过用两个方括号包围文本来创建行内链接(类似于 Obsidian)。[[像这样]]

你可以通过将 markdown 文件添加到你的库目录中,从其他应用导入笔记。请注意,Reor 仅会读取 markdown 文件。

下载及运行

Reor 的下载地址:https://www.reorproject.org/downloads

或者 https://github.com/reorproject/reor/releases

目前的更新迭代速度非常快,老苏下载了 windows

第一次运行

选择笔记库的目录后,直接点 Next

  • 嵌入模型:如果你的笔记多,而且以中文为主,建议改为 jina-embeddings-v2-base-zh,对中文支持可能更好。
  • LLM 暂时先不管,安装完成后可以再设置。

开始索引笔记

因为文件不多,还是比较快的

完成索引之后的主界面

设置

LLM

点左下角的小齿轮

进入设置 –> LLM 设置界面

支持三种模式:

  • Local LLM 模式。可以直接输入模型名称。这是在本地运行的,不过老苏觉得这种方式不太经济,尤其是你需要在多台电脑上同步笔记的情况下

可以指定参数,例如:qwen2.5:1.5b

  • Setup Cloud LLM API 模式。支持 OpenAIAnthropic,都只要输入 API key 就可以。云服务虽然简单,但是对国内用户不太友好

  • Setup a custom LLM API 模式。这种自定义模式适合自己安装了 AI 服务的玩家

这里假设你已经安装了我们需要用到的 One APIkimi-free-api,当然 One API 并不是必须的,你要是想省事,可以只安装 kimi-free-api

文章传送门:

  • API URL:用 One API 的地址,加上 /v1,例如:http://192.168.0.197:3033/v1
  • API Name:这是给 API 一个名字,例如:oneapi-kimi
  • Optional API Key:用 One API 的令牌;

  • Model Names:用 One API 的模型名称;

输入模型名称后,需要点后面的 Add

现在的设置界面

多个模型是可以切换的

本地的模型所在的目录

Embedding Model

Select Model 除了开始选择的默认的 UAE-Large-V1 外,还有其他的可选

但是说实话不太了解,不过从小字看,显然 jina-embeddings-v2-base-zh 更适合中文

另外,Custom Embedding Model 同样支持下载 huggingface 上的模型

例如老苏之前安装过的 M3E

需要注意的是,如果你更换了 Embedding Model ,会重新矢量化和索引笔记,所以笔记多的话,不建议随意切换

ChatBot

点右上角的 Show ChatBot

先试试 qwen2.5 ,随便问问

继续

再用 kimi,一次不合规,一次卡死

kimi-free-api 的日志看,提示词限定了只能从笔记里查询

出错的原因,也许因为短时间内密集的提交,或者 token 超了

缩小范围后,果然就可以了

所以可能还是本地模型或者 ollama 更适合,毕竟自己搭建的,能限制你的只有硬件配置,而不是其他的

老苏的台式机是很古老的第六代 i7,而且是板载的显卡,但毕竟比跑群晖的 NUC 还是强多了。所以本机跑 qwen2.5:1.5b 还是很快的

最后建议跟踪功能关闭掉

估计后续的一段时间,老苏会是 Obsiadian + Reor 的组合,因为笔记库是可以共用的,这弥补了 Reor 没有插件及其他方面的不足

参考文档

reorproject/reor: Private & local AI personal knowledge management app for high entropy thinkers.
地址:https://github.com/reorproject/reor

Reor
地址:https://www.reorproject.org/