前言Reor 是一款人工智能驱动的桌面笔记应用程序,它能自动链接相关笔记、回答笔记中的问题并提供语义搜索。所有内容都存储在本地,支持 Windows 、Linux 和 MacOS 。Reor 站在 Ollama 、Transformers.js 和 LanceDB 等巨头的肩膀上,使 LLM 和嵌入模型都能在本地运行。此外,还支持连接 OpenAI 或与 OpenAI 兼容的 API (如 Oobabooga )。
基本原理可以把 Reor 看作是一个有两个生成器的 RAG 应用程序:LLM 和我们人类。在问答的模式下,LLM 会从语料库中获取上下文来帮助回答问题。同样,在编辑模式下,人类可以切换侧边栏,显示从语料库中检索的相关注释。通过将当前笔记中的观点与语料库中的相关观点进行交叉引用,这种扩充的思维方式非常强大。 离线安装来到官方版本发布页 https://github.com/reorproject/reor/releases/,目前最新版本是 v0.2.6 ,根据自己的平台选择安装包下载 绑定本地嵌入模型要绑定本地嵌入模型(Embedding Model ),需要使用 Git Large File Storage (LFS) 从 Hugging Face 下载。 第一步安装git lfs ,来到官方网站下载 https:/// 傻瓜式进行安装,安装完毕后,打开 powershell ,输入 git lfs install 来验证一下是否安装成功 如果命令有如上的输出,说明安装好了。 第二步,去下载模型,这里以 Xenova/bge-m3 模型为例,仓库地址 https:///Xenova/bge-base-en-v1.5 git clone https:///Xenova/bge-m3
如果 git clone 连接不上服务器的话,可以通过下面这个方法 # 安装huggingface-cli命令行工具,包含在huggingface_hub库里,不仅可以下载模型、数据,还可以可以登录huggingface、上传模型、数据 pip install -U huggingface_hub
# 下载模型,支持续传,保存在本地文件夹bge-base-en-v1.5,即最后一个参数 huggingface-cli download --resume-download Xenova/bge-base-en-v1.5 --local-dir bge-base-en-v1.5
第三步进行绑定,来到 Settings --> Embedding Models --> Attach Local Model 选择刚刚下载好的模型文件夹 选择新的模型 可以开始向它提问了 参考资料
|