前言

对于想要在本地或自托管环境中运行 LLM 的用户而言,Ollama 提供了一个无需 GPU、在 CPU 环境也可高效完成推理的轻量化 “本地推理” 方案。而要让 Ollama 真正 “接地气”,往往需要与其他开源项目进行配合——例如将文档、数据源或应用前端与 Ollama 打通,这便衍生出许多解决方案。

Ollama 简介

在进入对比之前,先简单回顾一下 Ollama 的定位和特性:

本地推理:
轻量易用:
量化优化:
发展活跃:

安装 Ollama 客户端

配置环境变量

Ollma可以像其他软件一样在电脑上完成一键安装不同的是建议按照实际需求配置下系统环境变量参数
默认的模型保存路径在C盘我们把路径更改到有更多可用空间的分区或目录可以更好地管理存储空间

用 Ollama 下载模型

首先我们需要安装 Ollama(https://ollama.com/),它可以在本地运行和管理大模型。

直接下载速度太慢,使用加速,GitHub Proxy 代理加速(https://ghfast.top/)【实测速度超快】:
https://mirror.ghproxy.com/https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe

接下来点击 Ollama 官网左上方的 “Models” 按钮,会列出支持的各种模型,目前最火的 DeepSeek-R1 排在显眼位置,点击进入主题页面:

点击进去后,查看各个模型,不同模型执行的命令不同,最后部分看你选择的参数模型。

7b命令:ollama run deepseek-r1:7b
1.5b命令:ollama run deepseek-r1:1.5b

DeepSeek R1 提供多个版本,参数量越大,模型通常越强大,但也需要更多的计算资源,比如 1.5B 代表有 15 亿个参数。
具体选择哪一个看你硬件设备了。

将本机的电脑配置发给 deepseek,看看它的推荐是哪个模型

选择好模型之后,点击右侧这个按钮,复制指令,这里是:ollama run deepseek-r1:1.5b

在 Windows 搜索栏输入 “cmd” 回车,唤出命令行窗口:

黏贴运行刚才复制的命令,开始下载,1.5b 模型容量大约 1.1GB,请保持网络畅通:

当界面出现 success 显示安装成功。输入 “你是谁”,看到 deepseek 的回答。

AnythingLLM、Dify、Open-WebUI 简介

AnythingLLM

主要功能:
对接 Ollama 思路:
适用场景:

Dify

主要功能:
对接 Ollama 思路:
适用场景:

Open-WebUI

主要功能:
对接 Ollama 思路:
适用场景:

接入 Ollama 的异同

在了解了三款工具的基本定位后,再来看看它们在接入 Ollama 时,有哪些不同之处,以及各自的优势与局限性。

从上表不难看出:

选择 Anything LLM

安装 Anything LLM


AnythingLLM 配置



上传文件

点击按钮开始添加文档,并将文档 Move to Workspace,然后点击 Save and Embed,出现 Workspace updated successfully 就表示配置已经完成。

验证效果

参考资料

https://mp.weixin.qq.com/s/9CqtqRZba3M4R74RkDJwCA
https://mp.weixin.qq.com/s/JUe73lGnnXv-13B8oME_Rg
https://blog.csdn.net/weixin_40280870/article/details/145275600
https://blog.csdn.net/yunfanleo/article/details/144332548
https://mp.weixin.qq.com/s/NuoeidtJKMx6rm0mwKz54w
https://ghproxy.link/


↙↙↙阅读原文可查看相关链接,并与作者交流