近来国产AI大模型DeepSeek爆火出圈,登顶中俄AppStore下载榜,还在性能、性价比上碾压了ChatGPT和GoogleGemini等硅谷大鳄,直接杀入科技圈C位,成为现象级应用!

但是,不少男子伴在使用的时侯,时常会出现响应迟钝甚至宕机的情况

OllamaDeepSeek模型安装_DeepSeek本地部署教程_w3c linux

这可如何办?

庆幸的是,DeepSeek是一个开源模型,这意味着我们可以将它布署在自己的笔记本上,便于随时使用!

明天就跟你们分享一下,怎样将DeepSeek布署在你的笔记本上

Step1:Ollama环境搭建

首先我们须要安装Ollama,Ollama是一个用于本地管理和运行大模型的工具,还能简化模型的下载和调度操作。

步入Ollama官网()。

w3c linux_DeepSeek本地部署教程_OllamaDeepSeek模型安装

点击【Download】,选择适宜自己系统的版本(Windows/mac/Linux)。

w3c linux_OllamaDeepSeek模型安装_DeepSeek本地部署教程

下载后点击安装,等待安装完成即可。最好安装到C盘,安装在其它盘,否则安装后可能须要重新配置环境变量。

w3c linux_OllamaDeepSeek模型安装_DeepSeek本地部署教程

OllamaDeepSeek模型安装_DeepSeek本地部署教程_w3c linux

Step2:选择要安装的模型

接着返回Ollama官网,点击右上角的【Models】w3c linux,再选择【deepseek-r1】。

OllamaDeepSeek模型安装_DeepSeek本地部署教程_w3c linux

下拉可以见到多个参数版本,数字越大,模型参数越多,性能越强,对内存要求越高。

OllamaDeepSeek模型安装_w3c linux_DeepSeek本地部署教程

例如1.5b版本拥有15亿参数,内存要求相对较低(2G内存甚至核显也能跑),而更大参数的模型对内存要求自然水涨船高。

选中适宜你笔记本配置的版本(这儿以1.5b为例),复制页面中显示的命令

DeepSeek本地部署教程_w3c linux_OllamaDeepSeek模型安装

Step3:安装模型

在Windows系统中,按下【Win+R】弹出如下窗口

w3c linux_DeepSeek本地部署教程_OllamaDeepSeek模型安装

输入【cmd】,点击【确定】,打开命令行。

OllamaDeepSeek模型安装_w3c linux_DeepSeek本地部署教程

DeepSeek本地部署教程_w3c linux_OllamaDeepSeek模型安装

OllamaDeepSeek模型安装_w3c linux_DeepSeek本地部署教程

在命令行中粘贴刚刚复制的命令,按下回车键后,系统会手动开始下载模型。

w3c linux_OllamaDeepSeek模型安装_DeepSeek本地部署教程

等待下载完成即可。

下载过程中若发觉速率忽然变慢,试着关掉命令行再重新打开。

Step4:开始对话

下载完成后,你的笔记本就成功拥有了一个离线DeepSeek,即使断网也能使用。

此时,你可以直接在命令行里输入问题,与模型开始互动。

DeepSeek本地部署教程_w3c linux_OllamaDeepSeek模型安装

Step5:后续运行模型的小方法

每次死机后,上次想与DeepSeek聊天,你还得重复启动命令行,输入下载时的命令即可。

这一点要谨记:点击桌面的Ollama图标只是启动了软件,要想真正开始对话,还得用命令行来“喊话”。

再度按下【Win+R】,在弹出的窗口里输入【cmd】,点击【确定】打开命令行。

DeepSeek本地部署教程_w3c linux_OllamaDeepSeek模型安装

在命令行界面,输入刚才的命令【ollamarundeepseek-r1:1.5b】,即可开始对话。

DeepSeek本地部署教程_w3c linux_OllamaDeepSeek模型安装

假如你不习惯在命令行窗口上面对话,或则希望有个更美观的交互界面,可以考虑安装Open-WebUI。

不过这不是必须的,不熟悉笔记本操作的男子伴可以暂时跳过。

Step6:安装Docker

首先安装Docker。

步入官网(),下载并安装适用于你系统的Docker桌面版。

w3c linux_OllamaDeepSeek模型安装_DeepSeek本地部署教程

按步骤下载安装即可,安装完成后须要重启笔记本。

w3c linux_DeepSeek本地部署教程_OllamaDeepSeek模型安装

Step7:安装OpenWebUI

步入Open-WebUI官网()。

DeepSeek本地部署教程_OllamaDeepSeek模型安装_w3c linux

点击【GetOpenWebUI】,来到OpenWebUI的代码页。

下降找到【IfOllamaisonyourcomputer,usethiscommand】,点击左侧按键复制这个指令。

再度打开命令窗口,粘贴复制的命令,安装OpenWebUI即可。

Step8:运行OpenWebUI

安装完成后RED HAT LINUX 9.0,双击桌面上的Docker图标启动Docker,再点击图片里框选的端口,即可运行Open-WebUI。

接着点击左上角,选择模型,就可以开始对话啦。

DeepSeek本地部署教程_OllamaDeepSeek模型安装_w3c linux

注意事项:一定要进行本地布署吗?

OllamaDeepSeek模型安装_DeepSeek本地部署教程_w3c linux

本地布署听上去拉风,但并不是所有人都适用。

假如你使用AI的频度并不高,这么直接下载DeepSeekAPP或使用网页版,显然是更好的选择,由于它们使用上去更便捷。

布署DeepSeek到本地笔记本主要适用于以下情况

1.硬件条件充足

笔记本配置较高,尤其是拥有独立显存,才能满足较大模型的内存要求。

2.数据安全需求高

须要处理敏感或私密数据,不希望数据上传至云端。

3.高频调用任务

日常使用频度较高且调用API会形成较高成本linux视频教程,本地布署可以减少费用。

4.个性化订制需求

希望在开源模型基础上进行二次开发或订制调整w3c linux,满足特殊业务需求。

通过本地布署,男子伴们可以更好地保障数据安全、降低使用成本并实现多样化需求,如有须要,按着教程步骤试试吧~

Tagged:
Author

这篇优质的内容由TA贡献而来

刘遄

《Linux就该这么学》书籍作者,RHCA认证架构师,教育学(计算机专业硕士)。

发表回复