00:00 - 00:03

大家好,今天是2025年2月7日

00:03 - 00:04

欢迎来到安格视界

00:04 - 00:07

春节期间 DeepSeek 突然爆火

00:07 - 00:09

用的人一多就出各种幺蛾子

00:09 - 00:11

官方的API也用不了

00:11 - 00:13

那就本地部署一个吧

00:13 - 00:16

研究了网上20多个本地部署教程

00:16 - 00:19

才有了现在这个 DeepSeek 本地 + API

00:19 - 00:21

最优部署的完整版

00:21 - 00:23

达到以下目标

00:23 - 00:26

1,本地部署 DeepSeek-R1/8b 模型

00:27 - 00:29

加API部署70B模型

00:29 - 00:33

再加API部署671B满血模型

00:33 - 00:36

2,所有模型都带完整的思考推理过程

00:36 - 00:39

3,网页版,无需安装软件

00:39 - 00:41

APP,全终端适配

00:41 - 00:44

4,联网搜索,大大提升实用性

00:44 - 00:47

5,公网访问过于方便

00:47 - 00:48

先看效果

00:48 - 00:50

这个是我已经部署好的

00:50 - 00:52

DeepSeek的交互界面

00:52 - 00:56

默认的是671B的满血模型

00:56 - 00:59

先给它切换到8B的本地模型

00:59 - 01:03

先给他来一道据说是微软的面试题

01:03 - 01:05

就是房间里面有三个开关

01:05 - 01:07

房间外面有三个灯泡

01:07 - 01:10

你只能通过开关来控制灯泡

01:10 - 01:14

但是你只能有一次机会出去检查灯泡

01:14 - 01:17

你怎么确定哪个开关对应哪个灯泡?

01:17 - 01:18

可以看到

01:18 - 01:20

部署在本地的8b模型

01:20 - 01:21

很快就开始思考了

01:22 - 01:24

思考的过程非常的详细

01:24 - 01:25

这里就快进了

01:27 - 01:29

但这个答案显然是错的

01:29 - 01:31

他是说将三个开关同时打开

01:31 - 01:33

然后依次关闭,来看

01:33 - 01:36

外面的灯泡依次的熄灭

01:36 - 01:39

以此来确定开关控制哪个灯泡

01:39 - 01:40

这显然不符合

01:40 - 01:43

只有一次机会来检查灯泡的条件

01:44 - 01:46

再来看70b模型的表现

01:46 - 01:48

他很快就进入了思考状态

01:48 - 01:51

输出了一大堆他的思考过程

01:51 - 01:52

拖到下面

01:53 - 01:55

可以看到他非常快的给出了答案

01:55 - 01:57

而且这个答案是正确的

01:57 - 01:59

就是先开一个开关

01:59 - 02:00

等几分钟

02:00 - 02:01

然后关掉

02:01 - 02:02

再开第二个开关

02:03 - 02:04

然后出去检查

02:04 - 02:05

没亮的灯泡

02:05 - 02:07

而且是有温度的

02:07 - 02:08

就是第一个开关控制的

02:08 - 02:11

一直亮着的就是第二个开关控制的

02:11 - 02:14

没亮而且没有余温的灯泡

02:14 - 02:15

就是第三个开关控制的

02:15 - 02:18

再切到满血版671B的模型

02:18 - 02:20

因为使用的人多

02:20 - 02:21

所以有点慢

02:21 - 02:23

但是也可以看到

02:23 - 02:25

这个满血版的671B的模型

02:26 - 02:27

也有思考过程

02:28 - 02:29

这里要稍微等一会

02:30 - 02:32

毕竟这个模型没有部署在本地

02:32 - 02:34

好,现在答案出来了

02:34 - 02:36

这个答案也是对的

02:36 - 02:39

接下来验证一下他的联网检索的能力

02:39 - 02:41

先切到本地的8B模型

02:41 - 02:44

然后问他5070能不能打过4090?

02:44 - 02:47

他又很快进入了思考状态

02:47 - 02:49

他这个推理过程就完全是错的

02:50 - 02:52

因为他的训练模型截止的日期

02:53 - 02:55

5070还没有半点消息

02:56 - 02:58

虽然他的结论有部分是正确的

02:59 - 03:01

但是他推论的依据是

03:01 - 03:04

5070是4090的上代产品

03:04 - 03:06

这个推论的依据显然就是错的

03:06 - 03:08

切到70B的模型

03:09 - 03:10

再问他同样的问题

03:10 - 03:12

5070能否打得过4090

03:13 - 03:15

这个结论虽然有部分是对的

03:15 - 03:17

但是他的推论是错的

03:17 - 03:22

他的依据还是5070是4090的上代产品

03:22 - 03:24

现在我们切回8B的模型

03:25 - 03:26

打开联网搜索

03:26 - 03:27

再试一次

03:27 - 03:29

这个搜索过程有点偏慢

03:29 - 03:31

这个软件还需要再优化一下

03:31 - 03:34

现在他已经搜索出了三个网站

03:34 - 03:35

然后开始思考

03:35 - 03:38

现在他的思考过程明显就靠谱的多

03:39 - 03:41

他的结论也基本没有什么问题

03:41 - 03:43

再来看70B的模型

03:43 - 03:44

打开联网搜索

03:45 - 03:47

发送同样的问题,这个搜索

03:47 - 03:48

要慢一点

03:48 - 03:49

稍等一会

03:49 - 03:51

就搜索出三个网站

03:51 - 03:53

然后进入思考的阶段

03:53 - 03:55

他思考也很快就出了结论

03:55 - 03:56

可以看出

03:56 - 03:57

通过搜索

03:57 - 04:00

结合 DeepSeek 的大模型

04:00 - 04:02

这个结果要可靠的多

04:02 - 04:04

拖入一个PDF文件

04:05 - 04:07

问他这个文件是什么内容

04:12 - 04:13

好,提交

04:15 - 04:17

他很快就开始思考

04:18 - 04:20

很快就给出了结论

04:20 - 04:24

他对PDF文档的理解也没什么问题

04:24 - 04:27

接下来我在8B的模型

04:27 - 04:29

让他写一个html的网页

04:30 - 04:33

祝大家开工大吉以及元宵节快乐

04:33 - 04:35

他的思考过程还算可以

04:36 - 04:38

只是到了写html代码的时候

04:38 - 04:40

有一小点翻车

04:40 - 04:43

这个交互界面比较牛逼的地方是

04:44 - 04:46

如果代码的内容可以直接预览的话

04:47 - 04:48

他就会直接预览出来

04:49 - 04:51

而不需要你复制成文件再去打开

04:52 - 04:52

说他翻车

04:52 - 04:54

是他在思考的时候

04:54 - 04:57

还考虑到受众是安格视界的粉丝

04:57 - 05:00

然后实际写html代码的时候

05:00 - 05:02

他却是祝安格视界自己

05:03 - 05:04

好吧,换个说法

05:04 - 05:06

让70B再试一下

05:07 - 05:07

可以看到

05:07 - 05:09

70B这个模型真是秒开啊

05:09 - 05:10

速度很快

05:11 - 05:13

这里我没有做裁剪和加速

05:13 - 05:16

他画的html的贺卡好不好看另说

05:17 - 05:18

但至少他没有翻车了

05:19 - 05:23

在这里就顺便 祝大家 2025 开工大吉

05:23 - 05:25

提前祝大家元宵节快乐!

05:26 - 05:28

验证一下公网访问

05:28 - 05:29

来到手机端

05:29 - 05:30

先把Wifi关掉

05:30 - 05:33

也没有开启任何VPN回家的方案

05:33 - 05:37

好刷新我部署的 DeepSeek 的交互网站

05:37 - 05:38

好,完全没有问题

05:39 - 05:41

切换一下 8B 的模型啊

05:41 - 05:43

随便问他:你好

05:46 - 05:47

好,能正常的回复

05:49 - 05:51

再切到70B的模型

05:52 - 05:53

点这个麦克风

05:53 - 05:56

允许,还带一个语音转换的功能

05:57 - 05:59

你会什么

05:59 - 06:01

语音识别也正常

06:01 - 06:02

只是繁体字

06:02 - 06:04

但问题不大

06:04 - 06:06

回复也是完全没有问题

06:07 - 06:10

那我的 DeepSeek 的本地部署

06:10 - 06:12

和API部署的架构

06:12 - 06:14

大概长这个样子

06:14 - 06:18

首先,我有一台长期稳定运行的 NAS

06:18 - 06:21

上面跑的是 Windows Server 2022

06:21 - 06:26

然后插了一块GTX1080/8G的显卡

06:26 - 06:29

这台 NAS DIY 的视频我也做了好几期

06:29 - 06:31

感兴趣的同学可以去看一下

06:31 - 06:34

然后我在上面部署了 Ollama 的

06:34 - 06:35

本地化的AI平台

06:36 - 06:39

下载了 DeepSeek 的 8B 蒸馏模型

06:39 - 06:41

然后在 Windows Server 上

06:41 - 06:45

通过 Docker Desktop 部署了 Open-WebUI

06:45 - 06:48

就可以连接Olama的DeepSeek的8B模型

06:48 - 06:52

Open-WebUI 也支持 OpenAI 的 API 格式

06:52 - 06:54

就可以很容易地连接

06:54 - 06:56

市面上第三方的AI平台

06:57 - 07:02

包括 Groq.com 提供的 DeepSeek 70B 的蒸馏模型

07:02 - 07:07

也可以连接 硅基流动 提供的 671B 的

07:07 - 07:09

满血版的 DeepSeek 的模型

07:10 - 07:12

然后我在路由器上部署了 lucky

07:13 - 07:17

就可以通过公网IP + DDNS + HTTPS反代理

07:18 - 07:22

将 Open-WebUI 的 内网IP 反代理成域名

07:22 - 07:26

有需要了解lucky的DDNS

07:26 - 07:28

https反代理的同学

07:29 - 07:31

可以去看一下我这期视频

07:31 - 07:32

这样局域网的电脑

07:33 - 07:34

就可以通过域名

07:34 - 07:37

访问 Open-WebUI 上面的大模型

07:37 - 07:39

公网中的手机和电脑设备

07:40 - 07:41

也可以通过域名

07:41 - 07:44

访问 Open-WebUI 上面链接的大模型

07:45 - 07:46

这个方案

07:46 - 07:50

其中 8B 的 DeepSeek 模型是免费的

07:50 - 07:55

Groq上70B的DeepSeek的模型也是免费的

07:55 - 07:57

硅基流动的671B的

07:57 - 07:59

满血版是要收费的

08:00 - 08:01

到这里还没完

08:01 - 08:03

我们要搞定联网搜索

08:03 - 08:07

就要在 Open-WebUI 里面配置搜索引擎

08:07 - 08:12

比如谷歌的CSE或者 duckduckgo 都可以

08:12 - 08:13

这样

08:13 - 08:17

这个 DeepSeek 的本地化和 API 部署的方案

08:17 - 08:18

才算完整

08:19 - 08:20

下面我们来实施本方案

08:21 - 08:22

实施本方案的一个前提

08:22 - 08:25

是要有全局的外网环境

08:25 - 08:27

关于如何在路由器中

08:27 - 08:29

设置上外网的环境

08:29 - 08:31

我做了很多期的视频

08:31 - 08:33

感兴趣的同学可以去刨一下

08:34 - 08:36

要在本地部署 DeepSeek

08:36 - 08:38

要先去下载 Ollama 平台

08:38 - 08:40

先到 Ollama 的官网

08:40 - 08:41

点击 Download

08:41 - 08:43

依据自己的平台

08:43 - 08:45

来下载 Ollama 的服务端软件

08:45 - 08:47

我这里下载就是 Windows

08:47 - 08:50

那点击 Download for Windows

08:50 - 08:51

好,开始下载

08:51 - 08:54

那现在就双击这个 OllamaSetup.exe

08:54 - 08:55

-

08:56 - 08:57

按照提示下一步

08:57 - 08:58

下一步去安装就可以了

09:01 - 09:02

现在

09:02 - 09:06

我们要改一下 Ollama 模型下载的路径

09:06 - 09:09

否则,它的模型都会放在c盘

09:10 - 09:11

我们在D盘创建一个目录

09:12 - 09:14

然后把这个路径复制下来

09:15 - 09:17

再打开系统属性

09:18 - 09:20

高级系统设置

09:23 - 09:24

环境变量

09:25 - 09:27

添加一个新的环境变量

09:27 - 09:31

变量值就填刚才的模型的路径

09:31 - 09:34

变量名就是这个大写的OLLAMA_MODELS

09:34 - 09:35

OLLAMA_MODELS

09:35 - 09:36

除此之外

09:36 - 09:38

还要再添加两个环境变量

09:40 - 09:44

一个是 OLLAMA_HOST 值就是 0.0.0.0

09:45 - 09:46

再新建一个变量

09:47 - 09:50

变量名就是 OLLAMA_ORIGINS

09:50 - 09:52

变量值就填 *

09:52 - 09:53

确定

09:53 - 09:56

接下来就要下载 DeepSeek 的模型

09:57 - 09:58

可以到它的官网上

09:59 - 10:03

然后 Model 再点这个 DeepSeek-R1

10:03 - 10:05

可以切换模型的大小

10:06 - 10:08

比如这里是14B那

10:08 - 10:12

右边就是下载的指令

10:12 - 10:14

可以复制这个指令

10:14 - 10:17

然后再到 Windows 里面去执行

10:17 - 10:21

那么自己的机器该下什么样的模型

10:21 - 10:23

大家可以依据自己的显存

10:23 - 10:25

参考一下这张表

10:25 - 10:27

然后再到命令提示符

10:28 - 10:30

执行 DeepSeek 的模型下载指令

10:31 - 10:32

出现这个界面

10:32 - 10:35

说明模型就已经安装成功了

10:35 - 10:37

随便打两个字测试一下

10:37 - 10:39

他能做出正常的回应

10:39 - 10:42

好,现在退出这个对话界面

10:42 - 10:44

接下来要在 Windows 的防火墙中

10:44 - 10:48

添加一条 11434 的 TCP 的端口

10:48 - 10:54

放行,这里选择端口 TCP 11434 下一步

10:55 - 10:56

允许连接

10:56 - 10:58

下一步,所有勾上

10:59 - 11:02

下一步,名称要取一个好记的

11:02 - 11:04

建议将端口放在前面

11:04 - 11:07

后面跟着 Ollama-TCP

11:08 - 11:09

点击完成

11:09 - 11:11

Ollama 的防火墙就配置完成了

11:12 - 11:14

接下来就要部署 Open-WebUI

11:14 - 11:14

11:14 - 11:19

如果是安装的是 Docker Desktop,Windows里面

11:20 - 11:22

那我们就要打开命令提示符

11:22 - 11:24

或者是 PowerShell

11:24 - 11:27

然后再将这串指令复制过去

11:27 - 11:29

然后执行就可以了

11:29 - 11:30

我这边已经安装好了

11:30 - 11:32

所以就不重复执行了

11:32 - 11:34

指令我会放在视频简介里

11:35 - 11:37

如果是在 Windows 里面执行

11:37 - 11:39

那么记得还要在防火墙里面

11:39 - 11:41

开一下 8082 的端口

11:41 - 11:42

方法跟刚才一样

11:43 - 11:46

那如果是 Linux 或者是 OpenWRT

11:47 - 11:49

那可以用SSH的工具连接上去

11:49 - 11:52

同样将这串指令复制过来

11:52 - 11:54

然后回车执行就可以了

11:55 - 11:57

然后打开浏览器

11:58 - 12:01

输入部署了 Open-WebUI 的地址

12:02 - 12:04

后面跟端口号就是8082

12:05 - 12:08

那首先它会要求你注册一个管理员

12:08 - 12:11

那随便输入一个邮箱和密码就可以登

12:11 - 12:13

录进来,那大概长这个样子

12:13 - 12:16

那说明 Open-WebUI 是部署完成了

12:17 - 12:19

接下来就要在 Open-WebUI 里面

12:19 - 12:22

配置 Ollama 的地址

12:22 - 12:24

那点击这个图标

12:24 - 12:29

然后管理员面板,设置,外部连接

12:29 - 12:32

那这里就可以看到 Ollama 的 API

12:32 - 12:34

那我这边已经配置好了

12:34 - 12:35

就是这个地址

12:36 - 12:39

那新的话,就直接添加一个新的

12:40 - 12:43

然后在这边输入 Ollama 的地址

12:43 - 12:45

以及后面的端口号

12:45 - 12:46

然后打开这个启用

12:47 - 12:48

然后点击一下验证

12:48 - 12:51

如果出现已验证服务器连接是绿色的

12:51 - 12:53

说明就成功了

12:53 - 12:54

保存

12:54 - 12:55

保存完了之后

12:55 - 12:58

在模型里面就就可以看得到本地的

12:58 - 12:59

这个这个模型

13:01 - 13:04

接下来要在 Groq 里面注册一个账号

13:05 - 13:07

要把他的 API 给他配进去

13:08 - 13:09

那注册账号完成之后

13:09 - 13:11

然后点击这个图标

13:12 - 13:13

就可以进入他的后台

13:14 - 13:15

这里第一次敲黑板

13:16 - 13:18

这个 Groq 的网站提供的模型

13:18 - 13:20

速度非常的快

13:20 - 13:23

但是他对机场节点的要求非常高

13:23 - 13:26

很多同学使用 Groq 的 API 接口

13:26 - 13:27

一段时间之后

13:27 - 13:28

账号就被封了

13:28 - 13:30

其中一个主要的原因

13:30 - 13:32

就是他的节点不够纯净

13:33 - 13:34

这里我提供一个简单的方法

13:34 - 13:37

来检查自己的节点是否纯净

13:37 - 13:39

打开 ip111.cn

13:40 - 13:43

这里就会显示你访问国内的地址

13:43 - 13:45

以及访问国外的地址

13:45 - 13:47

以及从国外访问回来的地址

13:47 - 13:48

这里有个前提条件

13:48 - 13:51

就是你要将 ip111.cn

13:51 - 13:54

和 Groq 放在同一个策略组

13:54 - 13:56

这样这里检测出来的IP

13:56 - 13:59

也就是你访问 Groq 的 IP

13:59 - 14:02

现在把这个IP地址复制下来

14:02 - 14:03

然后再打开

14:03 - 14:05

IP纯净度检测的网站

14:06 - 14:07

粘贴到这里

14:07 - 14:08

然后点击查询

14:09 - 14:12

这里显示我这个IP纯净度就很高

14:12 - 14:13

欺诈指数为0

14:13 - 14:14

用这样的节点

14:14 - 14:17

去访问一些有限制的网站

14:17 - 14:18

风险就会更低一些

14:19 - 14:21

如果你现在正在使用的机场

14:21 - 14:22

节点不够纯净

14:22 - 14:24

或者不稳定

14:24 - 14:25

可以考虑一下

14:25 - 14:27

UP正在深度使用的4个机场

14:27 - 14:30

除了牛逼机场建议作为备用外

14:30 - 14:32

其他三个机场

14:32 - 14:34

都可以作为主力机场使用

14:34 - 14:37

纯净度、稳定度和速度都是OK的

14:38 - 14:39

尤其是红杏机场

14:39 - 14:41

最近推出的IEPL专线

14:42 - 14:43

价格偏贵

14:43 - 14:45

但贵有贵的道理

14:45 - 14:47

我刚才测试的节点

14:47 - 14:49

就是红杏的IPEL专线

14:49 - 14:49

当然

14:49 - 14:53

我拿到了他们四个机场全网最低折扣

14:53 - 14:55

这里有两个坏消息要公示一下

14:55 - 14:58

第一个是牛逼机场的折扣券

14:58 - 15:02

在元宵节之后可能会由8折提升到9折

15:03 - 15:06

第二个是猫耳机场的折扣券

15:06 - 15:09

也可能会由6折提升到7折

15:09 - 15:10

甚至7.5折

15:11 - 15:12

我现在公公示出来的折扣

15:12 - 15:13

红杏5折

15:13 - 15:14

猫耳6折

15:14 - 15:15

快猫7折

15:15 - 15:16

牛逼8折

15:17 - 15:18

都是目前的折扣

15:18 - 15:20

以后会是个什么情况

15:20 - 15:21

谁也不知道

15:21 - 15:24

所以需要换机场的同学抓紧了

15:24 - 15:27

折扣券要进电报群领取

15:27 - 15:30

电报群我会公示在视频简介里

15:30 - 15:32

如果你访问 Groq 的网站

15:32 - 15:34

经常出现这样的提示

15:34 - 15:36

打开他的后台也是这样的提示

15:36 - 15:38

那建议你把机场换掉

15:38 - 15:41

如果能正常的访问 Groq 这个网站

15:41 - 15:43

那我们登录他的后台

15:43 - 15:45

然后再到 Api key 这里

15:46 - 15:48

然后创建一个 Api key

15:48 - 15:49

我这里已经创建好了

15:49 - 15:50

就不重复创建了

15:51 - 15:53

然后再回到 Open-WebUI

15:54 - 15:55

点这个图标,管理员面板

15:56 - 15:58

设置外部链接

15:58 - 16:03

然后添加一个 OpenAI API 的链接

16:03 - 16:04

那我这边已经添加好了

16:04 - 16:06

可以看一下 URL

16:06 - 16:07

地址就是这个

16:08 - 16:10

然后密钥就是刚才的Apik

16:10 - 16:12

把它复制过来就行了

16:12 - 16:14

然后点击一下这个

16:14 - 16:17

如果出现已验证服务器连接

16:17 - 16:18

说明就连接成功了

16:18 - 16:19

那模型这里

16:19 - 16:20

那建议

16:20 - 16:21

大家直接就使用这一个

16:21 - 16:24

然后在这里直接点+号就可以了

16:24 - 16:27

接下来配置一下 硅基流动 的API

16:28 - 16:30

那我们打开 硅基流动 的官网

16:30 - 16:32

然后去注册一个账号

16:33 - 16:34

如果已经注册好了

16:34 - 16:35

直接登录

16:35 - 16:37

登录完成可以看到余额

16:37 - 16:40

充值这边他应该会赠送14块钱

16:40 - 16:41

那我已经用了一点

16:41 - 16:43

那我还充了个20

16:44 - 16:47

然后在API密钥里面先去创建一个

16:47 - 16:50

API密钥创建完了之后

16:50 - 16:51

我们可以到模型的广场里面

16:51 - 16:52

可以看到

16:52 - 16:55

他已经有了这个 DeepSeek-R1 的模型

16:55 - 16:57

而且是满血版

16:57 - 16:58

全尺寸啊

16:58 - 17:00

671B,没问题

17:00 - 17:01

然后点击进去

17:01 - 17:05

可以看到他模型的名字

17:05 - 17:06

那他的收费呢

17:06 - 17:08

是输出是16块钱

17:09 - 17:10

百万 Token

17:11 - 17:12

那这边都搞好之后

17:12 - 17:14

然后再到管理员面板

17:14 - 17:18

一样的我们要添加一个 OpenAI 的 API key

17:19 - 17:20

那在这里呢

17:20 - 17:21

我已经添加好了

17:21 - 17:23

可以看一下,地址

17:23 - 17:24

这里要敲黑板了

17:25 - 17:26

我这边没有用

17:26 - 17:28

硅基流动 原版的 API地址

17:28 - 17:31

因为 硅基流动 原版的 API地址

17:32 - 17:36

在 Open-WebUI 上不会显示思考过程

17:36 - 17:36

那这边呢

17:36 - 17:39

也有个大神专门做了一个转发(地址转换)

17:39 - 17:42

然后就可以让思考过程完全可见的

17:42 - 17:42

R1

17:43 - 17:45

那他这边下面会有两个地址

17:45 - 17:47

一个是基础版的地址

17:47 - 17:49

一个是搜索版的地址

17:49 - 17:52

那我这边因为我自己配置了搜索引擎

17:52 - 17:54

所以我这边直接用的是基础版的

17:54 - 17:55

这个地址

17:55 - 17:56

那可以看得到

17:56 - 17:58

我这边用的就是这个地址

17:58 - 18:01

然后 Api key 就用硅基流动的

18:01 - 18:02

原版的 Api key

18:02 - 18:04

这里可以验证一下它的地址

18:04 - 18:06

那发现它有网络问题

18:06 - 18:07

那这个问题不用管它

18:07 - 18:08

它实际是可用的

18:08 - 18:10

只是检测异常

18:10 - 18:13

然后再把这个模型给它添加进去

18:13 - 18:16

然后就保存就可以了

18:17 - 18:19

好再到模型里面去看一下

18:19 - 18:21

如果完全配置正常的话

18:21 - 18:23

会显示这三个模型

18:23 - 18:25

一个是本地的8B模型

18:26 - 18:29

一个是Groq的70B的蒸馏模型

18:29 - 18:32

还有一个是满血版的617B的

18:32 - 18:33

硅基流动的模型

18:34 - 18:38

当然这些模型的名字和图标都可以换

18:38 - 18:41

比如可以点击这个编辑

18:41 - 18:43

然后这个名字你就可以在这里换

18:43 - 18:45

然后可以上传一个图片

18:46 - 18:49

然后保存并更新就可以了

18:49 - 18:50

那接下来呢

18:50 - 18:52

我们就要配一下 联网搜索

18:52 - 18:54

那点击这个 联网搜索

18:54 - 18:57

那我这边配置的搜索引擎是打开的

18:58 - 19:00

然后搜索引擎是 duckduckgo

19:01 - 19:03

这个搜索引擎

19:03 - 19:07

我之前配的是谷歌的PSE

19:07 - 19:07

那这个呢

19:07 - 19:08

相对有点麻烦

19:09 - 19:09

那我建议呢

19:09 - 19:12

就直接用这个 duckduckgo 就行了

19:12 - 19:16

然后搜索数量就按默认就就可以了

19:16 - 19:18

然后点击右下角的保存

19:18 - 19:21

那整个 Open-WebUI 的配置就完成了

19:22 - 19:24

好最后我们要配置一下 lucky

19:24 - 19:28

将这个 Open-WebUI 的内部IP地址

19:28 - 19:30

通过域名返代理出去

19:30 - 19:32

那 lucky 的详细配置

19:32 - 19:34

大家可以参考这一期视频

19:34 - 19:35

那我这边呢

19:35 - 19:37

只添加一个域名

19:37 - 19:38

打开这个 lucky

19:39 - 19:41

然后再到 WEB服务

19:41 - 19:42

拖到最下面

19:43 - 19:46

可以看到我这边已经部署了一个域名

19:46 - 19:49

然后指向了他内部的一个IP地址

19:50 - 19:51

这样配置之后

19:51 - 19:53

我们就能在公网的环境

19:53 - 19:55

访问 Open-WebUI 了

19:55 - 19:58

好的,以上就是本期视频的全部内容

19:59 - 20:00

如果有业务合作

20:00 - 20:03

或者需要付费技术支持

20:03 - 20:05

可以加我的电报联系我

20:06 - 20:08

如果你觉得我的视频质量不错

20:08 - 20:10

欢迎点赞、评论和转发

20:10 - 20:12

更欢迎赞助本频道

20:12 - 20:14

我们下个视频,再见!

Local Deployment of DeepSeek: Optimized Models, API Integration, and Web Interface Guide

In the tech world, 2025 has brought about a surge in the popularity of DeepSeek during the Chinese New Year. However, as users flock to the platform, various issues start to arise, including the unavailability of the official API. In response, enthusiasts have turned to local deployment solutions. After researching over 20 tutorials, a comprehensive deployment of DeepSeek with optimized models and API integration has emerged.

Title: A Comprehensive Guide to Local Deployment of DeepSeek with Optimized Models and API Integration

2025's DeepSeek has become a sensation during the Chinese New Year, prompting local deployment solutions with optimized models and API integrations for enhanced performance.

To set the stage, the deployment includes:

  1. Optimized Models: Implementing the DeepSeek-R1/8b locally, along with API deployment for the 70B model and the full-blooded 671B model.

  2. Enhanced Features: All models are equipped with detailed thinking and reasoning processes, offering a comprehensive user experience.

  3. Web Interface: The deployment caters to a web-based interface, ensuring cross-platform compatibility without the need for software installations.

  4. Online Search Capability: By enabling online search functionality, the practicality and convenience of the system have been significantly improved.

  5. Accessibility: Public web access has been facilitated, enhancing ease of use for a wider audience.

The interface showcases the smooth transition between models and the impressive cognitive processes involved. From tackling brain teasers to practical tasks like writing HTML code, DeepSeek exhibits both speed and accuracy in its responses.

The local 8b model quickly delves into analytical processes, although some strategic mishaps occur. In contrast, the 70B model shines in its reasoning abilities, delivering a correct solution promptly. The full-blooded 671B model, despite a slightly slower response time due to higher usage, continues to display thoughtful consideration and accurate results.

Testing the network search capabilities further confirms DeepSeek's prowess when combined with large-scale models. The system's ability to process voice commands, recognize speech, and interpret documents showcases its versatility and reliability.

The deployment architecture, involving a NAS server with a GTX1080/8G GPU running Windows Server 2022, aligns with the local and API-based setup. By leveraging Docker Desktop and Open-WebUI, the integration with external AI platforms like Groq.com and Silicon Mobility enhances the system's capabilities.

For online access, Lucky is deployed on the router to route the internal IP of Open-WebUI to a domain name, enabling both local and public accessibility. Additionally, setting up search engines like Google CSE or DuckDuckGo within Open-WebUI further enriches the user experience.

The detailed configuration steps highlight the importance of a stable external network environment and the significance of pure and reliable network nodes. Recommendations for optimizing external connections and utilizing premium network services ensure seamless performance with third-party AI platforms.

In conclusion, the local deployment and API integration of DeepSeek offer a glimpse into the future of AI technology. The meticulous setup, integration, and testing processes underscore the system's intelligence and adaptability. As the tech landscape evolves, DeepSeek stands as a prime example of innovation and efficiency, setting the stage for a new era of AI applications.

For tech enthusiasts and businesses seeking enhanced AI capabilities, the journey of local deployment and API integration with DeepSeek provides a roadmap to harnessing the full potential of advanced AI technologies in today's interconnected world.