00:00 - 00:01

大家好欢迎来到向北的频道

00:01 - 00:03

今天我们就来和大家分享

00:03 - 00:04

在自己的电脑上面

00:05 - 00:08

直接免费部署deepseek r1模型

00:08 - 00:10

做到真正的本地化使用

00:10 - 00:12

无需网络也能够使用

00:12 - 00:16

我们一次搭建全家的设备都能够用

00:16 - 00:17

那现在我们就开始吧

00:18 - 00:19

好那现在我们就来开始

00:19 - 00:21

因为我自己是已经测试过了

00:21 - 00:24

在Windows上面以及在Mac电脑上面

00:24 - 00:25

它们的操作

00:25 - 00:27

基本上都是一模一样的

00:27 - 00:27

所以

00:27 - 00:30

我们今天就以Windows这个分享为例

00:30 - 00:31

那后面

00:31 - 00:34

如果Mac电脑和Windows有一些区别的话

00:34 - 00:36

我会特别的说明

00:36 - 00:37

00:37 - 00:40

那首先我们先来打开这个网站

00:40 - 00:43

在浏览器里面输入ollama .com

00:43 - 00:46

进入到这个网站来下载安装这个ollama

00:46 - 00:48

那ollama是什么

00:48 - 00:49

我们可以理解

00:49 - 00:53

它是一个大模型的启动器

00:53 - 00:53

有了它

00:53 - 00:57

我们才可以正常的在电脑上面来运行

00:57 - 01:00

我们下载好的这个大模型

01:00 - 01:01

那么这个olllam

01:01 - 01:04

它是一个完全开源免费的工具

01:04 - 01:07

好那首先我们来进入这个网站

01:07 - 01:08

然后点击DOWNLOAD

01:08 - 01:10

然后我们可以看到

01:10 - 01:13

ollama它是有Mac OS版

01:13 - 01:15

也有Linux版以及Windows版

01:15 - 01:17

那我们今天下载的是Windows

01:17 - 01:19

所以点击这里

01:19 - 01:20

那如果你是其他的电脑

01:20 - 01:21

选择对应的版本即可

01:21 - 01:24

OK那我们下载这里的Windows版

01:24 - 01:24

点击下载

01:26 - 01:27

好那下载好以后

01:27 - 01:28

大家可以看到

01:28 - 01:29

这个就是ollama的

01:29 - 01:31

这个工具的安装包

01:31 - 01:33

我们直接双击它来安装

01:35 - 01:36

好点击这里的install

01:37 - 01:38

然后我们就耐心

01:38 - 01:40

的等待它安装完成即可

01:42 - 01:44

好那安装完成以后

01:44 - 01:44

大家看一下

01:44 - 01:46

在电脑的右下角这里

01:46 - 01:48

弹出来了一个通知

01:48 - 01:49

ollama is running

01:49 - 01:51

也就代表这个ollama

01:51 - 01:53

现在是已经正在运行了

01:53 - 01:54

我们可以把它关掉

01:54 - 01:55

然后

01:55 - 01:57

可以在这个最小化这里可以看到

01:57 - 01:59

有这个ollama的这个图标

01:59 - 02:01

表示我们现在这个工具

02:01 - 02:03

是正在运行的状态

02:03 - 02:04

然后

02:04 - 02:08

现在我们再次打开这个网页

02:08 - 02:10

进入到这个ollama的网站

02:10 - 02:12

点击这个models

02:12 - 02:15

模型那我们可以看到

02:15 - 02:17

这里面有很多的模型

02:17 - 02:20

其实你都可以去安装部署的

02:20 - 02:21

那我们今天

02:21 - 02:24

主要是部署的这个deepseek r1模型

02:24 - 02:25

我们就选择它

02:25 - 02:26

如果你没找到的话

02:26 - 02:28

也可以在这里来进行搜索

02:28 - 02:29

OK那我们点击它

02:30 - 02:32

点击以后

02:32 - 02:33

我们就可以看到

02:33 - 02:36

然后你也可以把它翻译成这个中文

02:36 - 02:39

可以看到这个deepseek r1的介绍

02:39 - 02:42

它是deepseek 第一代推理模型

02:42 - 02:43

它的性能

02:43 - 02:46

已经与open AI o1相当了

02:46 - 02:46

02:46 - 02:49

那更多的话大家可以自行的去了解

02:50 - 02:51

然后

02:51 - 02:53

我们来点击这里的这个下拉框

02:53 - 02:54

可以看到

02:54 - 02:57

这里有不同的量化版本的这个模型

02:57 - 03:00

那么最小的是1.5B

03:00 - 03:01

然后有7B

03:01 - 03:03

8B等等

03:03 - 03:04

那么这个b

03:04 - 03:08

代表的是英文单词的billion的意思

03:08 - 03:10

最大也就是完整版

03:10 - 03:14

有671B那么对于我们个人电脑来说

03:14 - 03:15

我们想都别想

03:15 - 03:18

我们可以根据自己的电脑配置

03:18 - 03:21

来选择不同大小的这个版本

03:21 - 03:22

那每一个版本

03:22 - 03:23

你可以看到后面

03:23 - 03:26

它有对应占用的这个存储空间

03:26 - 03:27

像这个最小的1.5B

03:27 - 03:29

它占用1.1 g b

03:29 - 03:33

7B它占用4.7 g b的这个存储空间

03:33 - 03:34

那么这个时候

03:34 - 03:36

有的朋友可能就会问了

03:36 - 03:37

我到底应该选择哪个

03:38 - 03:38

实际上

03:38 - 03:41

我们根据自己的电脑配置情况

03:41 - 03:43

可以选择不同的这个量化版本

03:43 - 03:45

你的电脑配置越高越强

03:46 - 03:48

那么你可能选择的这个越大

03:48 - 03:50

如果说你是普通的电脑

03:50 - 03:51

或者说配置低一点

03:51 - 03:53

那么你就选择小一点的

03:53 - 03:53

那在这里

03:53 - 03:55

我列了一个表

03:55 - 03:57

这个表也是deepseek生成的

03:57 - 03:58

大家可以参考一下

03:59 - 04:01

好那我们来看一下这个表格

04:01 - 04:02

这个表格

04:02 - 04:05

有不同的模型所对应的这个电脑配置

04:06 - 04:08

有Mac电脑的这个配置参考

04:08 - 04:10

以及Windows电脑的配置参考

04:10 - 04:12

你可以根据不同的模型

04:12 - 04:14

给出的这个电脑的配置

04:14 - 04:18

来选择你到底要部署哪个模型

04:18 - 04:20

那在这里要特别说明的就是

04:20 - 04:22

AI给出的这个配置参考

04:22 - 04:24

都是最低的配置

04:24 - 04:26

也就是说我们想要用的爽的话

04:26 - 04:27

至少我们的电脑

04:27 - 04:31

要在当前它这个参考的配置之上

04:31 - 04:32

好那下面

04:32 - 04:34

我们就来选择一个模型来部署

04:34 - 04:35

那要说的就是

04:35 - 04:36

模型越大

04:36 - 04:38

它肯定是越聪明的

04:38 - 04:40

你像这个1.5B的模型

04:40 - 04:42

你想要它聪明那是不可能的

04:42 - 04:44

它可能就是满足一些

04:44 - 04:45

基础的对话呀

04:45 - 04:49

和你一些简单的一些问题的一个回答

04:49 - 04:51

那像这个7B 8B

04:51 - 04:52

14B

04:52 - 04:54

像我们日常的一些简单的使用

04:54 - 04:55

应该都是可以满

04:55 - 04:55

足的

04:55 - 04:58

那如果说你有更强的这个推理需求

04:58 - 04:59

可能需要

04:59 - 05:01

部署一些更大的模型

05:01 - 05:05

甚至你要使用这个完整版的模型了

05:05 - 05:08

然后你根据自己的电脑配置

05:08 - 05:10

选择好了哪个模型以后

05:10 - 05:11

你直接点击它

05:11 - 05:12

你点击以后

05:12 - 05:15

这里就会生成一个对应的命令

05:15 - 05:15

实际上

05:15 - 05:18

就是后面的这个模型的名称的变化

05:18 - 05:18

你比如说

05:18 - 05:21

我现在选择给我的电脑

05:21 - 05:23

要部署这个7B的这个模型

05:23 - 05:24

因为我的电脑配置

05:24 - 05:25

也很一般

05:25 - 05:27

那我就选择7B好

05:27 - 05:29

选择7B以后

05:29 - 05:30

你看这里

05:30 - 05:31

就生成一段命令

05:31 - 05:33

你可以直接用鼠标复制它

05:33 - 05:35

也可以点击这里来复制它

05:35 - 05:36

都是可以的

05:36 - 05:37

好好

05:37 - 05:39

那么我们复制它

05:39 - 05:40

复制以后

05:40 - 05:42

我们就可以用这个命令

05:42 - 05:44

去下载这个模型了

05:44 - 05:45

然后此时

05:45 - 05:48

那我们直接按住键盘上面的

05:48 - 05:49

Windows R键

05:49 - 05:50

弹出这个对话框

05:50 - 05:54

然后我们在这里输入CMD

05:54 - 05:57

来打开这个CMD的这个命令提示符

05:57 - 05:58

的这个对话框

05:58 - 06:01

如果你用的是Mac电脑的话

06:01 - 06:04

你直接在Mac电脑的终端里面操作

06:04 - 06:06

和这个都是一模一样的

06:06 - 06:06

06:06 - 06:09

那么我们把刚才复制的这个命令给他

06:09 - 06:12

用鼠标右击粘贴到这里

06:12 - 06:15

然后我们敲回车键

06:15 - 06:16

好那么现在

06:16 - 06:20

他就正在下载这个7B的这个模型了

06:20 - 06:21

大家看一下

06:21 - 06:22

这里已经有这个进度条了

06:22 - 06:23

下载速度

06:23 - 06:25

还是挺快的

06:25 - 06:25

大家看一下

06:25 - 06:27

这里是下载速度

06:27 - 06:29

那么我们稍微的耐心等一下

06:29 - 06:31

等他下载完成

06:34 - 06:34

好那

06:34 - 06:37

当我们看到这里的这个success的时候

06:37 - 06:38

就表示我们当前

06:38 - 06:42

的这个模型已经下载并且安装成功了

06:42 - 06:42

然后

06:42 - 06:44

我们就可以在这里来进行对话了

06:44 - 06:47

那么我们来测试一个比较经典的问题

06:51 - 06:53

好那么我们可以看到

06:53 - 06:58

现在这个AI就已经开始推理了

07:01 - 07:03

好那么这个AI

07:03 - 07:04

经过了思考

07:04 - 07:08

最终给出的答案是1.9比1.1大

07:08 - 07:10

这个答案是没有问题的

07:11 - 07:13

然后如果你想要继续使用

07:13 - 07:15

你继续在这里来和它进行对话

07:15 - 07:17

就可以了

07:17 - 07:18

如果说你不想使用的话

07:18 - 07:24

你直接在这里输入/bye

07:24 - 07:25

这就退出了

07:25 - 07:28

如果说你想再次使用的话

07:28 - 07:30

你就把刚才我们那个命令

07:30 - 07:33

就是我们复制的这个命令

07:35 - 07:38

你再次给它粘贴到这里看

07:38 - 07:40

又可以继续说话了

07:40 - 07:43

如果不要用再次/bye

07:43 - 07:45

退出就可以了

07:45 - 07:46

就这么简单

07:46 - 07:50

只要你这个这个ollama一直是运行的

07:50 - 07:52

那么你就一直可以使用

07:52 - 07:54

那么如果说你想要用其他模型

07:54 - 07:55

也是一样的

07:55 - 07:56

比如说我现在

07:56 - 07:59

想要下载一个1.5B的模型

07:59 - 08:01

那么我点击这个1.5B

08:01 - 08:03

然后我们复制这个命令

08:03 - 08:04

复制以后

08:05 - 08:07

我们在这里下载这个模型

08:07 - 08:08

然后去使用它就可以了

08:08 - 08:10

就是非常的简单的

08:11 - 08:12

然后到这里

08:12 - 08:13

有些朋友问了

08:13 - 08:16

说这个界面是真的很丑

08:16 - 08:17

你看非常简陋

08:17 - 08:19

甚至它显示出这个答案

08:19 - 08:21

都有一点点乱码的感觉

08:21 - 08:24

所以我们下面要用一个更美观的

08:24 - 08:25

一个交互方式

08:25 - 08:27

我们来和大家分享一个

08:27 - 08:28

更好用的AI客户端

08:28 - 08:30

不同的平台都可以使用

08:31 - 08:33

那我们先把这个关掉

08:33 - 08:35

然后我们再次打开浏览器

08:35 - 08:36

那这里

08:36 - 08:38

我们给大家分享一个好用的

08:38 - 08:39

AI客户端

08:39 - 08:41

叫做Chatbox AI

08:41 - 08:42

那么这个客户端

08:42 - 08:43

它支持Windows电脑

08:43 - 08:44

支持Mac电脑

08:44 - 08:47

也支持在iPhone手机上面

08:47 - 08:48

安卓手机上面使用

08:48 - 08:49

并且

08:49 - 08:51

它也支持这个网页版

08:51 - 08:52

就像大家现在看到的

08:52 - 08:54

这个网页版也是可以使用的

08:54 - 08:57

可以说是做到了全平台来使用

08:57 - 08:58

那么我们今天

08:58 - 09:00

先来看一下这个Windows

09:00 - 09:02

我们在Windows上面来配置它

09:02 - 09:05

所有的这个客户端的配置都是一样的

09:05 - 09:06

我们就以Windows为例

09:06 - 09:08

我们来下载这个Windows版的

09:08 - 09:09

这个应用

09:09 - 09:11

好那这个就是我们下载好的

09:11 - 09:15

这个Windows版的Chatbox的这个安装包

09:15 - 09:18

那我们今天视频里面所有的安装包

09:18 - 09:20

我也会打包一份放到网盘里面

09:20 - 09:22

如果大家在网站里面下载不方便的话

09:22 - 09:24

我也会放到网盘里面

09:24 - 09:26

供大家来下载

09:26 - 09:27

好我们来双击它

09:28 - 09:30

然后这里保持默认

09:30 - 09:30

点击下一步

09:31 - 09:32

保持默认点击安装

09:32 - 09:35

然后我们点击完成运行

09:35 - 09:37

好现在这个chat box

09:37 - 09:40

这个AI客户端就已经安装好了

09:40 - 09:41

安装好了

09:41 - 09:41

然后

09:41 - 09:42

我们来点击这个

09:42 - 09:45

使用自己的API key或本地模型

09:45 - 09:47

点击它点击以后

09:47 - 09:50

我们选择这个Ollama API

09:50 - 09:51

选择这里

09:52 - 09:53

好那首先

09:53 - 09:55

这个API域名保持默认

09:55 - 09:57

这个127.0.0.1

09:57 - 09:59

它指的就是你的本机

09:59 - 10:00

然后后面

10:00 - 10:02

冒号11434

10:02 - 10:03

这个是默认的端口

10:03 - 10:05

这些你保持默认就可以了

10:05 - 10:06

那么下面

10:06 - 10:08

这个模型我们点击一下

10:08 - 10:08

大家看一下

10:08 - 10:11

这里有我们刚才下载部署好的

10:11 - 10:14

这个deepseek R1的7B的这个模型

10:14 - 10:16

如果说你有下载了更多的模型

10:16 - 10:17

比如说8B

10:17 - 10:18

14B

10:18 - 10:20

那么你在这里自己选择就可以了

10:20 - 10:21

选择好了以后

10:21 - 10:22

下面这些

10:22 - 10:23

我们就保持默认

10:23 - 10:24

最简单的

10:24 - 10:25

保持默认

10:25 - 10:26

然后点击保存

10:26 - 10:27

好那然后

10:27 - 10:30

我们就可以在这里来测试一下

10:34 - 10:35

好那大家看一下

10:35 - 10:37

我们使用这个界面

10:37 - 10:39

更美观的AI客户端

10:39 - 10:41

也是可以正常使用的

10:41 - 10:41

那么如果说

10:41 - 10:42

你在ollama里面

10:42 - 10:44

部署了其他AI模型的话

10:44 - 10:46

你还可以点击这里来切换

10:49 - 10:51

这个7B的模型

10:51 - 10:52

所以这里

10:52 - 10:53

默认只有一个

10:53 - 10:55

你有多个的话可以在这里来选择

10:55 - 10:57

好那么至此

10:57 - 10:59

我们在电脑上面

10:59 - 11:00

也就是在本地部署的

11:00 - 11:03

这个deepseek r1 AI大模型

11:03 - 11:05

以及使用chatbox这个AI客户端

11:05 - 11:07

来使用这个AI大模型

11:07 - 11:08

我们就已经完全OK了

11:08 - 11:10

那么现在即使没有网络

11:10 - 11:13

我们也可以直接在这台电脑上面

11:13 - 11:13

来使用

11:14 - 11:15

下面我们来和大家分享的

11:15 - 11:19

就是让我们局域网内的其他的电脑

11:19 - 11:20

或者说其他的手机

11:20 - 11:22

包括家人的手机

11:22 - 11:23

也能够使用到

11:23 - 11:25

我们部署的这个AI大模型

11:26 - 11:27

那也很简单

11:27 - 11:29

首先你就在你其他的设备上

11:29 - 11:32

下载好这个Chatbox的客户端

11:32 - 11:33

刚才也介绍了这个

11:33 - 11:37

Chatbox支持全平台的客户端的下载

11:37 - 11:37

那然后

11:37 - 11:40

我们还需要在我们的电脑上面

11:40 - 11:41

做一个设置

11:41 - 11:43

这样才能够让其他的设备

11:43 - 11:45

或者其他的电脑

11:45 - 11:47

来使用我们部署的这个AI模型

11:47 - 11:48

那在这里

11:48 - 11:50

Chatbox的这个网站上面

11:50 - 11:52

已经介绍的很清楚了

11:52 - 11:57

如果你用的是Mac电脑部署的ollama的话

11:57 - 12:00

那么你需要复制这两段命令

12:00 - 12:02

然后打开Mac电脑的终端

12:02 - 12:05

把这两段命令粘贴进去

12:05 - 12:08

然后敲一下回车就可以了

12:08 - 12:11

然后你再重启ollama应用

12:11 - 12:12

这个配置就生效了

12:12 - 12:15

在后面的这个配置的话

12:15 - 12:17

就跟我们一会分享的是一样的

12:17 - 12:19

然后就是Windows的

12:19 - 12:22

Windows需要添加两行这个环境变量

12:22 - 12:25

还有下面的这个Linux的这个设置

12:25 - 12:27

你可以参考一下

12:27 - 12:28

那我们演示

12:28 - 12:29

用的是Windows电脑

12:29 - 12:32

所以我们就来添加这个环境变量

12:33 - 12:35

我们点击电脑上面的开始

12:35 - 12:38

然后在这里来搜索系统环境变量

12:39 - 12:42

好然后点击它好

12:42 - 12:43

在这里

12:43 - 12:45

我们点击这个环境变量

12:46 - 12:47

然后就是在这里

12:48 - 12:50

我们先来复制这第一个

12:51 - 12:53

好这个一定要复制正确

12:53 - 12:54

后面这个是值

12:54 - 12:55

你可以记得住的

12:55 - 12:57

一会直接填上去就行了

12:57 - 12:58

复制以后

12:58 - 13:00

我们点击这里的新建

13:00 - 13:02

然后在变量名这里

13:02 - 13:03

直接给它粘贴上去

13:04 - 13:07

变量值就是0.0.0.0

13:07 - 13:08

好点击确定

13:08 - 13:10

然后你看这里就多了一条

13:10 - 13:11

这个没有问题

13:12 - 13:15

然后再复制另一个环境变量名

13:15 - 13:16

就这个复制正确

13:17 - 13:18

它的值为星号

13:18 - 13:20

你一会可以直接打上去或者

13:20 - 13:21

你自己复制也行

13:22 - 13:23

然后点击新建

13:24 - 13:25

这里的变量名

13:25 - 13:26

给它粘贴上去

13:27 - 13:28

变量值

13:28 - 13:29

星号OK

13:30 - 13:30

点击确定

13:31 - 13:32

然后大家看一下

13:32 - 13:35

确定一下这两条变量没有问题

13:35 - 13:36

然后我们点击确定

13:37 - 13:39

然后点击确定好

13:39 - 13:39

现在

13:39 - 13:42

我们在Windows上面就设置好了

13:42 - 13:44

再次提醒一下你

13:44 - 13:46

其他的电脑系统

13:46 - 13:47

你就按照这个来设置就可以了

13:47 - 13:48

很简单的

13:48 - 13:50

那么后面的这些设置

13:50 - 13:51

就一模一样了

13:52 - 13:53

那么现在设置好了以后

13:53 - 13:54

我们还需要知道

13:54 - 13:57

我们当前电脑的IP地址

13:57 - 13:59

那你不管是Windows电脑还是Mac电脑

13:59 - 13:59

我相信

13:59 - 14:03

大家都都能够查到自己电脑的IP地址

14:03 - 14:03

这里

14:03 - 14:07

建议最好就是把自己的IP地址手动

14:07 - 14:07

方便好记

14:07 - 14:09

而且它不会变化

14:09 - 14:11

那么我以Windows为例

14:11 - 14:12

我们右击这个网络这里

14:12 - 14:14

点击网络和Internet设置

14:14 - 14:15

那在这里

14:15 - 14:16

如果你是Wifi连接

14:16 - 14:17

就点击WLAN

14:17 - 14:19

如果你是网线连接电脑

14:19 - 14:20

就点击以太网

14:20 - 14:21

我这里

14:21 - 14:22

就点击这个WLAN

14:22 - 14:25

然后点击这个Wifi属性

14:25 - 14:25

在这里

14:25 - 14:26

就可以看到

14:26 - 14:29

我当前电脑的这个IP地址

14:29 - 14:32

实际上我就早已经给它手动编辑了

14:32 - 14:34

一个固定的IP地址

14:34 - 14:36

这个我相信经常用电脑的朋友

14:36 - 14:37

应该都会设置

14:37 - 14:39

实在不会设置

14:39 - 14:39

去网上搜一下

14:39 - 14:41

如何给电脑固定一个IP

14:42 - 14:43

那我当前的这个IP

14:43 - 14:46

是192.168.31.11

14:46 - 14:48

把它记下来就可以了

14:48 - 14:49

好然后

14:49 - 14:54

我现在就用我另一台手机

14:55 - 14:56

那么我们打开手机上面

14:56 - 14:58

已经下载好的chatbox

14:59 - 15:00

然后

15:00 - 15:04

点击使用自己的API key或本地模型

15:04 - 15:07

然后选择这个ollama API

15:08 - 15:11

好大家看一下这里的API域名

15:11 - 15:14

我们就需要把这个127.0.0.1

15:14 - 15:15

给它修改一下了

15:15 - 15:17

因为127.0.0.1

15:17 - 15:19

它指的就是本机

15:19 - 15:20

那我们现在

15:20 - 15:21

要让它使用

15:21 - 15:23

我们在电脑上面部署的这个AI模型

15:23 - 15:25

我们电脑的IP

15:25 - 15:29

刚才已经查到了是192.168.31.11

15:29 - 15:31

好嘞没有问题

15:31 - 15:33

那么我们填写好了以后

15:33 - 15:36

我们现在点击下面的模型

15:36 - 15:38

这个下拉框哎

15:38 - 15:39

点击以后

15:39 - 15:40

大家可以看到

15:40 - 15:43

这里就有我之前已经下载好的

15:43 - 15:46

这个deepseek r1 7b的这个模型

15:46 - 15:48

那说明已经正常的连接到了

15:48 - 15:49

可以使用了

15:49 - 15:51

那我们点击这个模型

15:52 - 15:55

然后点击保存好

15:55 - 15:56

点击保存

15:56 - 15:57

我们来测试一下

15:57 - 15:59

看能不能够正常用手机

15:59 - 16:00

使用这个AI模型

16:00 - 16:02

我就给它出一道题

16:09 - 16:10

好我们可以看到

16:10 - 16:12

现在AI已经开始思考了

16:12 - 16:15

我们看一下它的结果是否是对的

16:20 - 16:22

好那么我们可以看到

16:22 - 16:23

我们出了一道题

16:23 - 16:26

那么AI给了一个思考的过程

16:26 - 16:29

并且给出了一个解题的步骤

16:29 - 16:30

那么最终答案

16:30 - 16:31

也是正确的

16:31 - 16:32

那这也说明

16:32 - 16:33

我们手机上面使用

16:33 - 16:34

我们在电脑上面

16:34 - 16:36

本地部署的这个AI模型

16:36 - 16:38

也是没有问题的

16:38 - 16:39

那么这个方法

16:39 - 16:41

你如果用的其他的设备来连接

16:41 - 16:43

哎都是一样的设置

16:43 - 16:44

非常的简单

16:45 - 16:47

那实际上通过我们的今天的分享

16:47 - 16:49

如果你的电脑足够的强大

16:49 - 16:50

你还可以通过ollama

16:50 - 16:53

来下载更多更强大的大模型

16:53 - 16:55

来使用那大模

16:55 - 16:56

型的运行速度

16:56 - 16:59

也受到了电脑综合性能的影响

16:59 - 17:01

其中显卡是一个关键因素

17:01 - 17:04

那以上就是我们的全部分享了

17:04 - 17:06

别忘了点一个免费的三连

17:06 - 17:08

并且订阅我们的频道哦

17:08 - 17:11

好了那我们下期再见

Deploying Deepseek R1 Model Locally: Windows and Mac Configuration

In this guide, we will show you how to deploy the Deepseek R1 model on your computer and use it locally without the need for an internet connection. By following these steps, you will be able to set up the model on your Windows or Mac machine, efficiently enabling its use for various tasks.

Installing Ollama: The Model Launcher

To begin, visit the website "ollama.com" in your browser, where you can download the Ollama tool. Ollama acts as a model launcher, allowing you to run large models on your computer efficiently. It is an open-source and free tool, essential for running the downloaded models.

  1. Choose the download option on the website.
  2. Select the Windows version if you are using a Windows PC.

Deploying the Deepseek R1 Model

Here are the steps to deploy the Deepseek R1 model using Ollama on your computer:

  1. Install Ollama by running the installation package.
  2. Once installed, confirm that Ollama is running in the system tray.
  3. Visit the Ollama website and navigate to the models section.
  4. Choose the desired variant of the Deepseek R1 model based on your system's specifications.

Selecting the Model Size

When selecting the model size, consider your computer's capabilities. Larger models require more resources, especially GPU power. Choose a model size that aligns with your computer's specifications to optimize performance. The table below can guide you in selecting the appropriate model size based on your system configuration:

Model Size Recommended Configuration
1.5B Basic processing power
7B Standard usage
8B, 14B Advanced requirements

Using Chatbox AI for Enhanced Interaction

For a more user-friendly interface and interaction with AI models, consider using Chatbox AI. This tool supports various platforms, including Windows, Mac, iPhone, and Android devices. By configuring Chatbox AI with the Ollama API and the deployed models, you can enhance your AI experience on a range of devices.

  1. Download the Chatbox client on your preferred device.
  2. Configure the API Domain and select the desired model variant.
  3. Test the interaction with the AI model using Chatbox AI, ensuring a seamless user experience.

By following these steps, you can effortlessly deploy and utilize the Deepseek R1 model on your local machine, allowing for offline and localized AI capabilities. Moreover, enabling access to the model on multiple devices within your network enhances its utility across various scenarios.

Don't forget to explore larger models through Ollama for more advanced AI tasks, and consider enhancing your interaction with AI using Chatbox's user-friendly interface. Join us in the journey of exploring AI's potential, and stay tuned for more insightful content in the future!