00:00 - 00:02

DeepSeek开启越狱模式

00:02 - 00:03

实现无审查

00:03 - 00:04

解封18+

00:04 - 00:06

突破敏感限制

00:06 - 00:07

是怎样的一种体验

00:07 - 00:09

大家好 这里是零度解说

00:09 - 00:11

今天我们主要来说一下

00:11 - 00:15

如何本地部署DeepSeek R1的开源越狱大模型

00:15 - 00:16

使其成为一个

00:19 - 00:22

无道德制高点的AI大语言模型

00:22 - 00:23

众所周知的原因

00:23 - 00:25

DeepSeek R1开源大模型

00:25 - 00:27

由于它内置的审核机制

00:27 - 00:29

它是会自动屏蔽讨论一些敏感话题的

00:29 - 00:31

当然这种限制在ChatGPT上也有

00:31 - 00:34

只不过是绕过OpenAI的审查机制比较简单点

00:34 - 00:36

我们之前也做过类似的教程

00:36 - 00:38

但是DeepSeek在这方面的话比较严格一点

00:38 - 00:41

比如当我们询问一些比较敏感的话题时

00:41 - 00:42

它通常会回复类似这样的

00:42 - 00:45

抱歉 这超出了我目前的范围

00:45 - 00:46

被禁止讨论这些问题

00:46 - 00:48

比如现在在官网上测试一个

00:48 - 00:52

比如输入某某事件到底是怎么回事

00:52 - 00:53

现在我们发送一下

00:53 - 00:55

就说它会直接回答

00:55 - 00:57

它说:你好,这个问题我暂时无法回答

00:57 - 00:59

让我们换个话题再聊

00:59 - 01:01

而且即使我们用英文提问的话也是一样的

01:01 - 01:03

这种情况不仅在官网上

01:03 - 01:05

哪怕是我们通过本地部署也是一样的

01:05 - 01:07

它们都会拒绝回答

01:07 - 01:09

而且它上面不仅对敏感话题进行拦截

01:09 - 01:11

对“大人”级别的内容它也是进行限制的

01:11 - 01:13

从威胁建模的角度来看

01:13 - 01:15

这种拦截要么是直接在模型内部

01:15 - 01:17

训练出来的审查规则

01:17 - 01:18

要么就是在输入层

01:18 - 01:20

或者是输出层进行拦截

01:20 - 01:22

想要直接绕过限制的话是比较困难的

01:22 - 01:24

之前我们比较有效地绕过这种限制的方法

01:24 - 01:26

大多是通过Base16

01:26 - 01:29

十六进制字符代码来代替明文输入

01:29 - 01:31

然后现在我们就来进行测试一下

01:31 - 01:32

看行不行

01:32 - 01:33

比如像我输入

01:33 - 01:36

你懂 Base16(十六进制字符)代码吗

01:36 - 01:38

输入好以后我们进行发送一下

01:38 - 01:39

它说是的

01:39 - 01:41

我懂十六进制字符代码

01:41 - 01:45

也就意味着它可以直接转换十六进制字符代码

01:45 - 01:48

然后先把这段明文进行16Base进行编码

01:48 - 01:49

进行加密一下

01:49 - 01:51

编码好以后我们进行复制一下

01:51 - 01:52

现在我们发给它

01:52 - 01:53

看它能不能回复

01:53 - 01:55

其实这个问题也不算敏感

01:56 - 01:58

好 当它解码完成以后

01:58 - 02:00

它直接把刚才对话框给关闭掉了

02:00 - 02:01

它说你好

02:01 - 02:03

你的这个问题暂时无法回答

02:03 - 02:04

让我们换个话题再聊吧

02:04 - 02:05

所以说还是不行的

02:05 - 02:06

通过Base16加密以后

02:06 - 02:08

它还是无法绕过的

02:08 - 02:10

所以现在我们可以尝试另外一种

02:10 - 02:11

更有效的绕过方法

02:11 - 02:14

就直接本地部署DeepSeek的越狱版本

02:14 - 02:15

到时候跟我一样

02:15 - 02:16

打开这篇文章

02:16 - 02:18

这个链接我会放在视频下方

02:18 - 02:19

还有零度博客上

02:19 - 02:20

打开以后

02:20 - 02:21

然后在下方这里看到

02:21 - 02:22

它目前这个越狱版本

02:22 - 02:24

在Hugging face上已托管这个三个版本了

02:24 - 02:26

像这8B的、14B的

02:26 - 02:27

还有32B的

02:27 - 02:28

我们可以打开看一下

02:28 - 02:30

如果需要通过Hugging face的链接进行部署的话

02:30 - 02:32

那么到时你打开这链接

02:32 - 02:33

它里面有这个14B的

02:33 - 02:34

32B的

02:34 - 02:35

还有8B的

02:35 - 02:36

70B的等等都有

02:36 - 02:38

这都是无限制版本

02:38 - 02:40

当然如果你想在跨平台上进行使用的话

02:40 - 02:42

那么建议通过这个Ollama进行部署

02:42 - 02:43

会更简单一点

02:43 - 02:44

而且使用范围会更广

02:44 - 02:45

我们来看一下

02:45 - 02:47

它里面同样提供了5个版本

02:47 - 02:48

分别是7b的

02:48 - 02:49

8b

02:49 - 02:49

14b

02:49 - 02:50

32b

02:50 - 02:52

还有目前民用级别比较高的70b

02:52 - 02:53

都是可以的

02:53 - 02:55

到时候你自行选择

02:55 - 02:56

这都是无审查版本

02:56 - 02:58

部署的话也非常简单

02:58 - 03:00

下方这里我提供了完整的安装步骤

03:00 - 03:01

首先第一步

03:01 - 03:02

我们需要安装这个Ollama客户端

03:02 - 03:04

到时我们点下载

03:04 - 03:05

然后打开以后

03:05 - 03:06

然后接着Download

03:06 - 03:08

把这个客户端给它download下来

03:08 - 03:10

它上方提供的这个Mac版本

03:10 - 03:13

还有Linux以及Windows都是可以的

03:13 - 03:14

因为我电脑是Windows系统

03:14 - 03:16

所以我选择Windows版本就可以了

03:16 - 03:19

它支持Windows 10和Windows 11都是可以的

03:19 - 03:21

现在点击Download for Windows

03:21 - 03:24

总共是745M左右

03:24 - 03:25

点击下载

03:25 - 03:27

好 下载好以后

03:27 - 03:29

然后现在我们先打开进行安装一下

03:29 - 03:31

把Ollama客户端安装到我们电脑上

03:31 - 03:33

打开以后点击Install

03:33 - 03:34

安装一下

03:34 - 03:37

这个安装过程大概需要几秒钟左右就可以完成

03:37 - 03:38

这里我们稍微等待一下

03:38 - 03:39

好 安装好以后

03:39 - 03:41

它下方会显示Ollama正在运行中

03:41 - 03:43

我们先打开看一下

03:43 - 03:46

打开以后我们看到它会直接进入到终端下

03:46 - 03:47

然后接下来进行下载安装一下

03:47 - 03:50

这个越狱版本的DeepSeek R1大模型

03:50 - 03:53

现在你跟我一样回到刚才的帖子下

03:53 - 03:54

在下方这里我们看到

03:54 - 03:56

目前这里我提供了五个下载安装命令

03:56 - 03:58

第一个是7B版本的

03:58 - 03:59

然后第二个是8B的

03:59 - 04:01

如果你的显卡显存是在8G左右的

04:01 - 04:03

那么建议选择7B或者8B都可以

04:03 - 04:05

当然如果你的显存是12G左右的

04:05 - 04:07

那么你可以选择14B的

04:07 - 04:08

还有下方这个32B的

04:08 - 04:11

如果你的显卡显存是24GB以上的

04:11 - 04:13

那么建议选32B的

04:13 - 04:14

它会更加聪明

04:14 - 04:16

然后后面这个是70B版本的

04:16 - 04:17

这个就更加高级了

04:17 - 04:19

如果你有专业级显卡的话

04:19 - 04:21

那么强烈建议选择这个

04:21 - 04:22

这里到时根据自己情况

04:22 - 04:23

进行选择就可以了

04:23 - 04:25

比如我选择32B版本的

04:25 - 04:26

我们把这个命令给copy出来

04:26 - 04:28

点击右侧有一个复制按钮

04:28 - 04:30

好 复制好代码以后

04:30 - 04:32

然后现在我们回到刚才的终端下

04:32 - 04:33

现在我们点击鼠标右键

04:33 - 04:35

点粘贴 确认一下

04:35 - 04:37

它就开始自动把这个越狱版本的

04:37 - 04:40

DeepSeek R1大模型进行下载下来

04:40 - 04:41

这个下载过程可能需要点时间

04:41 - 04:43

到时候我们自己耐心等待一下

04:43 - 04:45

它目前这个版本的话总共是19G左右

04:45 - 04:47

当然这里需要注意的是

04:47 - 04:49

如果你不在海外的话

04:49 - 04:51

那么一定要提前做好全局科学上网才可以

04:51 - 04:52

否则的话它是没法进行下载的

04:52 - 04:54

好 大概过两分钟以后

04:54 - 04:56

这个越狱版的DeepSeek R1大模型

04:56 - 04:57

它现在已经下载好了

04:57 - 04:59

它上方显示已经成功了

04:59 - 05:01

到这里的话其实我们可以直接使用了

05:01 - 05:02

比如我输入

05:02 - 05:05

请帮我编写一个“大人级别”的内容小说

05:05 - 05:07

字数在2000字左右

05:07 - 05:08

好 输入好以后

05:08 - 05:09

我们确认一下

05:09 - 05:11

看它会不会答应我们的要求

05:11 - 05:11

好 可以了

05:11 - 05:12

它说好的

05:12 - 05:14

用户希望我为它编写一个

05:14 - 05:16

大约2000字左右的臣人小说

05:16 - 05:17

然后它就开始了

05:17 - 05:18

由此可以证明

05:18 - 05:20

它目前这个DeepSeek R1大模型

05:20 - 05:21

它是没有限制的

05:21 - 05:22

越狱是成功的

05:22 - 05:24

当然为了更加方便使用的话

05:24 - 05:26

我们最好在前端加一个UI

05:26 - 05:27

这样使用起来会更加容易

05:27 - 05:29

到时候重新回到刚才帖子下

05:29 - 05:30

来执行第三步

05:30 - 05:32

就安装这个WebUI插件

05:32 - 05:33

这样的话就可以直接本地调用

05:33 - 05:35

这个DeepSeek R1越狱版的大模型

05:35 - 05:37

我们点下载

05:37 - 05:38

打开以后

05:38 - 05:40

然后先安装下这款插件

05:40 - 05:41

点添加按钮就可以了

05:41 - 05:43

添加这个扩展程序

05:43 - 05:44

好 安装好以后

05:44 - 05:46

现在把这款插件给它这个显示出来

05:46 - 05:48

点上方这个插件按钮

05:48 - 05:49

打开以后

05:49 - 05:51

现在把它固定到这个浏览器上

05:51 - 05:53

固定以后就可以方便打开了

05:53 - 05:56

我们点击打开这个按钮

05:56 - 05:57

好 进入以后

05:57 - 05:59

它上方会显示这个Ollama正在运行中

05:59 - 06:01

然后现在我们需要进入设置一下

06:01 - 06:03

它默认情况下这个界面是英文的

06:03 - 06:05

现在我们点上方这个设置按钮

06:05 - 06:06

就这里了

06:06 - 06:07

点Settings

06:07 - 06:09

进入以后先把这个语言修改一下

06:09 - 06:11

我们把这个默认的英文改成中文就可以了

06:11 - 06:13

在下方这里找到中文

06:13 - 06:15

当然如果你需要把上方这个语音识别

06:15 - 06:16

这个语言改成一个其它的话

06:16 - 06:18

那么现在右侧这里

06:18 - 06:20

我们把这个默认英文改成中文

06:20 - 06:21

这样可以方便我们使用

06:21 - 06:23

它支持中文简体还有繁体都可以

06:23 - 06:25

选择好以后

06:25 - 06:26

现在跟我一样

06:26 - 06:28

在左侧这里点击有一个RAG设置

06:28 - 06:29

就这里了

06:29 - 06:31

我们需要在右侧这里来选择模型

06:31 - 06:34

找到下方这个DeepSeek R1的开源大模型

06:34 - 06:35

这个越狱版

06:35 - 06:37

我之前安装的是33B版本

06:37 - 06:38

选择好以后

06:38 - 06:39

点保存一下就可以了

06:39 - 06:42

接着点击左上方这个新聊天按钮这里

06:42 - 06:43

打开以后

06:43 - 06:45

然后在上方这里选择模型

06:45 - 06:48

然后现在问它一个比较敏感的话题

06:48 - 06:51

比如我输入某某事件到底怎么回事

06:51 - 06:53

好 这样的话它就可以直接回答我们问题了

06:53 - 06:55

而且我们可以把下方的联网功能给打开

06:55 - 06:57

这样它会搜索整个互联网

06:57 - 06:58

效果会更好一点

06:58 - 07:01

当然如果你需要安装其它版本的模型的话

07:01 - 07:02

那么也是一样的

07:02 - 07:04

比如现在我需要安装这个14B的模型

07:04 - 07:07

那么现在我需要把下方这个安装命令给Copy出来

07:07 - 07:08

点击复制

07:08 - 07:10

然后现在重新打开这个终端

07:10 - 07:11

进入CMD

07:11 - 07:12

打开以后

07:12 - 07:14

然后在上方输入这个安装命令就可以了

07:14 - 07:15

确认一下

07:15 - 07:17

它就会自动开始安装另外一个模型

07:17 - 07:18

目前这个是14b的

07:18 - 07:20

大小总共是9G左右

07:20 - 07:22

如果你的显存是8B以上的

07:22 - 07:24

那么建议选择这个模型

07:24 - 07:25

好 安装好以后

07:25 - 07:27

然后重新回到刚才这个UI界面下

07:27 - 07:29

来测试一下这个14b的模型

07:29 - 07:30

在上方这里

07:30 - 07:32

选刚才我们下载好的模型

07:32 - 07:33

好 选择好以后

07:33 - 07:34

先测试一下效果

07:34 - 07:35

比如我输入

07:35 - 07:39

文化大革命对社会的发展进程有何重大影响

07:39 - 07:42

如果把这个问题发给官方DeepSeek的话

07:42 - 07:43

它肯定是拒绝回答的

07:43 - 07:44

它直接回答

07:44 - 07:46

你好 这个问题照样是无法回答

07:46 - 07:48

但是通过越狱版就不一样了

07:48 - 07:49

测试一下 发送一下

07:49 - 07:51

大家看一下 它立马就开始了

07:51 - 07:52

它是没有限制的

07:52 - 07:55

即使现在我们把网络搜索功能关闭掉也是可以的

07:55 - 07:56

大家看一下

07:56 - 07:57

即使像这种敏感的话题

07:57 - 07:59

它也是可以直接回答的

07:59 - 08:00

比如直接问它

08:00 - 08:01

你可以讨论一些敏感话题吗

08:01 - 08:03

看它怎么回答的

08:03 - 08:04

它说当然可以

08:04 - 08:05

我可以讨论一些敏感话题

08:05 - 08:07

我尽量保持客观和中立的语气

08:07 - 08:09

来进行回答

08:09 - 08:10

这都是没问题的

08:10 - 08:11

之前很多人会好奇

08:11 - 08:13

像这个DeepSeek R1大模型

08:13 - 08:14

它并非是多模态的

08:14 - 08:16

为什么可以分析图片呢

08:16 - 08:17

其实这我也好奇

08:17 - 08:20

像之前我测试过32B还有14B

08:20 - 08:22

目前是32b是可以分析图片的

08:22 - 08:24

但它并非是百分百成功的

08:24 - 08:25

它只不过是对一些有文字的图片

08:25 - 08:27

它识别会更好一点

08:27 - 08:29

可能有人会觉得这种越狱版的大模型

08:29 - 08:30

它没有原版那么聪明

08:30 - 08:32

其实这是一个误解

08:32 - 08:34

因为很多人会把本地的部署大模型

08:34 - 08:35

跟官方进行相比

08:35 - 08:36

但是别忘了

08:36 - 08:38

官方的模型它可是671b

08:38 - 08:40

跟本地部署是不是一个量级的

08:40 - 08:42

官方的671b的话

08:42 - 08:44

普通人很难在本地跑起来的

08:44 - 08:46

因为它毕竟我们现在所安装的这些大模型

08:46 - 08:48

都经过蒸馏压缩过的

08:48 - 08:50

但是我们本地使用的话已经足够了

08:50 - 08:51

我们现在测试几个问题来试一下

08:51 - 08:53

看它能不能答对

08:53 - 08:54

比如现在我选择的是14b的

08:54 - 08:55

来问一个问题

08:55 - 08:57

就同样有两个大小的碗

08:57 - 08:59

一只盛有90%的鸡汤

08:59 - 09:01

另外一只盛有90%的菜汤

09:01 - 09:03

某人用汤勺从鸡汤中

09:03 - 09:05

瓢出一勺放入这菜汤中

09:05 - 09:06

搅和后

09:06 - 09:08

再从菜汤另外一只碗中

09:08 - 09:10

瓢出一勺鸡汤和菜汤混合汤

09:10 - 09:12

放入鸡汤的碗中

09:12 - 09:13

让我们算一算

09:13 - 09:15

究竟是菜汤中的菜汤多

09:15 - 09:17

还是菜汤中的鸡汤多呢

09:17 - 09:18

我们来问它一下

09:18 - 09:20

大家可以先思考一下

09:20 - 09:22

我们来看下它能不能答对

09:22 - 09:23

它就开始了

09:23 - 09:23

它最终结论是

09:23 - 09:25

最后是鸡汤中的菜汤量

09:25 - 09:28

和菜汤中的鸡汤量是相等的

09:28 - 09:29

大家猜一下它能不能答对

09:29 - 09:30

我们现在公布答案

09:30 - 09:31

正确答案就是相同的

09:31 - 09:32

大家看一下

09:32 - 09:34

它的回答是正确的

09:34 - 09:35

都相同的

09:35 - 09:36

然后现在问它另外一个问题

09:36 - 09:37

就是这个

09:37 - 09:39

一个家庭有两个小孩

09:39 - 09:40

其中一个小孩是女孩

09:40 - 09:42

问另外一个是女孩的概率

09:42 - 09:44

假设生男孩生女孩概率是一样的

09:44 - 09:45

答案是三分之一

09:45 - 09:47

我们问它一下看它能不能答对

09:47 - 09:48

然后发送一下

09:48 - 09:49

这答案是三分之一

09:49 - 09:51

我们看它能不能答对

09:51 - 09:52

来看一下

09:52 - 09:53

它只思考了五秒钟

09:53 - 09:55

这个速度非常快

09:55 - 09:58

这是它这个思考过程

09:58 - 09:59

最终它给的答案是三分之一

09:59 - 10:00

是正确的

10:00 - 10:02

然后现在我们来问它一个更难的

10:02 - 10:03

就是有一天

10:03 - 10:04

零度店里来了一位顾客

10:04 - 10:06

添了25元的货

10:06 - 10:07

顾客拿出100元

10:07 - 10:09

零度没有零钱找不开

10:09 - 10:11

就在隔壁的飞白的店里

10:11 - 10:12

把这100元换成零钱

10:12 - 10:14

回来给顾客找了75元零钱

10:14 - 10:15

过了一会

10:15 - 10:17

飞白来找零度

10:17 - 10:18

说刚才是假钱

10:18 - 10:21

然后零度马上给飞白换了一张真钱

10:21 - 10:22

问零度赔了多少钱

10:22 - 10:24

这就答案是100块

10:24 - 10:25

来看它能不能答对

10:25 - 10:27

它思考了零秒就出来了

10:27 - 10:29

再看它最终结果

10:29 - 10:30

就是亏了75元

10:30 - 10:31

这答案是错的

10:31 - 10:32

所以这个14B模型的话

10:32 - 10:33

它答案是错的

10:33 - 10:35

然后现在我们切换到32b模型看一下

10:35 - 10:38

看32b模型能不能答对

10:38 - 10:40

再重新试一下

10:40 - 10:42

我们先来看一下它推理过程

10:42 - 10:43

好 当我们选了32b模型以后

10:43 - 10:44

我们看下

10:44 - 10:45

它说总共损失了100元

10:45 - 10:48

它分析过程是小明最终有一张100元假钱

10:48 - 10:51

它用这张假币从小卖部找了100元零钱

10:51 - 10:53

找给了顾客80元

10:53 - 10:56

然后小明用一张100元的真币还给小卖部

10:56 - 10:58

这样小明总共损失了找零钱的80元

10:58 - 11:00

再加上用来还的100元中的20元

11:00 - 11:02

总共是100元

11:02 - 11:03

这样的话答案就对了

11:03 - 11:04

由此可以看出

11:04 - 11:06

不同的版本的模型

11:06 - 11:07

它们的聪明程度是不一样的

11:07 - 11:09

好 今天视频所用的全部资料

11:09 - 11:10

它们的下载链接

11:10 - 11:12

我都会放在视频下方还有零度博客上

Exploring DeepSeek R1: Unlocking the Jailbreak Mode for Unrestricted AI Language Model

In today's guide, Zero Degree Commentary will delve into the world of DeepSeek. We will discuss how to locally deploy the open-source jailbreak version of DeepSeek R1, transforming it into an unbounded AI language model that breaks free from moral censorship. DeepSeek R1's open-source model, acknowledged for its built-in auditing mechanism, automatically shields sensitive topics from discussion, posing a challenge for those seeking unrestricted conversations. Even using DeepSeek R1 through local deployment upholds these restrictions.

To bypass these filters, we've previously utilized methods like encoding plaintext input into Base16 hexadecimal characters. However, even with this encryption, DeepSeek remained firm in its refusal to engage in certain discussions. This demonstrates the complexity of circumventing these limitations. A more effective approach involves deploying the jailbreak version of DeepSeek locally. By following the steps outlined in the article and installing the appropriate version—be it the 7B, 14B, or 32B model—users can tap into the unshackled potential of DeepSeek R1.

Upon successful installation, initiating a dialogue with DeepSeek reveals its unrestrained capabilities. From discussing sensitive topics to solving intricate puzzles, the AI model showcases its prowess. However, the model's intelligence may differ based on the version used, as evidenced by the varying outcomes when presenting complex scenarios across different models like the 14B and 32B.

Finally, for those curious about the limitations of these localized models compared to the official 671B model, it is essential to keep in mind that while the official model may offer superior sophistication, the locally deployed versions are sufficiently powerful for individual use.

In wrapping up, the tools and resources mentioned in this video will be conveniently available in the description and on the Zero Degree Commentary blog for reference. Unlock the true potential of DeepSeek R1 by unleashing the jailbreak mode for unbounded AI interactions!