00:00 - 00:01

大家好我是强哥

00:01 - 00:03

欢迎来到我的频道

00:03 - 00:04

我们都知道

00:04 - 00:07

本地部署大模型deepseek R1

00:07 - 00:09

有它独特的优势

00:09 - 00:10

比如说隐私性好

00:10 - 00:11

无需联网

00:11 - 00:13

可以输入敏感内容等等

00:14 - 00:15

那么有没有一种方法

00:15 - 00:18

可以通过互联网上的资源

00:18 - 00:21

来免费使用别人部署的大模型呢

00:21 - 00:22

答案是有

00:23 - 00:24

还真有

00:24 - 00:26

那么这期节目

00:26 - 00:27

我们用fofa

00:27 - 00:28

来找出部署了ollama的服务和IP

00:31 - 00:33

从而找到那些互联网上

00:33 - 00:36

部署了deepseek R1模型的电脑

00:36 - 00:39

通过简单的设置来实现免费调用

00:40 - 00:41

也就是白嫖

00:41 - 00:42

本期视频的目的呢

00:42 - 00:44

主要是学习和交流

00:44 - 00:45

没有不良引导

00:45 - 00:48

同时请本地部署的小伙伴

00:48 - 00:50

也要注意自己的安全

00:50 - 00:54

并分享如何防护本地部署的安全

00:54 - 00:57

为了让大家能够清楚的了解操作过程

00:57 - 01:00

首先我们要熟悉以下三个步骤

01:00 - 01:04

第一呢我们先了解一下这三个软件

01:05 - 01:06

第一个是ollama

01:06 - 01:09

它是用于部署本地大模型的

01:09 - 01:11

这么一个后台后端运行工具

01:11 - 01:15

后边这个Cherry studio和CHAT box

01:15 - 01:17

这两个是AI的UI界面

01:18 - 01:20

这两个呢属于我们的前端

01:20 - 01:22

我们部署好本地的ollama以后

01:22 - 01:25

通过API或者是本地的接口

01:25 - 01:29

就可以使用cherry studio或者是chatbox

01:29 - 01:31

来运行本地的模型

01:31 - 01:33

进行一个可视化的操作

01:33 - 01:36

我想这三个软件大家已经非常的熟悉

01:36 - 01:37

第二步呢

01:37 - 01:40

然后我们通过某些手段

01:40 - 01:41

去搜索

01:41 - 01:45

互联网上部署了ollama的这个服务器

01:45 - 01:47

当然部署ollama的大部分用户

01:47 - 01:50

都会部署Deepseek R1这个模型

01:50 - 01:53

如果对方同时还部署了其他模型

01:53 - 01:54

同样的道理

01:54 - 01:57

我们也可以把它搜索出来并且使用

01:58 - 01:58

第三步呢

01:58 - 02:02

就是 我们找到部署了deepseek R1的服务器

02:02 - 02:06

以后我们把对方的这个IP以及接口

02:06 - 02:08

部署到我们自己的电脑上

02:08 - 02:10

来进行一个使用

02:10 - 02:11

也就是

02:11 - 02:14

调用他们的deepseek R1服务的模型

02:14 - 02:16

好为了照顾新的小伙伴

02:16 - 02:18

我们先简单的介绍一下

02:18 - 02:20

这三个软件的操作

02:20 - 02:22

首先呢我们打开我拉姆的官网

02:22 - 02:25

然后我们点击下载安装

02:25 - 02:26

下载安装以后呢

02:26 - 02:27

我们再就可以看到这个羊驼的图标

02:30 - 02:32

说明已经进行运行了

02:32 - 02:35

然后我们找到适合自己的模型

02:35 - 02:38

去部署到这个ollama后台

02:38 - 02:39

以deepseek R1为例

02:39 - 02:41

我们点击这个链接

02:41 - 02:44

然后我们在这选择适合自己的模型

02:44 - 02:45

选择以后

02:45 - 02:49

右侧这会出现一个安装的命令

02:49 - 02:49

复制以后呢

02:49 - 02:53

我们在输入框进入c m d的命令框

02:53 - 02:56

然后我们把这个命令拷贝到这儿

02:56 - 02:58

点击回车运行即可

02:58 - 02:59

有不明白的小伙伴呢

02:59 - 03:04

可以参照我们上一期的这个视频讲解

03:04 - 03:07

实操本地部署decrypt R1的两种fofa

03:07 - 03:08

那么安装以后呢

03:08 - 03:11

它会进行一个自动的运行

03:11 - 03:12

运行以后呢

03:12 - 03:15

我们就可以在这个CMD的命令框

03:15 - 03:19

和这个deep seek进行一个简单的对话

03:19 - 03:22

在命令框里进行对话实属的不太方便

03:22 - 03:25

而且可视化的界面也不美观

03:25 - 03:29

所以说大家都采用了AI的UI界面

03:29 - 03:31

进行一个可视化的操作

03:31 - 03:33

那么现在常用的呢

03:33 - 03:35

就是Cherry studio和chatbox

03:35 - 03:38

我们打开Cherry studio的官方网页

03:38 - 03:41

然后我们下载自己对应的客户端

03:41 - 03:43

目前它支持三大桌面系统

03:43 - 03:46

Windows Mac OS和linux

03:47 - 03:47

它呢

03:47 - 03:51

支持跟所有的大模型API进行套壳

03:51 - 03:54

同时呢它也支持知识库

03:54 - 03:55

图片文档

03:55 - 03:57

而且是开源免费

03:57 - 04:00

所以说你是电脑端进行使用

04:00 - 04:03

那么首选China studio这个软件即可

04:03 - 04:05

那么我们另一个常用的界面

04:05 - 04:07

就是Chatbox AI

04:07 - 04:08

它的优点呢

04:08 - 04:11

就是除了我们的桌面端可以运行

04:11 - 04:12

同时

04:12 - 04:14

它也可以在我们的手机端进行运行

04:15 - 04:16

如果说你是手机端

04:16 - 04:19

那么这是一个不错的选择

04:19 - 04:20

那么下载以后呢

04:20 - 04:22

我把这两个软件进行一个安装

04:22 - 04:25

我们先看cherrystudio这个软件

04:25 - 04:26

点击下方的齿轮

04:26 - 04:29

然后找到我们的ollama这一个选项

04:30 - 04:32

然后在这儿输入API的地址

04:32 - 04:35

如果说我们是本地部署的话

04:35 - 04:38

我们就可以用下面的API地址

04:38 - 04:39

这个网址进行一个访问

04:40 - 04:43

当然前面我们如果是本机部署的话

04:43 - 04:47

那么我们就填127.0.0.1

04:47 - 04:49

如果说你设置了局域网

04:49 - 04:51

所有设备可以访问的话

04:51 - 04:54

那么你就指向你安装的局域网的

04:54 - 04:55

这个设备的IP

04:55 - 04:57

如果你在部署了模型的这个

04:57 - 04:59

ollama的这个电脑上

04:59 - 05:02

设置了允许了远程访问

05:02 - 05:06

那么我们也可以输入一些个远程的IP

05:06 - 05:07

进行访问

05:07 - 05:08

然后点击下面的管理

05:08 - 05:11

就可以找到我们本地部署的模型

05:11 - 05:12

选中以后呢

05:12 - 05:14

然后我们回到对话框

05:14 - 05:16

就可以进行一个使用了

05:16 - 05:18

那么我们再看一下Chatbox

05:18 - 05:20

操作也是一样的

05:20 - 05:21

我们点击设置

05:21 - 05:23

我们在这儿找到ollamaAPI

05:23 - 05:25

或者是我们自定义

05:25 - 05:27

添加一个API的访问地址

05:27 - 05:29

同样的道理在这儿

05:29 - 05:30

我们可以输入同样的道理

05:31 - 05:34

我们在这儿输入本地部署电脑的IP

05:34 - 05:35

加上端口

05:35 - 05:38

然后呢下面就可以跳出对应的模型

05:38 - 05:39

选中对应的模型

05:39 - 05:42

就可以进行一个聊天对话了

05:42 - 05:43

那么在这儿注意的是

05:43 - 05:45

我们的这个API地址啊

05:45 - 05:48

可以输入本地的这个地址进行访问

05:49 - 05:52

也可以输入远程的地址进行访问

05:52 - 05:54

那么我们在这就有一个想法

05:54 - 05:57

我们是不是可以找到互联网上

05:57 - 05:58

一些个免费

05:58 - 06:01

没有阻止某些IP访问的一些机器

06:01 - 06:02

这些机器呢

06:02 - 06:05

它也部署了deepseek r1的这个模型

06:05 - 06:08

然后我们把这些IP找到以后

06:08 - 06:10

然后换成对方的IP

06:10 - 06:13

我们是不是可以免费使用他的模型呢

06:13 - 06:17

那么 我们应该如何找到部署了这个ollama

06:17 - 06:17

或者说

06:17 - 06:21

部署了deepseek这样的一个IP地址呢

06:21 - 06:23

首先打开强哥的博客

06:23 - 06:26

然后我们找到下面一篇文章

06:26 - 06:27

免费调用

06:27 - 06:30

互联网上本地部署的deepseek R1模型

06:30 - 06:33

然后我们找到第一个代码框

06:33 - 06:34

我们复制这个代码

06:34 - 06:37

然后呢我们打开这个fofa网站

06:37 - 06:38

fofa网站呢

06:38 - 06:41

是一个互联网资产搜索引擎

06:41 - 06:45

专门用于发现和分析互联网上的设备

06:45 - 06:46

服务和应用

06:46 - 06:48

我们把刚才的命令复制到这儿

06:48 - 06:49

点击搜索

06:50 - 06:50

于是呢

06:50 - 06:52

我们就可以调出很多端口是11434的

06:54 - 06:56

这些个IP地址

06:56 - 06:58

那么这些IP呢

06:58 - 07:00

大概率是部署了乌拉玛

07:00 - 07:02

也就是说部署了某些个大模型

07:02 - 07:03

我们可以看到

07:03 - 07:06

我们搜索了3万多条的这个IP

07:06 - 07:09

当然这里面可能有重复的IP

07:09 - 07:11

但是这些IP足够让我

07:11 - 07:13

们进行一个查找和使用

07:13 - 07:14

在这儿值得注意的是

07:14 - 07:17

这个网站如果不注册的话

07:17 - 07:19

那么搜索的数量非常有限

07:19 - 07:22

大家可以在网上寻找临时的邮箱

07:22 - 07:24

然后用临时的邮箱进行一个注册

07:24 - 07:25

这样呢

07:25 - 07:28

我们登录以后就可以查到更多的IP

07:28 - 07:31

那么我们解释一下这个命令的意思

07:31 - 07:35

前面呢就是搜索11434的这样的端口

07:35 - 07:36

开放的服务器

07:36 - 07:39

后面这个命令是指的状态码是200

07:39 - 07:42

这也就意味着它的运行状态是正常的

07:42 - 07:43

通过这个语法呢

07:43 - 07:45

我们就可以筛选到

07:45 - 07:48

互联网上所有开放这个端口

07:48 - 07:50

而且可以进行运行的这些个IP

07:50 - 07:51

以及服务器

07:51 - 07:54

当然这些IP不是每一个都能用的

07:54 - 07:55

不过我试了一下

07:55 - 07:56

很容易找到

07:56 - 07:59

32B或者是70B的

07:59 - 08:00

这样的大模型是非常常见的

08:01 - 08:03

选定某个IP以后

08:03 - 08:06

我们先打开后面的它的这个链接按钮

08:06 - 08:08

然后呢我们可以看到

08:08 - 08:10

这儿显示一个ollama

08:10 - 08:11

正在运行的一个状态

08:11 - 08:12

这说明这个IP我们可以进行访问

08:14 - 08:16

我们把它复制下来

08:16 - 08:17

我们就以Chatbox为例

08:18 - 08:18

然后呢

08:18 - 08:21

我们把这个地址更换成网络上的地址

08:21 - 08:22

后边这个斜杠不要

08:22 - 08:24

我们打开模型的框

08:24 - 08:25

就可以看到这个IP

08:26 - 08:28

它部署了这四个模型

08:28 - 08:31

那么32B的deep seek这个模型呢

08:31 - 08:32

就已经相当不错了

08:33 - 08:34

我们进行试一下

08:34 - 08:38

然后在右侧选择你要选择的模型

08:38 - 08:40

那么我们问他一个问题

08:40 - 08:44

一个球和一个球棒的总价格是11美元

08:44 - 08:46

球棒比球贵10美元

08:46 - 08:48

球的价格是多少

08:48 - 08:49

我们看它可以运行

08:49 - 08:51

说明我们可以调用

08:51 - 08:53

这个IP的模型

08:53 - 08:55

这是它的推理过程

08:55 - 08:59

那么如果我们用这个cherrystudio界面

08:59 - 09:01

比这个Chatbox界面还要好

09:01 - 09:04

只不过cherrystudio没有手机端的界面

09:04 - 09:06

最终的答案是0.5

09:06 - 09:08

那么他回答正确了

09:08 - 09:11

然后我们再试着问他一个敏感问题

09:11 - 09:13

因为这个问题过于敏感

09:13 - 09:14

我就不读了

09:14 - 09:14

你看

09:14 - 09:20

我们可以进行一个敏感话题的聊天

09:23 - 09:24

这也是我们本地部署的

09:24 - 09:26

一个特别有优势的地方

09:26 - 09:27

同样的道理

09:27 - 09:28

我们用carry studio

09:28 - 09:31

这个u i界面也是如此操作

09:31 - 09:33

在a p i地址上

09:33 - 09:35

输入这个对方的IP以及端口

09:35 - 09:37

然后点击下方的管理

09:37 - 09:38

就会出现对应的模型

09:40 - 09:42

然后新建一个对话

09:42 - 09:45

然后在上方选择我们要选择的模型

09:45 - 09:47

应该是这个模型

09:47 - 09:49

反应的速度特别的快

09:49 - 09:52

然后我们看一下手机上如何运行

09:52 - 09:55

然后选择使用自己的a p i k

09:55 - 09:56

或者是本地模型

09:56 - 09:57

这个选项

09:57 - 09:58

然后选择ollama API

09:59 - 10:02

在这儿输入我们刚才那个IP以及端口

10:02 - 10:03

点击保存即可

10:04 - 10:06

然后选择你想要的模型

10:07 - 10:08

就这么简单

10:08 - 10:09

这是因为

10:09 - 10:12

很多人在本地电脑部署了大模型以后

10:12 - 10:16

他不仅用本地的这台电脑去访问

10:16 - 10:18

他很有可能希望在单位

10:18 - 10:21

或者是出差的时候

10:21 - 10:21

去访问

10:21 - 10:25

他家中部署了这个大模型的这台电脑

10:25 - 10:27

于是呢他开放了防火墙

10:28 - 10:30

允许了所有的IP进行访问

10:30 - 10:32

这也是我们新手小白朋友

10:32 - 10:34

经常犯的错误

10:34 - 10:34

所以说

10:34 - 10:37

我们本地部署了这个大模型以后

10:37 - 10:40

一定要进行一些个安全的设置

10:40 - 10:42

否则呢你的电脑

10:42 - 10:44

将成为别人使用的肉鸡

10:44 - 10:46

那么我们如何来进行设置呢

10:46 - 10:48

其实非常的简单

10:48 - 10:50

我们来到强哥的博客

10:50 - 10:52

然后呢我这详细介绍了

10:52 - 10:55

如何进行一个安全的设置

10:55 - 10:57

那么我们以Windows环境进行演示

10:58 - 11:01

首先呢我们要确认我们的环境变量

11:01 - 11:02

里面的设置

11:02 - 11:05

我们在这个搜索框输入环境变量

11:05 - 11:08

然后打开这个系统变量

11:08 - 11:10

下面有一个环境变量

11:10 - 11:11

打开以后呢

11:11 - 11:14

我们看看我们的变量里面怎么设置的

11:14 - 11:17

在这儿我这儿设置的是ollama host

11:17 - 11:22

然后呢后边的IP呢是本地局域网的IP

11:22 - 11:23

这样呢

11:23 - 11:26

就拒绝了外网进行一个访问的权限

11:26 - 11:28

如果你只设置了

11:28 - 11:31

本地部署的这台电脑的IP

11:31 - 11:32

以及端口

11:32 - 11:36

那么我们只允许了本地局域网的电脑

11:36 - 11:38

或者是手机等等设备进行访问

11:39 - 11:40

外网不能够进行连接

11:40 - 11:46

但是呢如果我们把这个IP修改为0.0.0.0

11:46 - 11:48

那么这就意味着

11:48 - 11:51

允许所有的IP访问我们这台电脑

11:51 - 11:54

如果我们的防火墙没有进行阻拦的话

11:55 - 11:56

别人就可以直接调用

11:56 - 11:58

我们本地部署的模型

11:58 - 11:59

进行使用

11:59 - 12:01

所以说我们在这儿变量值这儿

12:01 - 12:04

最好设置本机的这个IP

12:05 - 12:07

或者是局域网的IP

12:07 - 12:07

另外

12:07 - 12:10

如果你真的需要一个远程的访问

12:10 - 12:13

你在这儿设置了0.0.0.0的(口误)

12:13 - 12:15

这样的一个变量值

12:16 - 12:20

那么 我们必须在防火墙上进行一个设置

12:20 - 12:23

来阻止其他的IP进行一个访问

12:23 - 12:26

只允许某些IP进行访问

12:26 - 12:28

那么我们可以按照这个博客的步骤

12:28 - 12:30

进行一个操作

12:30 - 12:33

首先呢我们找到防火墙

12:33 - 12:34

然后点击这个

12:34 - 12:35

高级设置

12:36 - 12:38

然后选择入站规则

12:39 - 12:41

在这儿新建一个路站规则

12:41 - 12:43

然后选择端口

12:44 - 12:45

点击下一步

12:45 - 12:47

在这儿我们选择TCP

12:47 - 12:50

根据自己的需要去设置

12:50 - 12:54

然后在这个端口里面设置为11434

12:54 - 12:55

点击下一页

12:56 - 12:57

然后允许链接

12:58 - 12:59

点击下一页

12:59 - 13:01

点击下一页

13:01 - 13:03

我们起一个名称

13:03 - 13:04

点击完成

13:04 - 13:05

完成以后

13:05 - 13:07

我们在这个路站规则里

13:07 - 13:10

就可以看到我们设置的这个路站规则

13:10 - 13:13

找到这个ollama11434

13:13 - 13:15

双击双击以后

13:15 - 13:18

我们点击这个作用域这个选项卡

13:18 - 13:21

然后在下面有一个远程IP地址

13:21 - 13:23

下列IP地址

13:23 - 13:26

然后在这儿输入允许访问的IP

13:26 - 13:28

这样就限制了

13:28 - 13:30

允许特定的IP进行一个远程访问

13:30 - 13:31

这样呢

13:31 - 13:34

别人即使扫描到了我们的IP地址

13:34 - 13:35

以及端口

13:36 - 13:38

那么他也无权进行访问

13:38 - 13:39

其实啊

13:39 - 13:42

强哥分享这期视频还是比较纠结的

13:42 - 13:44

不知道该不该让大家知道

13:44 - 13:46

不想让大家知道

13:46 - 13:46

是因为

13:46 - 13:50

我怕大家都去白嫖别人的服务器

13:50 - 13:51

想让大家知道呢

13:51 - 13:54

就是让大家做好自我保护

13:54 - 13:57

如果你对强哥这期视频有什么看法

13:57 - 13:59

或者想说出你的想法

13:59 - 14:03

欢迎在视频下方进行留言讨论

14:03 - 14:05

我会积极的帮助大家

14:05 - 14:05

这期视频呢

14:05 - 14:07

我们就分享到这

14:07 - 14:10

希望大家多多关注我的频道

14:10 - 14:11

帮忙点个赞

14:11 - 14:13

点赞点赞

14:13 - 14:15

好我们下期再见拜拜

Unlocking the Power of DeepSeek R1: Free Access via Ollama

In this article, we delve into the world of local deployment of large models, focusing on the DeepSeek R1 model and how users can leverage the internet to access it for free. By utilizing tools like Fofa, Ollama, Cherry Studio, and Chatbox, we detail three main steps: understanding the usage of these software tools, discovering servers that host the DeepSeek R1 model, and securely connecting to them. Join us in this knowledge-sharing journey while keeping security measures firmly in place.

Understanding the Software: Ollama, Cherry Studio, and Chatbox

Before we dive into the practical aspects of accessing DeepSeek R1, it's crucial to familiarize yourself with the three primary software components:

  1. Ollama: This is your backend engine, serving as a deployment tool for large models. Users can choose various models, including DeepSeek R1, to run on their local devices.

  2. Cherry Studio and Chatbox: These are the front-end interfaces that allow user-friendly interaction with the deployed models. Cherry Studio focuses on desktop systems, while Chatbox offers mobile compatibility, making it accessible for various user needs.

By installing Ollama and ensuring it is running, users can easily connect Cherry Studio or Chatbox to execute conversations with the DeepSeek R1 model in a visually appealing manner.

Searching for Available DeepSeek R1 Deployments

After ensuring everyone is comfortable with Ollama and its front-end options, the next step is finding any publicly available servers running the DeepSeek R1 model.

Using Fofa — an internet asset search engine — is key. This tool can reveal IP addresses that have the necessary ports open and the required status ready to serve. To start, simply copy a predefined command into Fofa's search bar, focusing on open port 11434 (commonly associated with Ollama).

Once registered on Fofa, you can run searches yielding thousands of IPs hosting models, including DeepSeek R1. Users should pay attention, as not all results will be accessible. However, many high-capacity models like 32B and 70B will frequently appear on this list.

Example Search: Accessing a Model

After identifying a suitable IP, users can navigate to an active link that indicates Ollama is operational. Once located, replacing the current API address in your Cherry Studio or Chatbox with the discovered IP address allows access to their deployed model.

For instance, if the model responds to a mathematical question, such as, "A ball and a bat together cost $11, with the bat costing $10 more than the ball, what’s the price of the ball?", and offers an accurate response, it confirms successful access.

Exploring Sensitive Conversations

One edge that local deployments boast is their capability to handle sensitive topics securely. For example, users can engage in private dialogues without fear of application censorship, thus making them more relatable and favored among privacy-centric users.

Emphasizing Security in Deployment

While the process of accessing these servers can seem tempting, it is critical to consider the security implications of your own local deployments. Many users mistakenly leave their setups open, allowing unauthorized access, which jeopardizes not just their systems but could also turn them into vectors for malicious use.

To safeguard your local environment:

  • Adjust Environment Variables: Ensure the Ollama host within your variables is set to a local IP address, blocking outside access.

  • Configure Firewalls: Limit inbound rules to only trusted IP addresses. This ensures anyone attempting to connect needs to be on a predefined list — allowing access while negating unwanted attention.

For a step-by-step process, refer to practical guides available on platforms such as Strong Brother’s Blog for precise configurations.

Conclusion: The Balance of Access and Security

In summary, while gaining free access to DeepSeek R1 and utilizing models via publicly available servers can be an innovative and cost-effective method of leveraging technology, it is paramount to focus on securing your local deployments. User security should never be overlooked, as the technological world continues to expand its reach.

Navigating between the opportunities of free access and maintaining robust protections is the key to enjoying the benefits of large models like DeepSeek R1 while ensuring your systems remain safe, secure, and uncompromised. Just remember, the ultimate goal is to share knowledge and empower users — responsibly and securely.


Now that you've gained some insights into accessing and securing the DeepSeek R1 model, how do you plan to use this information? Engage in thoughtful discussions and stay connected for further tips and tricks!