00:00 - 00:02

(爱的魔力转圈圈)

00:05 - 00:06

各位

00:06 - 00:07

在deepseek放弃之前

00:07 - 00:08

我数了

00:08 - 00:10

它一共转了51圈

00:10 - 00:11

它真的努力了

00:11 - 00:12

不是它态度不好

00:12 - 00:13

是它真的聊不过来了

00:13 - 00:16

从年前到现在它的热度就没有消停过

00:16 - 00:18

只要是工作日它就忙成狗

00:19 - 00:19

更恐怖的是

00:19 - 00:20

复工之后

00:20 - 00:22

deepseek迎来了接入潮

00:22 - 00:24

访问使用量急剧上升

00:24 - 00:25

我一直在用的脑图软件

00:25 - 00:27

也紧急接入了deepseek

00:27 - 00:29

所以短期内deepseek会一直服务器繁忙

00:30 - 00:31

烦死了

00:31 - 00:32

那deepseek还能畅快的用吗

00:32 - 00:33

00:33 - 00:35

因为火山引擎出手了

00:35 - 00:37

就算deepseek官网消失了

00:37 - 00:39

也不影响你我用满血联网 deepseek R1

00:39 - 00:40

没想到吧

00:40 - 00:41

我也没想到

00:41 - 00:44

豆包的亲兄弟会帮你更好的用deepseek

00:44 - 00:46

这难道就是大厂的格局吗

00:46 - 00:48

稍后我就用3分钟

00:48 - 00:49

手把手的教你

00:49 - 00:51

0代码调用火山方舟的API

00:51 - 00:52

搭建一个免费的

00:52 - 00:54

私有专属的deepseek R1客户端

00:54 - 00:56

让你再也没有服务器繁忙的烦恼

00:57 - 00:58

所有人注意了

00:58 - 00:59

火山方舟上

00:59 - 01:00

每个模型

01:00 - 01:02

免费赠送50万token

01:02 - 01:03

一次对话250个token嘛

01:03 - 01:05

那就是2,000次对话

01:05 - 01:07

这免费的羊毛不薅白不薅

01:07 - 01:07

实用的技能

01:07 - 01:09

来个点赞投币加收藏吧

01:09 - 01:10

包教会

01:10 - 01:12

nice

01:12 - 01:15

火山引擎它是一个开放的云和AI服务商

01:15 - 01:16

简单理解就是一个AI铺子

01:17 - 01:18

卖自己的豆包大模型

01:18 - 01:20

也卖别的第三方模型

01:20 - 01:22

当然也包括deepseek全系列

01:22 - 01:23

你可以在火山的模型广场

01:23 - 01:25

直接体验deepseek R1

01:25 - 01:26

最重要的是

01:26 - 01:28

企业和个人都能借助火山引擎

01:28 - 01:30

畅用满血版 deepseek R1

01:31 - 01:32

那效果怎么保证

01:32 - 01:33

关键是三个参数

01:33 - 01:35

500万初始TPM

01:35 - 01:37

30毫秒的吐字间隔 TPOT

01:37 - 01:39

700毫秒的首字延迟 TTFT

01:40 - 01:42

首字延迟低 R1就能秒回你

01:42 - 01:43

30毫秒的吐字间隔

01:43 - 01:45

已经快的目不暇接了

01:45 - 01:46

据官方说

01:46 - 01:49

未来吐字间隔还会进一步优化到15-30毫秒

01:49 - 01:51

主打一个流畅丝滑

01:51 - 01:52

这里最重要的还是TPM

01:53 - 01:56

TPM越高模型每分钟能处理的文本量就越大

01:56 - 01:57

这个TPM

01:57 - 01:59

直接关系到服务器的高并发能力

01:59 - 02:01

就是很多用户同时访问

02:01 - 02:02

它都能忙得过来

02:03 - 02:04

全网最高的500万初始TPM

02:04 - 02:07

大概一分钟就能处理700多万字

02:07 - 02:09

比如你让deepseek给你写一篇700字的文章

02:09 - 02:10

你这样的需求

02:10 - 02:11

它能同时应付1万个

02:12 - 02:13

企业端私有部署

02:13 - 02:15

全体员工同时用都不会卡

02:15 - 02:17

你再看其他服务商的TPM

02:17 - 02:19

1万TPM肯定卡

02:19 - 02:21

火山引擎支持好几种模式的接入

02:21 - 02:22

中小企业和个人

02:22 - 02:25

直接调用火山方舟API是最方便的

02:25 - 02:26

你不用下载模型

02:26 - 02:28

也不用操心自己的硬件配置

02:28 - 02:30

只要一个API key

02:30 - 02:32

你就能直接调用满血版的deepseek

02:34 - 02:36

接下来我们3分钟快速搭建

02:36 - 02:38

先到火山引擎的模型广场

02:38 - 02:40

你看deepseek全系列模型都在上面

02:41 - 02:42

上面还有限时折扣的标

02:42 - 02:43

点击查看详情

02:43 - 02:45

R1模型百万TOKEN

02:45 - 02:46

输入2块

02:46 - 02:47

输出8块

02:47 - 02:48

我们个人用户

02:48 - 02:50

先薅完它免费送的50万tokens再说

02:51 - 02:52

点击右上角的模型推理

02:52 - 02:54

接入点名称随便取一个都行

02:54 - 02:57

接入配置显示模型未开通

02:57 - 02:58

点击立即开通

02:58 - 03:00

然后会跳出一个实名认证

03:00 - 03:01

微信扫脸认证一下就好

03:02 - 03:04

再回到刚才的页面就可以接入了

03:04 - 03:06

你看有免费送你的50万tokens

03:06 - 03:08

然后点击确认接入

03:08 - 03:10

推理接入点就创建好了

03:10 - 03:12

接下来就可以直接调用API了

03:12 - 03:13

点击API调用

03:14 - 03:15

选择API key并复制

03:15 - 03:17

直接下一步就好了

03:17 - 03:18

API Key就到手了

03:19 - 03:20

然后我们去下载一个免费的软件

03:21 - 03:22

Cherry Studio

03:22 - 03:23

这个就是一个对话客户端

03:24 - 03:25

它可以通过API key

03:25 - 03:27

调用部署在火山云的deepseek R1

03:28 - 03:29

客户端安装好之后

03:29 - 03:30

点击左下角的设置

03:30 - 03:31

这里有各家的模型

03:31 - 03:33

我们找到豆包

03:33 - 03:34

因为豆包就是火山云

03:34 - 03:35

点击豆包

03:35 - 03:37

这里需要输入API密钥

03:37 - 03:39

就是前面刚刚拿到的API key

03:39 - 03:40

粘贴进来就好了

03:40 - 03:42

然后点击添加按钮

03:42 - 03:43

这里需要输入模型的ID

03:43 - 03:45

ID就是前面推理介接入点

03:45 - 03:48

名称下面ep开头的这一长串

03:48 - 03:49

复制过来就好

03:50 - 03:51

模型名字改成

03:51 - 03:52

火山deepseek R1吧

03:52 - 03:54

然后添加模型

03:54 - 03:55

点击右上角的检查

03:55 - 03:57

嘿 恭喜你

03:57 - 03:57

连接成功

03:58 - 04:00

现在立刻去主页跟deepseek R1 聊天

04:01 - 04:02

把上面的默认助手

04:02 - 04:04

改成刚刚接入的火山deepseek R1

04:05 - 04:05

Guys

04:05 - 04:06

畅聊吧

04:06 - 04:08

无延迟不转圈的deepseek R1

04:08 - 04:09

开始思考了

04:09 - 04:10

看看这个速度

04:10 - 04:11

那叫一个顺畅

04:11 - 04:14

这次对话一共消耗了280 tokens

04:14 - 04:17

我还剩下499,720 tokens

04:17 - 04:17

怎么办

04:17 - 04:18

根本花不完

04:19 - 04:20

全程不到3分钟

04:20 - 04:23

你就收获了满血版无延迟的deepseek R1

04:23 - 04:24

爽不爽

04:24 - 04:26

我知道你还想要联网的deepseek R1

04:27 - 04:27

也简单

04:27 - 04:29

这次我们换一个客户端Chatbox

04:29 - 04:31

跟Cherry studio类似的

04:31 - 04:32

也是大家常用的

04:32 - 04:33

配置deepseek R1

04:33 - 04:35

跟前面的过程是一样的

04:35 - 04:35

在设置里面

04:35 - 04:37

添加一个自定义的提供方就行了

04:38 - 04:39

联网的deepseek 有点不一样

04:39 - 04:42

我们回到刚刚火山引擎的在线推理页面

04:42 - 04:44

点击左上角的应用广场

04:44 - 04:46

这里有个deepseek R1 联网搜索版

04:46 - 04:48

深度思考 可复制 0代码

04:49 - 04:50

点进去

04:50 - 04:51

然后点击右上角的复制

04:51 - 04:52

改个名字

04:52 - 04:53

R1 联网

04:53 - 04:56

接入点还是默认选择之前创建的接入点就行

04:56 - 04:58

然后点击右上角的发布就好了

04:58 - 05:00

然后点击API调用指南

05:00 - 05:01

你就获得了API key

05:02 - 05:02

这里注意一下啊

05:03 - 05:04

第三方API调用示例

05:04 - 05:07

API域名多了一个bots

05:07 - 05:08

然后这个应用的ID

05:08 - 05:11

就是左上角bot开头的那长串

05:11 - 05:13

然后到Chatbox里面点击设置

05:13 - 05:14

点击提供方

05:14 - 05:15

添加自定义

05:16 - 05:17

名字改成 R1 联网

05:18 - 05:20

API域名就是前面带bots后缀的那个地址

05:20 - 05:21

复制过来

05:21 - 05:22

这里注意啊

05:22 - 05:24

如果是在Cherry studio里面配置

05:24 - 05:26

bots后面还要加一个/

05:27 - 05:28

API路径不用管

05:28 - 05:30

API密钥复制过来

05:30 - 05:32

模型名称就是前面bot开头的那长串

05:32 - 05:33

也复制过来

05:33 - 05:33

保存

05:34 - 05:34

搞定

05:35 - 05:36

然后测试一下

05:36 - 05:37

问它今天星期几

05:37 - 05:39

你看思考过程很详细

05:39 - 05:41

现在是2月15号凌晨1点半

05:41 - 05:42

今天是星期六

05:43 - 05:43

恭喜你

05:43 - 05:45

获得了联网的deepseek R1

05:45 - 05:46

就这么简单

05:46 - 05:48

而且火山的deepseek R1 联网能力更强

05:49 - 05:51

因为它背后有整个抖音头条的内容生态

05:51 - 05:52

和搜索能力

05:52 - 05:54

我后面又拿硅基流动的R1

05:54 - 05:55

对比测试了一下

05:55 - 05:56

有点意思

05:56 - 05:57

同样的问题

05:57 - 05:57

火山引擎

05:57 - 05:59

输出252个字

05:59 - 06:00

输出用时6.6秒

06:01 - 06:02

用了254个输出tokens

06:03 - 06:05

硅基流动输出250个字

06:05 - 06:06

输出用时9.3秒

06:06 - 06:08

居然用了891个输出tokens

06:09 - 06:11

这个背后是因为字节对deepseek R1

06:11 - 06:12

做了MoE推理优化

06:12 - 06:13

那技术细节太复杂

06:13 - 06:14

我也讲不清

06:14 - 06:16

反正就是火山帮你省钱了

06:17 - 06:17

再一个就是

06:17 - 06:18

同样的提示词

06:18 - 06:21

不管是思考过程还是输出过程

06:21 - 06:23

明显火山的deepseek要快

06:23 - 06:24

就是延迟更低

06:24 - 06:25

体验感要好很多

06:25 - 06:27

这个还只是个人访问

06:27 - 06:28

如果是高并发

06:28 - 06:29

差距应该会更明显

06:30 - 06:31

好了看完这个视频

06:31 - 06:33

你学会了如何快速的从火山引擎

06:33 - 06:35

部署自己的满血版deepseek R1

06:36 - 06:37

如果你是个人用户

06:37 - 06:39

那每个模型50万 tokens

06:39 - 06:40

赶紧薅

06:40 - 06:41

还有福利

06:41 - 06:42

点击评论区链接

06:42 - 06:43

填写邀请码注册

06:43 - 06:44

就送你15元代金券

06:44 - 06:46

能抵扣375万 tokens

06:46 - 06:47

你邀请一个新用户

06:48 - 06:49

再送你750万 tokens

06:49 - 06:50

上不封顶

06:50 - 06:51

如果你是企业用户

06:51 - 06:53

500万初始TPM

06:53 - 06:54

和限时半价

06:54 - 06:55

是最大的吸引力

06:56 - 06:58

火山引擎还推出了方舟大模型体验中心

06:58 - 06:59

UI简单 免登录

06:59 - 07:01

PC端和移动端都能直接体验

07:01 - 07:03

deepseek R1 V3 还有豆包1.5

07:04 - 07:05

点赞收藏转发

07:05 - 07:06

然后快去试试吧

07:06 - 07:07

谢谢你的时间

07:07 - 07:07

下个视频

07:07 - 07:08

再见

The Power of Love: Experience the Efficient Usage of DeepSeek R1

In the fast-paced world of technology, DeepSeek has been a reliable companion for many users, with its ability to efficiently handle text processing tasks. Despite facing server congestion due to a surge in usage post-pandemic, the introduction of Fireball Engine has come to the rescue, ensuring uninterrupted access to DeepSeek R1. This development signifies the seamless integration of top-notch AI services to enhance user experience.

Fireball Engine, an open cloud and AI service provider, functions as an AI marketplace, offering a wide range of models including the entire DeepSeek R1 series. Leveraging the capabilities of Fireball Engine, both individuals and businesses can enjoy the full-fledged DeepSeek R1 experience. The key to ensuring optimal performance lies in three crucial parameters: 500 million initial TPM (Text Processing Minutes), a 30-millisecond response interval, and a 700-millisecond initial delay. This combination guarantees swift and uninterrupted interactions, with the TPM directly impacting the model's capacity to handle a large volume of text in a short span of time.

With DeepSeek R1 running on Fireball Engine, users can expect a smooth and uninterrupted experience. The high initial TPM not only enables efficient text processing but also ensures seamless operation even under high traffic conditions. This exceptional performance sets DeepSeek R1 apart from other services, making it a preferred choice for businesses and individuals alike.

Integrating DeepSeek R1 with Fireball Engine is a straightforward process that involves accessing the Model Plaza, setting up interactive points, and obtaining the API key for seamless connectivity. By utilizing tools such as Cherry Studio or Chatbox, users can easily configure and deploy DeepSeek R1 for personalized text processing needs. With Fireball Engine's extensive ecosystem and cutting-edge technology, users can enjoy a lag-free, efficient DeepSeek R1 experience, backed by top-tier AI capabilities.

In a comparative test against Silicon-based models, DeepSeek R1 exhibited superior performance, showcasing lower latency and faster response times, thanks to optimization techniques like MoE inference introduced by Fireball Engine. Whether for individual use or high-traffic scenarios, the efficiency and reliability of DeepSeek R1 on Fireball Engine remain unmatched.

In conclusion, the seamless integration of DeepSeek R1 with Fireball Engine offers users a powerful and efficient text processing solution. Whether you are an individual user looking to capitalize on free tokens or a business seeking high-performance TPM, Fireball Engine's DeepSeek R1 provides a reliable and robust platform for all your text processing needs. Embrace the future of AI-driven text processing with DeepSeek R1 on Fireball Engine, and elevate your digital experience to new heights.

So, are you ready to embark on a journey of seamless text processing with DeepSeek R1 on Fireball Engine? Dive into the world of efficient AI services and unlock a realm of endless possibilities. It's time to experience the true power of love – the love for technology, efficiency, and innovation!


Keywords: DeepSeek, Fireball Engine

Tags: DeepSeek R1, Fireball Engine, AI Services, Text Processing, Efficiency, Integration, Technology, User Experience