00:00 - 00:00

你好

00:00 - 00:02

欢迎来到AI学长的频道

00:02 - 00:03

我是小林

00:03 - 00:06

这段时间我花了很长时间研究各种

00:06 - 00:08

AI工作流平台以及它们的优缺点

00:08 - 00:12

国内的话有coze, dify, fastgpt

00:12 - 00:14

国外的话有zapier, make

00:14 - 00:17

这几个平台几乎代表了工作流平台的

00:17 - 00:17

主要市场

00:17 - 00:20

相信绝大部分的玩家都是从这几个

00:20 - 00:22

平台入手去玩工作流的

00:22 - 00:25

但是不知道大家有没有发现一个问题

00:25 - 00:28

就是国内的工作流平台和第三方应用

00:28 - 00:29

的集成度非常非常的低

00:29 - 00:32

基本上只能在工作流平台的对话窗口

00:32 - 00:34

当中和他们进行交互

00:34 - 00:37

而国外的平台虽然第三方集成做的还

00:37 - 00:37

不错

00:37 - 00:39

但都是闭源的

00:39 - 00:41

必须付费订阅才可以使用

00:41 - 00:44

更糟糕的是即使你付了会员费

00:44 - 00:46

每个月还有总使用次数的限制

00:46 - 00:48

想多用都不行

00:48 - 00:49

在这个背景之下

00:49 - 00:52

我重新考虑和选择了新的工作流平台

00:52 - 00:55

所以这期视频就和大家做一个简单的

00:55 - 00:58

分享这段时间我使用新工作流平台的

00:58 - 00:59

一些心得体会

00:59 - 01:02

这个工作流平台的名字叫N8N

01:02 - 01:05

实际上早在2023年我就接触过它

01:05 - 01:09

但当时因为它的界面不是很美观

01:09 - 01:11

看起来很原始的状态

01:11 - 01:15

再加上被Dify还有coze这类的平台

01:15 - 01:16

吸引了注意力

01:16 - 01:18

就没有深入去做研究

01:18 - 01:21

但是这段时间真正使用下来才发现

01:21 - 01:22

自己好像错过了一个亿

01:22 - 01:26

N8N这个工作流平台它完美的契合了

01:26 - 01:27

我的要求

01:27 - 01:30

它有丰富的第三方应用集成

01:30 - 01:32

特别是一些海外的应用

01:32 - 01:33

只要是你能想到的

01:33 - 01:35

它几乎都集成了

01:35 - 01:38

在工作流当中可以很方便的调用

01:38 - 01:40

这一点其实特别的重要

01:40 - 01:44

因为工作流它本质上就是大模型的

01:44 - 01:45

脚手架

01:45 - 01:49

如果不能和外部应用进行顺畅的对接

01:49 - 01:52

交互就等于是限制了它的能力

01:52 - 01:54

就比如说像这段时间非常火的

01:54 - 01:56

MCP协议一样

01:56 - 01:57

都是在解决大模型

01:57 - 02:02

如何更好的调用外部应用的问题

02:02 - 02:05

那么如果工作流平台不能打通这个环节

02:05 - 02:09

就像是把大模型关在一个笼子里面

02:09 - 02:10

那么第二点的话

02:10 - 02:12

N8N它是开源的

02:12 - 02:15

你可以选择在本地运行

02:15 - 02:17

或者说部署在自己的服务器上

02:17 - 02:20

又或者说直接使用N8N的

02:20 - 02:22

线上服务都是可以的

02:22 - 02:25

对于新手来说也非常的友好

02:25 - 02:27

用Docker可以一键部署

02:27 - 02:29

上面说了这么多

02:29 - 02:31

可能还是会有一点抽象

02:31 - 02:34

接下来我就用一个具体的例子

02:34 - 02:37

来给大家展示一下它的实际能力

02:37 - 02:39

能做到什么样的一个地步

02:39 - 02:43

我就以自己的AI日报工作流为案例

02:43 - 02:46

这个工作流就是用N8N来搭建的

02:46 - 02:51

它的作用是自动收集网上的AI新闻

02:51 - 02:52

那么这些AI新闻

02:52 - 02:55

是我给它的订阅源

02:55 - 02:58

比如说可以是AI资讯网站上的信息

02:58 - 03:01

也可以是微信公众号上的信息

03:01 - 03:04

那么自动把这些信息收集采集下来之后

03:04 - 03:07

自动发送给AI

03:07 - 03:08

那么AI的话

03:08 - 03:11

它会自动评选合格的新闻

03:11 - 03:13

符合我要求的新闻

03:13 - 03:14

进入下一个环节

03:15 - 03:17

之后我会根据AI筛选出来的新闻

03:17 - 03:21

去生成一个音频的日报

03:22 - 03:24

就是这一系列的工作流

03:24 - 03:27

通过火山的语音API自动生成音频

03:27 - 03:31

然后把音频保存到AWS的存储桶里面

03:31 - 03:32

供我后面使用

03:32 - 03:35

然后接下来就是把这个日报

03:35 - 03:38

同步到我的notion表格里面去

03:38 - 03:41

因为我自己是创建了一个博客界面

03:41 - 03:45

每天给我的会员提供AI资讯的信息

03:45 - 03:47

然后这些AI资讯的信息

03:47 - 03:49

就是通过工作流

03:49 - 03:52

同步到对应的notion表格

03:52 - 03:55

然后博客会自动解析

03:55 - 03:57

我notion表格上的数据

03:57 - 04:00

渲染出来这样一个网站

04:00 - 04:00

除此之外

04:00 - 04:03

因为我每天要把日报截图

04:03 - 04:04

还有音频信息

04:04 - 04:05

文字信息

04:05 - 04:07

发送到我的会员群

04:07 - 04:09

以及Telegram的粉丝群

04:09 - 04:11

所以增加了这一系列的工作流

04:11 - 04:15

这几个步骤是对日报进行截图

04:15 - 04:15

04:15 - 04:17

然后到了最后的发送环节

04:17 - 04:19

根据前面生成好的

04:19 - 04:21

AI资讯的摘要

04:21 - 04:22

以及截图

04:22 - 04:26

还有前面用火山生成的音频信息

04:26 - 04:27

上面这条工作流

04:27 - 04:31

是把内容发送到Telegram粉丝群

04:31 - 04:32

然后下面这条工作流

04:32 - 04:34

是把日报的信息

04:34 - 04:36

推送到我的会员群

04:36 - 04:39

这是它简单的一个功能介绍

04:39 - 04:41

接下来我来给大家演示一下

04:41 - 04:43

我们来运行一下工作流

04:43 - 04:44

看一下它的实际效果

04:45 - 04:45

04:45 - 04:47

现在工作流已经在运行了

04:47 - 04:50

我点开这个界面

04:50 - 04:50

OK

04:50 - 04:53

首先它这里自己创建了一条

04:53 - 04:56

AI日报的数据源

04:56 - 05:00

然后在这个界面里面去同步信息

05:00 - 05:02

可以看到它有5个项目

05:02 - 05:03

也就是5条数据

05:03 - 05:07

现在已经是成功插入到我的

05:07 - 05:08

notion表格了

05:08 - 05:09

我们接着往下

05:09 - 05:11

现在是已经把日报信息

05:11 - 05:14

推送到我的Telegram粉丝群

05:14 - 05:15

包含三个信息

05:15 - 05:18

第一个的话是日报的标题

05:18 - 05:20

首先是一个信息汇总

05:20 - 05:22

然后下面的话是原文

05:22 - 05:26

就是会跳转到我的日报博客页面

05:26 - 05:29

接着往下是日报的截图

05:29 - 05:30

也是自动完成的

05:31 - 05:34

然后最后的话就是日报的音频

05:34 - 05:36

总共有2分36秒

05:36 - 05:38

那么对应的话就是这些文字信息

05:38 - 05:40

我们也可以试听一下

05:40 - 05:42

谷歌Gemini上线实时屏幕共享

05:42 - 05:44

蚂蚁华为阿里云联合推出

05:44 - 05:46

AI医疗解决方案

05:46 - 05:48

DeepMind提出机器人线法

05:48 - 05:52

地平线发布AlphaDrive自动驾驶大模型

05:52 - 05:55

CVPR 2025发布开源三维生成框架

05:55 - 05:57

3月24日AI资讯

05:57 - 06:01

刚刚谷歌AI智能体首次上线手机

06:01 - 06:03

Gemini看懂屏幕实时交流

06:03 - 06:04

摘要

06:04 - 06:08

谷歌Gemini推出实时屏幕共享和视频功能

06:08 - 06:10

用户可以与AI实时互动

06:10 - 06:12

识别屏幕内容并进行分析

06:12 - 06:16

这标志着谷歌在AI助手领域的进一步领先

06:16 - 06:19

然后就是我的微信会员群

06:19 - 06:20

同样的话

06:20 - 06:23

我用了一个微信的客服号

06:23 - 06:28

把这三条信息自动推送到我的小群

06:28 - 06:29

包含标题

06:29 - 06:30

链接

06:30 - 06:33

然后截图

06:33 - 06:36

最后的话是日报的音频

06:36 - 06:38

那么通过这样一个工作流

06:38 - 06:39

我就可以每天自动

06:39 - 06:42

就是我自己不需要做任何操作

06:42 - 06:44

到每天我指定的节点

06:44 - 06:49

我现在设置的时间是每天晚上的9点20分

06:49 - 06:53

它自动根据我设定好的这些AI资讯网站

06:53 - 06:55

自动去收集信息

06:55 - 06:57

然后自动去筛选我想要的信息

06:57 - 06:59

符合我标准的信息

06:59 - 07:02

然后生成音频生成截图生成网站

07:02 - 07:05

并且自动把它发送到我的telegram粉丝群

07:05 - 07:07

以及我的微信会员群

07:07 - 07:11

包括网站它都自动生成了

07:11 - 07:16

里面这些信息都是通过日报的工作流来生成的

07:16 - 07:19

最早其实我用MAKE这个平台搭建过

07:19 - 07:21

类似于日报的工作流

07:21 - 07:24

但是之前用MAKE这个平台

07:24 - 07:27

它有两个缺陷是我比较不满意的

07:27 - 07:28

第一个的话

07:28 - 07:30

它是有一个总使用次数的限制

07:30 - 07:34

也就是我每个月开通了10美金的会员

07:34 - 07:38

但是它每个月只能用1万次

07:38 - 07:39

就是一个节点

07:39 - 07:41

执行一次就算一次

07:41 - 07:43

有这种1万次的额度限制

07:43 - 07:46

因为我本身自己的工作流程比较多

07:46 - 07:50

我觉得MAKE在这一点是不能满足我的需求

07:50 - 07:51

然后第二点的话

07:51 - 07:54

就是MAKE它的工作流节点

07:54 - 07:56

搭配起来不是特别的灵活

07:56 - 08:00

像一些我的需求可能用MAKE就没有办法实现

08:00 - 08:01

那么用N8n之后

08:01 - 08:06

我就在原来MAKE的工作流基础之上

08:06 - 08:07

丰富了一些功能

08:07 - 08:10

就比如说生成这种语音日报的

08:10 - 08:11

然后还有这种截图的

08:11 - 08:13

在这个基础之上

08:13 - 08:15

我用N8n都能实现了

08:15 - 08:18

所以它的一个第三方的集成

08:18 - 08:20

包括它的一个灵活性

08:20 - 08:21

拓展性

08:21 - 08:21

兼容性

08:21 - 08:24

我觉得N8n都是做得非常好的

08:24 - 08:25

我们也可以对比一下

08:25 - 08:30

就是N8n和不同工作流平台之间的一些差距

08:30 - 08:34

像用N8n首先它是开源的

08:34 - 08:36

我们可以在Github上面

08:36 - 08:38

直接看到它的信息

08:38 - 08:40

包括它的部署也很简单

08:40 - 08:44

如果你是用nodejs部署

08:44 - 08:45

就是一行代码

08:45 - 08:46

如果你是用docker部署

08:46 - 08:48

其实也是一键部署

08:48 - 08:52

这个是我本地用docker部署的一个版本

08:52 - 08:54

一键部署就可以了

08:54 - 08:55

如果你不想部署

08:55 - 08:58

其实N8n官方它也可以给我们提供了

08:58 - 09:00

在线使用版本

09:00 - 09:03

所以它的部署类型是支持本地部署

09:03 - 09:06

那么也可以直接用N8n的服务

09:06 - 09:08

那么对比像coze

09:08 - 09:09

还有这个zapier

09:09 - 09:10

make这三个平台

09:10 - 09:12

他们是属于闭源的

09:12 - 09:14

我们没有办法在本地使用

09:14 - 09:17

那么只能使用官方提供的云服务

09:17 - 09:21

然后按月度会员或者年度会员的形式

09:21 - 09:22

给他们去付费

09:22 - 09:24

如果你用量不大的情况下

09:24 - 09:25

我觉得性价比不高

09:25 - 09:26

甚至很多需求

09:26 - 09:29

其实我们在本地部署就能满足了

09:29 - 09:32

完全没有必要去购买云服务

09:32 - 09:33

那么对比dify的话

09:33 - 09:36

它也是支持本地部署

09:36 - 09:39

或者说是使用官方的云服务都是可以的

09:39 - 09:42

但是N8n的部署相对来说会比dify简单一点

09:42 - 09:44

刚才我们在Github上面也看到了

09:44 - 09:47

具体的部署教程等后面的视频再讲

09:48 - 09:51

今天主要是给大家感受一下N8n

09:51 - 09:53

让大家来了解一下这个平台

09:53 - 09:55

去入个门就可以了

09:55 - 09:56

然后第二点的话

09:56 - 09:59

就是关于这些工作流平台

09:59 - 10:02

里面节点的类型

10:02 - 10:06

像N8n的话它是属于开放式的

10:06 - 10:09

就是你既可以用它里面现成的节点

10:09 - 10:11

比如说这些AI的节点

10:11 - 10:14

然后还有这些第三方应用的节点

10:14 - 10:16

有1000多款

10:16 - 10:18

还有的话像一些数据转换的

10:18 - 10:22

比如说代码的时间的筛选的

10:22 - 10:24

限制的合并的等等

10:24 - 10:26

然后保存本地文件的

10:26 - 10:28

或者说读取本地文件的

10:28 - 10:29

都是可以的

10:29 - 10:32

它里面的节点类型极其的丰富

10:32 - 10:34

基本上能满足我们绝大部分的需求

10:34 - 10:36

那么此外非常重要的一点

10:36 - 10:40

就是就算是官方所提供的这些节点

10:40 - 10:42

它不能满足我们的需求

10:42 - 10:44

那么我们在N8n里面

10:44 - 10:46

还可以使用code节点

10:46 - 10:48

在code里面它支持两种代码

10:48 - 10:49

第一种是JS代码

10:49 - 10:51

第二种是python代码

10:51 - 10:53

如果它提供的节点不能满足需求

10:53 - 10:56

那么我们就可以通过AI

10:56 - 10:59

来自动帮我们撰写一个简单的编码

10:59 - 11:00

来完成我们的诉求

11:00 - 11:02

还有很厉害的一点

11:02 - 11:04

就是N8n它提供了社区节点

11:04 - 11:07

因为它是一个开源项目

11:07 - 11:10

所以有很多开发者或者说使用者

11:10 - 11:13

他们也在用N8n开发者

11:13 - 11:16

他可以把自己开发出来的这些节点

11:16 - 11:20

就是通过Node.js写的这些节点

11:20 - 11:22

上传到N8n的社区

11:22 - 11:24

那么对于我们普通用户来说

11:24 - 11:27

我们就可以一键安装社区节点

11:27 - 11:30

在我们本地的工作流当中调用

11:30 - 11:32

这一点也是非常重要的

11:32 - 11:35

因为有很多新的需求

11:35 - 11:36

或者一些小众需求

11:36 - 11:37

官方并没有开发的

11:38 - 11:39

然后我们自己也实现不了

11:39 - 11:42

那么我们都可以通过社区节点

11:42 - 11:43

去挖掘一下

11:43 - 11:46

这里面有几百上千个社区成员

11:46 - 11:47

贡献的节点

11:47 - 11:49

所以它的生态非常的丰富

11:49 - 11:51

不管是从官方来说

11:51 - 11:54

还是说从自己编写code的节点来说

11:54 - 11:56

还是社区节点来说

11:56 - 11:58

整个生态来说非常的丰富

11:58 - 12:02

就比如说像最近火的mcp

12:02 - 12:04

虽然说官方还没有上

12:04 - 12:05

但是现在社区

12:05 - 12:07

他已经提供了mcp的节点

12:07 - 12:09

那么对比coze、zapier以及make

12:09 - 12:11

他们都是全封闭的

12:11 - 12:12

也就是平台提供什么

12:12 - 12:14

我们就只能用什么

12:15 - 12:18

没有N8n拓展性跟开放性这么强

12:18 - 12:19

然后dify的话

12:19 - 12:22

它也是半封装的

12:22 - 12:24

但是dify能拓展的功能比较少

12:24 - 12:27

绝大部分就是通过API接口的方式

12:27 - 12:30

可以跟外部进行一些简单的互动

12:30 - 12:33

但是它不具备这种丰富的社区生态

12:33 - 12:37

我觉得还是N8n略胜一筹

12:37 - 12:40

然后在应用的集成数量上

12:40 - 12:43

刚才给大家简单的看了一下

12:43 - 12:45

像这种外部应用

12:45 - 12:47

我们可以不停的往下拉

12:47 - 12:49

比如说主流的Line

12:49 - 12:51

这些社交工具

12:51 - 12:52

还有telegram

12:53 - 12:55

包括像推特平台

12:55 - 12:57

YouTube等等

12:57 - 12:59

经常用的一些软件

12:59 - 13:02

它基本上都有现成的节点

13:02 - 13:03

每个节点里面的功能

13:03 - 13:06

也非常的齐全

13:06 - 13:08

那么对比coze、dify

13:08 - 13:12

它在集成数量上肯定是比他们更多的

13:12 - 13:14

然后就是关于调用AI的方式

13:14 - 13:15

在N8n当中

13:15 - 13:19

我们是可以定义自己的API的

13:19 - 13:21

你用国内的也好

13:21 - 13:22

用国外的也好

13:22 - 13:24

它都是支持的

13:24 - 13:25

另外的话

13:25 - 13:28

包括其实像N8n它本身的服务器

13:28 - 13:29

是放在国外的

13:29 - 13:32

如果你是在官方云服务里面去使用

13:32 - 13:35

你在用国外的一些API接口的话

13:35 - 13:36

都不用去做转发

13:36 - 13:38

相对来说也是更安全的

13:38 - 13:40

那么像coze的话

13:40 - 13:42

它是只能用官方提供的

13:42 - 13:44

如果是国内版coze的话

13:44 - 13:47

只能用国内的大云模型服务的提供商

13:47 - 13:48

那么用国外的话

13:48 - 13:50

主要是支持GPT claude

13:50 - 13:54

zapier跟make这块是跟N8n类似的

13:54 - 13:56

那么包括dify其实也是类似的

13:56 - 13:59

它既提供了自己使用API的方式

13:59 - 14:03

同时它自己也提供了官方的套餐

14:03 - 14:04

可以自由选择

14:04 - 14:06

最后就是关于价格这块

14:06 - 14:08

如果你是在本地去使用N8n

14:08 - 14:10

我们是一分钱都不用花的

14:10 - 14:13

然后功能上也没有什么限制

14:13 - 14:15

就是官方有的功能

14:15 - 14:16

云服务上有的功能

14:16 - 14:18

我们在本地都是一模一样的

14:18 - 14:21

对比像coze、zapier、make

14:21 - 14:23

它都是更有优势

14:23 - 14:24

更有性价比的

14:24 - 14:27

核心的话还是根据自己的需求的话

14:27 - 14:29

如果你是想不做任何限制

14:29 - 14:32

然后你的需求也是比较复杂的

14:32 - 14:33

用现有工作流平台

14:33 - 14:35

你觉得有一些局限或者不够灵活

14:35 - 14:37

那么我觉得N8n就是首选

14:38 - 14:40

这也是为什么这段时间我了解过

14:40 - 14:43

包括使用过这么多工作流平台之后

14:43 - 14:46

我觉得最后会把注意力

14:46 - 14:48

精力放在N8n的主要原因

14:48 - 14:51

包括我自己后面也会持续通过N8n

14:51 - 14:54

去搭建一些其他的工作流

14:54 - 14:56

里面有一些好玩的实用的应用场景

14:56 - 14:58

我也会在我的频道里面

14:58 - 14:59

给大家去做一点分享

14:59 - 15:03

接下来我就来通过一个实际的

15:03 - 15:06

给大家演示一个简单的案例

15:06 - 15:10

逐步的演示一下它的一个搭建过程

15:10 - 15:12

然后搭建过程当中

15:12 - 15:13

我们用到的一些节点

15:13 - 15:15

以及一些注意事项

15:15 - 15:18

它的版面布局是什么样的

15:18 - 15:19

包含哪些功能

15:19 - 15:21

我们就通过工作流来了解一下

15:21 - 15:25

它的作用是自动同步

15:25 - 15:30

我指定的一个AI资讯网站的信息

15:30 - 15:31

通过RSS节点

15:31 - 15:34

然后将这些信息同步过来的内容

15:34 - 15:36

转换成Markdown的格式

15:36 - 15:40

然后把这些信息丢给AI的节点

15:40 - 15:42

让它总结摘要

15:42 - 15:45

然后把信息同步到我的N8n表格

15:45 - 15:49

并且发送到我的Telegram的粉丝群

15:49 - 15:51

最后的话是把同步下来的信息

15:51 - 15:54

包含标题链接摘要

15:54 - 15:57

保存为一个表格文件供我下载

15:57 - 15:59

这个界面大家也可以看到

15:59 - 16:00

它其实非常的简单

16:00 - 16:02

就是一个自由的画布

16:02 - 16:04

然后我们通过右上角

16:04 - 16:06

去添加我们想要的功能

16:06 - 16:08

也就是我们想要的节点

16:08 - 16:10

里面包含了AI的节点

16:10 - 16:11

AIagent的节点

16:11 - 16:12

OpenAI的节点

16:12 - 16:14

以及针对不同需求

16:14 - 16:16

它定制了几个

16:16 - 16:18

可能经常会用到的AI节点

16:18 - 16:20

LLM思维链

16:20 - 16:21

信息提取器

16:21 - 16:23

然后问答链

16:23 - 16:24

情感分析器

16:24 - 16:24

总结链

16:24 - 16:25

文本分类器

16:25 - 16:27

这是一些经常会用到的

16:27 - 16:28

那么最常用的话

16:29 - 16:31

AIagent的节点

16:31 - 16:34

在我后面讲N8N的过程当中

16:34 - 16:36

也会经常用到AI代理节点

16:36 - 16:38

后面我们在重点讲

16:38 - 16:39

接下来的话

16:39 - 16:43

就是第三方的一些外部应用

16:43 - 16:45

基本上在国外

16:45 - 16:47

所有的像这种主流的

16:47 - 16:48

谷歌的

16:48 - 16:48

亚马逊的

16:48 - 16:51

然后通讯工具的

16:51 - 16:51

社交媒体的

16:51 - 16:53

在里面都有集成

16:53 - 16:55

非常的丰富

16:55 - 16:57

云存储等等都有

16:57 - 16:59

然后这边是数据转换节点

16:59 - 17:02

后面我们根据实际的需求

17:02 - 17:04

来选择不同的这些节点

17:04 - 17:06

我在边讲边说

17:06 - 17:06

17:07 - 17:09

这个就是关于它版面的布局

17:09 - 17:13

然后接下来我们就通过这个案例

17:13 - 17:14

来依次给大家说一下

17:14 - 17:17

像基本上所有的工作流平台

17:17 - 17:18

它的第一个节点

17:18 - 17:19

就是触发节点

17:19 - 17:20

在N8N当中

17:20 - 17:22

它是有这些触发节点

17:22 - 17:23

通过点击触发

17:23 - 17:27

然后外部应用运行来触发

17:27 - 17:29

这个是定时触发

17:29 - 17:30

这个是通过webhook

17:30 - 17:32

也就是一个http请求来触发

17:32 - 17:34

通过表单提交触发

17:34 - 17:37

当另外一个工作流执行的时候

17:37 - 17:39

去触发新的工作流

17:39 - 17:41

这个是聊天触发

17:41 - 17:42

也就是输入触发

17:42 - 17:44

还有一些其他的触发方式

17:44 - 17:46

比如说当报错的时候

17:46 - 17:48

或者当本地我们电脑里面的

17:48 - 17:49

某一个文件夹

17:49 - 17:51

或者某一个文件

17:51 - 17:53

它的内容改变的时候

17:53 - 17:55

去触发都是可以的

17:55 - 17:57

这个其实也是N8N的一大特色

17:57 - 17:59

就是它可以监控

17:59 - 18:02

我们指定一个文件夹里面的信息

18:02 - 18:03

当这个信息改变了

18:03 - 18:06

那么我们就可以去触发工作流

18:06 - 18:09

比如说我可以创建一个表格

18:09 - 18:12

当我往表格里面去添加一项数据

18:12 - 18:15

那么它就可以根据我添加的这项数据

18:15 - 18:17

去做这一系列的自动化工作流程

18:17 - 18:19

这里因为我是演示

18:19 - 18:22

我就添加了一个点击触发

18:22 - 18:25

就是待会我点击测试工作流

18:25 - 18:28

它就会自动执行这个流程

18:28 - 18:28

18:28 - 18:31

然后接下来我添加了一个

18:31 - 18:32

RSS的节点

18:32 - 18:36

它的作用就是会把我关注的

18:36 - 18:38

AI资讯网站

18:38 - 18:40

把它的信息自动同步过来

18:40 - 18:43

比如说我关注的AIbase

18:43 - 18:46

它这个网站里面的AI资讯

18:46 - 18:49

是提供了RSS订阅的

18:49 - 18:52

这个地址我们可以打开看一下

18:52 - 18:53

解析出来的话

18:53 - 18:55

就是这样一些HTML代码

18:55 - 18:57

然后里面就是包含了

18:57 - 18:59

它平台的这些AI资讯内容

18:59 - 19:00

19:00 - 19:02

那么我只要把这个地址

19:02 - 19:04

放到RSS的订阅里面

19:04 - 19:06

对应的话就是这个地址

19:06 - 19:08

我点击只运行这个步骤

19:08 - 19:11

出来了30个项目双击一下

19:11 - 19:13

就可以打开它运行的结果

19:13 - 19:16

然后这个就是它调试节点的界面

19:16 - 19:18

这个是节点的配置信息

19:18 - 19:20

在这里面我们可以输入哪些参数

19:20 - 19:22

左边的话是输入

19:22 - 19:24

那么右边的话是输出

19:24 - 19:26

因为左边我们是点击事件

19:26 - 19:29

所以它没有输入的文本内容

19:29 - 19:30

右边的话

19:30 - 19:34

就是我们获取到RSS的信息

19:34 - 19:36

它解析出来这样一组数据

19:36 - 19:39

总共是包含30条

19:39 - 19:41

然后每一条里面包含9个字段

19:41 - 19:43

包含创作者标题

19:43 - 19:44

链接

19:44 - 19:44

发布时间

19:44 - 19:46

新闻的内容

19:46 - 19:48

以及内容的摘要

19:48 - 19:49

它输出的话

19:49 - 19:52

是这样一组json数据

19:52 - 19:53

这个就是待会我们后面的节点

19:53 - 19:54

要用到的

19:54 - 19:56

然后大家也可以看一下这里

19:56 - 19:59

就是我们可以切换它显示的格式

19:59 - 20:01

可以用表格显示

20:01 - 20:03

可以用json数据来显示

20:03 - 20:06

那么也可以只看它的数据结构

20:06 - 20:09

这个在我们后面调试和传参的过程

20:09 - 20:11

是非常有用的

20:11 - 20:12

它的可视化

20:12 - 20:13

我觉得是做得不错的

20:13 - 20:15

这是第二个节点

20:15 - 20:18

因为它每次同步过来的信息比较多

20:18 - 20:20

我不希望后面处理那么多数据

20:20 - 20:22

所以我加了一个限制节点

20:22 - 20:24

后面我们添加节点是很方便的

20:24 - 20:26

你打开加号

20:26 - 20:27

然后在这里面输入

20:27 - 20:30

我们节点的关键词

20:30 - 20:31

比如说limit

20:31 - 20:32

它就会显示出来

20:32 - 20:33

点击一下

20:33 - 20:35

它就会自动到工作流

20:35 - 20:37

然后你把这个线给它连接一下

20:37 - 20:39

上下节点就连接起来了

20:39 - 20:42

n8n它的工作流是可以多线的

20:42 - 20:44

并不是说单线运行

20:44 - 20:45

你可以添加两条线

20:45 - 20:45

三条线

20:45 - 20:46

四条线

20:46 - 20:47

那么到后面

20:47 - 20:49

你也可以把两条线合并成一条线

20:49 - 20:50

多条线合并成一条线

20:50 - 20:51

都是ok的

20:51 - 20:54

接下来我是添加了一个markdown的节点

20:54 - 20:57

就是把html转成markdown

20:57 - 20:59

我们可以看到刚才rss解析出来的

20:59 - 21:02

它这个内容是带html标签的

21:02 - 21:04

比如说有这种p标签

21:04 - 21:06

还有image的标签

21:06 - 21:07

包括有div的标签

21:07 - 21:10

那么在我实际使用过程当中

21:10 - 21:11

这些标签其实我不需要的

21:11 - 21:14

包括我要把这些内容保存到我的

21:14 - 21:14

notion表格

21:14 - 21:16

或者说我本地的表格当中

21:16 - 21:19

这些html标签对我来说是没有用的

21:19 - 21:21

那么我就把它去掉了

21:21 - 21:23

加了一个html to markdown

21:23 - 21:25

那么你也可以反过来转

21:25 - 21:27

把markdown转换成html

21:27 - 21:30

同样的话这个标签也是在右上角

21:30 - 21:31

去输入markdown

21:31 - 21:34

就可以显示出来

21:34 - 21:36

后续我们再添加节点

21:36 - 21:38

就是你根据自己的需求

21:38 - 21:39

把需求提取出来

21:39 - 21:42

关键字在这边去搜索相应的节点

21:42 - 21:44

那么有就拖进来

21:44 - 21:46

如果没有我们可以去找社区节点

21:46 - 21:48

或者说通过搜索的方式

21:48 - 21:50

怎么样把这个需求转换成

21:50 - 21:51

我们想要的节点

21:51 - 21:53

它里面有很多节点的变种

21:53 - 21:54

或者说很多节点

21:54 - 21:57

它可以变相来满足我们的需求

21:57 - 21:58

那这个就后面再说

21:58 - 22:00

我们可以运行一下这个节点

22:00 - 22:02

就只运行当前节点

22:02 - 22:05

可以看到这是上一步的输入

22:05 - 22:07

然后这是下一步的输出

22:07 - 22:09

其实在n8n当中

22:09 - 22:10

还有一个非常好用的功能

22:10 - 22:12

就是在调试的过程当中

22:12 - 22:15

我们没必要就是反复去请求

22:15 - 22:16

我们的 API接口

22:16 - 22:17

或者我们的订阅源

22:17 - 22:19

那么我就可以添加一个pin

22:20 - 22:22

把它pin它就把这个数据固定了

22:22 - 22:25

后面的话就不会重复去请求

22:25 - 22:26

rss

22:26 - 22:28

避免 IP被污染

22:28 - 22:32

或者说IP被它拉入黑名单的风险

22:32 - 22:32

这样的话

22:32 - 22:36

我每次都会自动调这30条数据

22:36 - 22:37

也就是固定这30条数据

22:37 - 22:39

方便我后面的节点去使用

22:39 - 22:41

然后我们看输入

22:41 - 22:43

limit它是限制了三条

22:43 - 22:45

我们看一下

22:45 - 22:47

这里就是三条数据

22:47 - 22:48

然后就是它的输入

22:48 - 22:49

22:49 - 22:51

然后这里是你要把什么样的

22:51 - 22:53

HTML转换成这个markdown的格式

22:53 - 22:55

那么我对应的话

22:55 - 22:57

你如果是说想简单一点

22:57 - 22:59

你就直接跳到这个schema

22:59 - 23:01

ok可以看到有这些字段

23:01 - 23:02

那么这个的话

23:02 - 23:03

就是我们要转换的数据

23:03 - 23:05

你把鼠标移上去

23:05 - 23:07

直接拖动到对应的窗口

23:07 - 23:10

它这个值会自己复过来

23:10 - 23:10

23:10 - 23:13

可以看到这个内容也可以加载出来

23:13 - 23:15

所以这个节点跟节点之间的交互和

23:15 - 23:18

传参也是非常直观和方便的

23:18 - 23:20

通过拖拽的方式

23:20 - 23:22

就可以完成这个数据的输入

23:22 - 23:25

以及完成这个节点的测试

23:25 - 23:25

23:25 - 23:26

然后这边的话

23:26 - 23:28

是我们定义一个输出的字段

23:28 - 23:30

这个是自定义的

23:30 - 23:32

比如说我这边命名为data

23:32 - 23:33

然后一测试

23:33 - 23:34

ok

23:34 - 23:36

然后它就输出这样一组数据

23:36 - 23:37

前面这些都是一样的

23:37 - 23:39

就是上一个步骤传下来的

23:39 - 23:40

那么最后可以看到

23:40 - 23:41

它多了一个字段

23:41 - 23:42

就是data

23:42 - 23:44

把content里面的内容

23:44 - 23:46

把HTML标签去掉了

23:46 - 23:47

变成这种markdown格式

23:47 - 23:49

接下来就到关键的一步

23:49 - 23:53

就是我添加了一个AIAgent的节点

23:53 - 23:54

然后大家可以看到

23:54 - 23:56

它下面有4条子链接

23:56 - 23:58

我们分别可以连接语言模型

23:58 - 24:00

连接记忆

24:00 - 24:01

连接外部工具

24:01 - 24:04

然后连接这个输出格式

24:04 - 24:07

而且它外部工具是可以连接多个的

24:07 - 24:09

也就是一对多的

24:09 - 24:11

然后这里我还定了一个输出格式

24:12 - 24:14

就直接让它以json格式

24:14 - 24:16

摘要内容

24:16 - 24:17

它的定义也很简单

24:17 - 24:19

就是我们给它写一个示例

24:19 - 24:21

它就会按照示例的要求

24:21 - 24:24

严格输出我们想要的数据

24:24 - 24:26

如果你想要更换大语言模型

24:26 - 24:28

我们并不需要重新去编辑

24:28 - 24:30

AIAgent的节点

24:30 - 24:31

你只要把这个去掉

24:31 - 24:34

然后去连接一个新的语言模型

24:34 - 24:35

就可以了

24:35 - 24:37

这一点我觉得是比其他工作流平台

24:37 - 24:38

做得更好的

24:38 - 24:40

可以减少我们配置的一个工作量

24:40 - 24:41

24:41 - 24:43

然后我们打开AIAgent的节点

24:43 - 24:44

左边是输入

24:44 - 24:45

右边是输出

24:45 - 24:48

在这里我们可以查看到前面所有的节点

24:48 - 24:52

这里的话我就让它来总结新闻摘要

24:52 - 24:54

这个就是我们输入的Prompt

24:54 - 24:56

然后我把它要处理的内容

24:56 - 24:57

也就是这个data

24:57 - 24:59

直接这样拖过来

24:59 - 25:01

下面的话还有一些选填参数

25:01 - 25:03

比如说我们可以给它添加系统提示词

25:03 - 25:05

因为我这个任务比较简单

25:05 - 25:07

系统提示词我觉得都不需要

25:07 - 25:08

那么直接给它删除掉

25:08 - 25:09

很灵活的

25:09 - 25:10

25:10 - 25:11

然后我们来运行一下

25:11 - 25:12

得到了三条数据

25:12 - 25:15

我们切换成JSON的格式

25:15 - 25:16

然后输出的格式

25:16 - 25:19

也是按照我们刚才要求的格式

25:19 - 25:20

通过Summary

25:20 - 25:24

然后后面的话就是总结摘要的内容

25:24 - 25:25

输出了三条内容

25:25 - 25:26

Ok

25:26 - 25:29

然后接下来就到Notion节点

25:29 - 25:30

在这个节点里面

25:30 - 25:34

我们首先是要完成NOTION的授权

25:34 - 25:36

点击添加一个新的授权

25:36 - 25:39

它会要求我们去输入一个密钥

25:39 - 25:41

那么这个密钥的获取方式

25:41 - 25:43

我们可以直接点击文档

25:43 - 25:45

这也是N8N做的比较好的地方

25:45 - 25:47

它在所有的节点里面

25:47 - 25:49

都给你放了帮助文档

25:49 - 25:50

如果你是新手

25:50 - 25:52

不知道要怎么样去填写

25:52 - 25:53

或者不知道它是怎么用的

25:53 - 25:54

它的功能是什么样的

25:54 - 25:56

你都可以直接打开它的文档

25:56 - 25:59

去查看它关于节点的介绍

25:59 - 26:02

以及它也都会提供相应的示例

26:02 - 26:04

那么如果是说中文用户

26:04 - 26:06

你有阅读障碍的话

26:06 - 26:09

也建议大家去装一个沉浸式翻译

26:09 - 26:11

这个软件我觉得也是比较好用的

26:11 - 26:13

这样的话就一键把它的文档

26:13 - 26:15

转换成中文的形式

26:15 - 26:18

这里的话就是我们要去创建一个

26:18 - 26:18

NOTION账户

26:19 - 26:22

然后去添加一个NOTION的集成

26:22 - 26:24

就是关于你NOTION的账户

26:24 - 26:25

你NOTION的页面

26:25 - 26:28

授权给哪些外部应用去使用

26:28 - 26:31

比如说这里我已经是添加了一个N8N

26:31 - 26:33

那么你是新用户

26:33 - 26:34

就点击一个

26:34 - 26:36

创建一个新的集成

26:36 - 26:38

输入一个你要授权的空间

26:38 - 26:39

然后授权的类型

26:39 - 26:41

默认就可以点击保存

26:41 - 26:44

就可以获得一个密钥

26:44 - 26:45

就是这个密钥

26:45 - 26:47

然后返回N8N

26:47 - 26:48

给它粘贴进去

26:48 - 26:49

点击保存

26:49 - 26:51

可以看到它提示成功了

26:51 - 26:53

就代表已经连接上了

26:53 - 26:54

然后当授权完成之后

26:54 - 26:56

我们还要返回

26:56 - 26:58

NOTION的界面

26:58 - 27:00

在界面里面完成一个授权

27:00 - 27:03

比如说我现在是创建了一个AI资讯

27:03 - 27:06

主要就是来存储

27:06 - 27:08

我工作流同步下来的信息

27:08 - 27:10

那么我就到这个界面里面

27:10 - 27:12

点击右上角

27:12 - 27:14

点击这边是有一个集成

27:14 - 27:17

然后你这里输入N8N

27:17 - 27:19

就是你刚才自己命名的名字

27:19 - 27:20

因为我这边是已经授权了

27:20 - 27:22

它已经显示出来了

27:22 - 27:23

完成这两步之后

27:23 - 27:25

我们就可以在工作流里面

27:25 - 27:28

自由的往notion里面读取数据

27:28 - 27:29

添加数据

27:29 - 27:30

删除数据都是ok的

27:31 - 27:35

然后接下来我是要操作这个数据库界面

27:35 - 27:36

也就是database page

27:36 - 27:38

它这边可以添加快

27:38 - 27:40

可以针对数据库进行操作

27:40 - 27:42

针对这个数据库界面进行操作

27:42 - 27:43

然后动作的话

27:43 - 27:46

我是添加往这个数据库里面

27:46 - 27:48

添加新的页面

27:48 - 27:49

所以我选择create

27:49 - 27:51

下面还有一些其他的操作

27:51 - 27:52

后面我们再讲

27:52 - 27:52

27:52 - 27:53

然后这里的话

27:53 - 27:54

我们就可以选择

27:54 - 27:57

我们刚才授权完成的这些界面

27:57 - 27:58

你只要点击

27:58 - 28:00

然后你连接上的这些界面

28:00 - 28:02

它会自动显示出来

28:02 - 28:05

因为我现在要操作的是AI资讯

28:05 - 28:07

也就是标题这个页面

28:07 - 28:09

那么我就选择这个页面

28:09 - 28:09

28:09 - 28:11

然后这里面我们首先是

28:11 - 28:14

我要往这个页面里面添加标题

28:14 - 28:16

我总共是有这4个字段标题

28:16 - 28:17

摘要

28:17 - 28:19

URL以及发布时间

28:19 - 28:21

那么我们先把标题填写进去

28:21 - 28:23

标题的话你可以选择这里

28:23 - 28:25

你用这个markdown的也可以

28:25 - 28:27

用limit的也可以

28:27 - 28:29

因为这个节点内容是一样的

28:29 - 28:31

然后这是我想要的标题

28:31 - 28:33

我就把这个title这样一拖

28:33 - 28:34

可以看到

28:34 - 28:36

它内容就已经过来了

28:36 - 28:38

接着往下我们可以添加新的字段

28:38 - 28:40

就点击这个操作

28:40 - 28:41

然后这里我选择了

28:41 - 28:43

摘要时间标题

28:43 - 28:44

这三个我都添加过来了

28:44 - 28:45

内容的话

28:45 - 28:48

就是对应我们前面节点生成的

28:48 - 28:49

首先是摘要

28:49 - 28:52

就是把这个字段这样一拖过来

28:52 - 28:53

就可以了

28:53 - 28:56

其他两个也是类似的原理

28:56 - 28:58

你在前面找到相应的节点

28:58 - 29:01

相应的字段信息拖拽过来就ok了

29:01 - 29:02

29:02 - 29:05

然后这个是关于保存到notion表格的

29:05 - 29:07

现在我们回到这个表格

29:07 - 29:09

我把所有的数据都删掉

29:09 - 29:10

29:10 - 29:11

这个表格已经清空了

29:11 - 29:13

我们单独来运行一下这个节点

29:13 - 29:15

然后回到表格

29:15 - 29:15

29:15 - 29:16

这内容都是自动生成的

29:16 - 29:18

它的标题

29:18 - 29:19

摘要

29:19 - 29:19

链接

29:19 - 29:20

以及发布时间

29:20 - 29:22

都已经同步过来了

29:23 - 29:26

接下来是发送到Telegram的节点

29:26 - 29:27

同样如果是首次

29:27 - 29:29

我们也要完成一个授权

29:29 - 29:30

它里面要输入这两个信息

29:30 - 29:31

这个是默认的

29:31 - 29:32

我们可以不用改

29:32 - 29:33

那么主要的话是

29:33 - 29:35

access token

29:35 - 29:38

就是你要添加一个机器人的token

29:38 - 29:39

关于这个我简单说一下

29:39 - 29:41

就不详细去操作

29:41 - 29:42

就是首先我们要添加

29:42 - 29:44

BotFather

29:44 - 29:46

也就是创建机器人的账户

29:46 - 29:48

然后发送start

29:48 - 29:48

在这里面

29:49 - 29:50

首先我们要创建一个

29:50 - 29:52

可以给自己发送消息的机器人

29:53 - 29:55

这里我是已经创建了一个

29:55 - 29:57

我创建了一个小林的

29:57 - 29:58

全能助手

29:59 - 30:00

创建完成之后

30:00 - 30:02

他就会把机器人控制的

30:02 - 30:04

token密钥发送给你

30:04 - 30:05

那么后续我们在外部

30:05 - 30:06

通过密钥

30:06 - 30:08

就可以去控制机器人

30:08 - 30:09

30:09 - 30:10

这就是关于它的授权

30:10 - 30:12

那么授权完成之后

30:12 - 30:14

这里我们可以选择这个动作的类型

30:14 - 30:16

我现在是消息

30:16 - 30:18

然后发送消息

30:18 - 30:18

ok

30:18 - 30:20

然后接下来是你要发送给谁

30:20 - 30:21

也就是chatID

30:21 - 30:24

让他发送给见夏这个号

30:24 - 30:27

那么我就要知道这个号的chatID

30:27 - 30:28

那么chatID的获取方式

30:28 - 30:30

我们可以添加机器人

30:30 - 30:31

getuserid

30:31 - 30:33

你给他发送/start

30:33 - 30:35

就可以看到我们的chatID

30:35 - 30:37

如果是发送给群组

30:37 - 30:38

也是一样的

30:38 - 30:41

都可以把chatID填进来就可以了

30:41 - 30:43

然后下面是我们要发送的内容

30:43 - 30:45

我要求他发送标题

30:45 - 30:48

摘要以及原文的链接

30:48 - 30:50

然后这三个数据内容

30:50 - 30:52

都是通过拖拽的方式

30:52 - 30:54

从前面的节点拖过来的

30:54 - 30:55

通过这里选择

30:55 - 30:57

然后查看相应的字段

30:57 - 30:58

拖拽过来就可以了

30:58 - 30:58

30:58 - 31:00

然后我们来运行一下这个节点

31:01 - 31:03

可以看到他给我发送了三条信息

31:03 - 31:06

标题是进行加粗的摘要

31:06 - 31:07

然后是原文内容

31:07 - 31:09

这个是链接的解析

31:09 - 31:10

这是第二条

31:10 - 31:12

这是第三条

31:12 - 31:14

这个节点就运行完成了

31:14 - 31:17

这个是关于连接外部通讯工具的节点

31:17 - 31:18

不管是telegram

31:18 - 31:19

LINE

31:19 - 31:20

Slack等等

31:20 - 31:22

其他的都是一样的

31:22 - 31:24

包括其实像我开头视频演示的

31:24 - 31:25

给他发送到微信里面

31:25 - 31:27

其实逻辑都差不太多

31:27 - 31:29

只是他里面没有本身集成微信

31:29 - 31:31

是我自己写的一个插件

31:31 - 31:32

让他集成进去的

31:32 - 31:35

然后最后我就想把这些数据保存到本地

31:35 - 31:37

首先我是添加了一个

31:37 - 31:38

edit节点

31:38 - 31:40

就是把前面我要的这些字段

31:40 - 31:43

给它进行合成在一起

31:43 - 31:44

进行一个统一的输出

31:44 - 31:46

这个就是输出的结果

31:46 - 31:47

标题

31:47 - 31:48

链接

31:48 - 31:48

摘要

31:48 - 31:50

一共有三条数据

31:50 - 31:55

然后最后我就添加了一个转换成文件的节点

31:55 - 31:57

让它转换成xls

31:57 - 31:58

也就是表格数据

31:58 - 32:00

我们点击一下测试

32:00 - 32:03

它就自动把前面这个节点的数据

32:03 - 32:05

给我们保存到一个excel表格

32:05 - 32:08

这个就是它打开的样子

32:08 - 32:09

标题

32:09 - 32:10

链接

32:10 - 32:11

摘要

32:11 - 32:13

发布时间

32:13 - 32:15

这样的话就把我们

32:15 - 32:17

自己这个关注的AI资讯

32:17 - 32:19

发送到Telegram

32:19 - 32:20

保存到Notion里面

32:20 - 32:23

甚至说你要保存到本地都是可以的

32:23 - 32:25

那么当你把这样一个工作流创建完成

32:25 - 32:26

并且测试完成之后

32:26 - 32:28

你就可以更改一下

32:28 - 32:30

触发的节点

32:30 - 32:32

比如说你可以改成定时执行

32:32 - 32:34

我每天早上的9点

32:34 - 32:36

或者每天晚上的9点

32:36 - 32:37

来同步一下这些AI资讯

32:37 - 32:42

这个就是关于用n8n搭建一个简单的工作流

32:42 - 32:44

连接外部的应用

32:44 - 32:46

连接大语言模型

32:46 - 32:49

包括用到它里面的一部分

32:49 - 32:51

一小部分节点的一个

32:51 - 32:52

简单的工作流

32:52 - 32:54

给大家去做一个演示

32:54 - 32:55

做一个初步的入门

32:56 - 32:56

总的来说

32:56 - 32:59

n8n它的节点非常的多

32:59 - 33:00

它非常的丰富

33:00 - 33:01

功能也很多

33:01 - 33:03

那么所以对于新手玩家来说

33:03 - 33:06

刚刚开始上手会有一点点难度

33:06 - 33:09

但是一旦你熟悉了n8n以后

33:09 - 33:11

你会发现它真的非常的强大

33:11 - 33:12

可玩性也很强

33:12 - 33:14

我们可以用工作流平台

33:14 - 33:16

完成很多自动化的任务

33:16 - 33:20

我都会在后面的视频一一去讲解

33:20 - 33:22

因此我也打算在自己的频道里面

33:22 - 33:24

去开设一个

33:24 - 33:26

n8n工作流的专题

33:26 - 33:28

这样的一个合集

33:28 - 33:29

和大家一起分享

33:29 - 33:33

我自己在使用n8n工作流的一些技巧和经验

33:33 - 33:35

如果你对这个平台感兴趣

33:35 - 33:37

有这方面的学习需求

33:37 - 33:40

也欢迎你关注我的频道

33:41 - 33:43

那么以上就是这期视频的全部内容

33:43 - 33:44

感谢观看

33:44 - 33:45

我们下期视频再见

Exploring AI Workflow Platforms: N8N for Efficient Workflows

In the realm of AI workflow platforms, tools like Coze, Dify, and FastGPT in China, and Zapier and Make internationally, have become synonymous with the concept. However, a common issue arises with the limited integration of third-party applications, both domestically and abroad.

Given these challenges, a deeper dive into new alternatives is necessary. In this video, N8N, an open-source workflow platform, steals the spotlight for its seamless integration of third-party applications. Unlike closed-source platforms, N8N allows the flexibility of local deployment or server hosting, catering to both beginners and advanced users. Its rich ecosystem of third-party app integrations, including overseas applications, offers unmatched convenience and enhances workflow capabilities.

The demonstration features a practical example of building an AI news aggregator using N8N. This workflow automatically curates AI news from various sources, processes it with AI evaluation, generates an audio bulletin, and distributes it across platforms like Telegram and Notion, showcasing the platform's power.

The comparative analysis illuminates N8N's strengths: open-source nature, robust third-party integrations, and extensibility through community-contributed nodes. These factors set N8N apart from its competitors, making it a go-to choice for complex and custom workflows.

If you're delving into the world of AI workflow automation, N8N offers a versatile and dynamic playground to streamline your tasks. Stay tuned for more insights and tutorials on leveraging N8N's capabilities for enhanced productivity in the upcoming episodes.

Whether you're a novice or an expert, N8N's user-friendly interface and extensive feature set make it a formidable contender in the AI workflow platform arena. Embrace the power of automation with N8N and revolutionize your workflow efficiency.

Let's embark on this journey together, exploring the endless possibilities of AI-enabled automation with N8N!


Intrigued by the potential of N8N for transforming your workflow automation? Subscribe to the channel for more insights and tutorials on optimizing your processes with this powerful platform. Stay tuned for the next episode where we dive deeper into unlocking the full potential of N8N!