00:01 - 00:02

炸了

00:02 - 00:03

真的炸了

00:03 - 00:06

輝達的營收跟股價都爆炸了

00:06 - 00:08

輝達成功的秘密到底是什麼

00:08 - 00:09

2023年5月

00:09 - 00:11

輝達市值突破一兆

00:11 - 00:12

2024年6月

00:12 - 00:15

只經過了一年多一點點的時間

00:15 - 00:17

市值就從1兆暴增到3兆

00:17 - 00:19

而且超越微軟跟蘋果

00:19 - 00:22

妥妥地成為全球市值最高的企業

00:22 - 00:25

黃仁勳他一兆男兩兆男的稱號

00:25 - 00:27

壽命都用不到一年就得換

00:27 - 00:28

這奢侈的煩惱

00:28 - 00:29

我也好想要啊

00:29 - 00:30

但重點來了

00:30 - 00:34

輝達明顯是AI浪潮中受惠最大的企業

00:34 - 00:37

然而AMD跟Intel明明也都有在做顯示卡

00:37 - 00:40

為什麼只有輝達的股價如此受眷顧呢

00:40 - 00:42

真相只有一個

00:42 - 00:44

讓輝達成功的最大主因

00:44 - 00:46

不是單純做硬體做顯卡

00:46 - 00:48

而是輝達開發的軟硬體整合技術

00:50 - 00:51

因為CUDA的存在

00:51 - 00:53

顯卡不再只能服務電腦玩家

00:53 - 00:55

而是能拿來做數值運算

00:55 - 00:56

訓練AI模型

00:56 - 00:57

可以說

00:57 - 01:00

CUDA才是讓顯卡身價瘋狂暴漲的關鍵

01:00 - 01:02

這個CUDA到底是什麼呢

01:02 - 01:03

為什麼CUDA的開發

01:03 - 01:04

被認為是黃仁勳

01:06 - 01:08

算AI真的不能沒有它嗎

01:08 - 01:09

這一集

01:09 - 01:11

我們要來徹底瞭解CUDA的秘密

01:56 - 01:57

提到輝達的主要產品

01:58 - 02:00

大家最常看到它的地方

02:00 - 02:01

還是在個人電腦中

02:01 - 02:04

但為什麼電腦需要顯示卡

02:04 - 02:05

有CPU還不夠嗎

02:05 - 02:06

其實液晶螢幕

02:06 - 02:08

就像是一塊拼接而成的

02:08 - 02:10

巨大彩色馬賽克畫

02:10 - 02:11

每一片馬賽克呢

02:11 - 02:14

都是一組紅綠藍三個色點

02:14 - 02:15

組合而成的像素點

02:15 - 02:18

靠著不同顏色的搭配與亮度變化

02:18 - 02:21

才能拼出我們看到的各種畫面

02:21 - 02:23

而這些顏色和亮度變化的關鍵

02:23 - 02:24

其實是電壓

02:24 - 02:27

每個像素的顏色變化都是

02:27 - 02:29

液晶分子在電壓的控制下

02:29 - 02:31

進行旋轉和偏轉的結果

02:31 - 02:32

通過不斷調整電壓

02:32 - 02:35

液晶分子就能夠呈現出明暗

02:35 - 02:36

深淺的不同

02:36 - 02:38

最終混合出鮮豔的色彩

02:38 - 02:41

那麼顯示卡的角色是什麼

02:41 - 02:43

CPU像是負責下指令的主管

02:43 - 02:47

例如告訴GPU我想要一個耀眼的火焰效果

02:47 - 02:49

但具體到每個火花怎麼閃爍

02:49 - 02:51

每一片火焰的顏色如何過渡

02:51 - 02:53

這種精細的計算工作

02:53 - 02:55

就交給顯示卡來處理了

02:55 - 02:57

GPU會按照這些數據

02:57 - 02:59

計算出每一個像素需要的配方

02:59 - 03:02

也就是紅綠藍三色的比例和亮度

03:02 - 03:05

最後這個配方才會被傳遞給顯示器

03:05 - 03:06

告訴他

03:06 - 03:09

該給每一個像素點分配什麼電壓

03:09 - 03:10

液晶怎麼轉

03:10 - 03:12

最後顯示出該有的顏色

03:12 - 03:13

這工作看起來很簡單

03:13 - 03:15

但就像負責程式的工程師

03:15 - 03:17

和負責視覺的美術

03:17 - 03:19

中間一定會有溝通鴻溝一樣

03:19 - 03:22

因為工程師和美術懂的語言不一樣

03:22 - 03:25

而工程師跟電腦懂的語言

03:25 - 03:26

當然也不一樣

03:26 - 03:28

所以軟體工程師在寫程式時

03:28 - 03:30

會使用程式語言專用的編譯器

03:30 - 03:32

編譯器就像一個翻譯一樣

03:32 - 03:33

能將程式碼

03:33 - 03:35

翻譯成電腦能夠理解的語言

03:35 - 03:38

最後CPU送過來資料

03:38 - 03:40

也跟GPU懂的語言不一樣

03:40 - 03:42

所以我們必須讓專業的翻譯進行翻譯

03:42 - 03:45

針對GPU設計的翻譯被稱為著色器

03:45 - 03:48

著色器會負責將需要進行的圖像繪製

03:48 - 03:50

和上色步驟

03:50 - 03:51

翻譯給GPU

03:51 - 03:52

讓GPU進行計算

03:52 - 03:55

當然翻譯這項工作不會交給人腦

03:55 - 03:58

而是靠某些我們先寫好的程式來完成

03:58 - 04:00

如果你是個電腦玩家

04:00 - 04:01

應該都曾經遇過

04:01 - 04:04

遊戲要求安裝DirectX或是OpenGL

04:04 - 04:07

這就是著色器的繪圖應用程式介面

04:07 - 04:08

只要通過它們

04:08 - 04:10

我們就能跟著色器良好溝通

04:10 - 04:13

講到這裡都是GPU運算圖像的運用

04:13 - 04:17

但對只是想用GPU來算AI的工程師來說

04:17 - 04:19

他們並不需要學習這些著色器語言

04:19 - 04:20

然而

04:20 - 04:22

他們還是要設計對應的溝通語言

04:22 - 04:23

和稱職的翻譯

04:23 - 04:26

讓GPU可以理解我們在說什麼

04:26 - 04:28

並且進行我們想要的計算

04:28 - 04:30

為了降低使用門檻

04:30 - 04:32

學者們提出了一種重要技術

04:35 - 04:36

這種技術

04:36 - 04:39

可以讓使用者不必多學一種語言

04:39 - 04:41

只要使用原本就會的程式語言

04:41 - 04:43

就能輕易使用GPU的資源

04:43 - 04:44

來進行運算了

04:44 - 04:45

關鍵來了

04:45 - 04:47

發展這項技術的第一個先驅

04:47 - 04:49

就是這一集的主角輝達

04:49 - 04:52

輝達在2006年11月

04:52 - 04:55

推出世界上第一款支援通用運算的顯示卡

04:57 - 05:00

並且在稍晚一點的2007年6月

05:00 - 05:02

發佈了輝達的GPGPU

05:02 - 05:04

產品的正式名稱就叫做CUDA

05:04 - 05:05

從此時開始

05:05 - 05:08

原本只能用在圖像繪製的顯示卡

05:08 - 05:10

終於也可以用在其他領域了

05:10 - 05:13

不需要使用專門的著色器語言

05:13 - 05:15

只需要通過CUDA有支援的程式語言

05:15 - 05:18

就可以使用GPU的資源進行運算了

05:18 - 05:21

而最大的受益者就是AI

05:24 - 05:26

大家都說AI需要大量計算

05:26 - 05:29

但你真的知道AI要算什麼嗎

05:29 - 05:31

雖然人工智慧是個範圍很廣的領域

05:31 - 05:33

但我們目前所使用的AI

05:33 - 05:35

多半都屬於機器學習

05:35 - 05:37

甚至是深度學習的領域

05:37 - 05:38

而機器學習呢

05:38 - 05:40

是通過一些特定的數學模型

05:40 - 05:43

用已經掌握的資料去預測結果

05:43 - 05:45

或是分類現有的資料

05:45 - 05:46

也就是說

05:46 - 05:49

AI的本質就是大量的數學計算

05:49 - 05:50

只是跟平常的任務相比

05:50 - 05:52

AI的數據量特別龐大

05:52 - 05:54

資料也複雜許多

05:54 - 05:57

包含從一維的向量到二維的矩陣

05:57 - 06:00

到三維或是更高維度的張量

06:00 - 06:02

但是雖然資料變得複雜

06:02 - 06:04

運算過程卻沒差太多

06:04 - 06:06

例如只是從向量的加減乘除

06:06 - 06:08

變成矩陣間的加減乘除

06:08 - 06:10

或者張量間的加減乘除

06:10 - 06:13

這連你我也算得出來

06:13 - 06:15

只是要花很多很多很多時間

06:15 - 06:16

也就是說

06:16 - 06:19

資料計算困難的不在於題目很難

06:19 - 06:19

而是

06:21 - 06:22

如果你看過我們這一集

06:22 - 06:23

就能知道

06:23 - 06:26

GPU非常擅長計算這些張量運算

06:26 - 06:28

GPU和CPU最大的差別

06:28 - 06:29

就在於

06:29 - 06:32

GPU內有非常多個算數邏輯單位

06:32 - 06:35

而每個單元都只做簡單的加減乘除

06:35 - 06:38

能靠分工完成龐大的任務

06:38 - 06:40

CPU呢就像萬能的職人

06:40 - 06:42

但是一次只能完成一件工作

06:42 - 06:45

GPU則像是佈滿流水線的工廠

06:45 - 06:48

每道產線都只負責一項任務

06:48 - 06:49

但是人多力量大

06:49 - 06:51

產能自然也會上升

06:51 - 06:53

至於這個工廠該如何分配用料

06:53 - 06:55

要進到哪一條生產線中

06:55 - 06:57

關鍵角色就是CUDA

06:57 - 06:57

CUDA

06:57 - 07:01

不止負責擔任CPU和GPU的溝通橋樑

07:01 - 07:03

同時也是工廠產線的管理者

07:03 - 07:05

例如在計算張量時

07:05 - 07:06

CUDA就要負責指派

07:06 - 07:08

張量中的每一個元素

07:08 - 07:10

要進到哪一個計算單元中來進行計算

07:10 - 07:13

再來CUDA還是個聰明的管理者

07:13 - 07:15

有時候兩間一模一樣的工廠

07:15 - 07:17

或是有相同產能的公司

07:17 - 07:18

總是有主管

07:18 - 07:20

能夠通過他良好的工作分配

07:20 - 07:23

在每一條產線工作量不變的前提下

07:23 - 07:24

讓工廠整體的產能

07:24 - 07:26

硬是比對手提高好幾倍

07:26 - 07:28

這就是CUDA

07:28 - 07:29

既然已經知道

07:29 - 07:31

接下來要進行大量的運算

07:31 - 07:34

代表同樣性質的任務一定很多

07:34 - 07:36

如果我們能夠在計算之前

07:36 - 07:38

先將同樣性質任務放在一起

07:38 - 07:40

那麼在調用記憶體的時候

07:40 - 07:42

這些性質一樣的任務

07:42 - 07:44

就只需要調用一個核心函數

07:44 - 07:46

進而節省記憶體的使用

07:46 - 07:48

這就好比在進行包裝作業時

07:48 - 07:49

如果讓一群人

07:49 - 07:52

各自從折箱子開始做起

07:52 - 07:53

中間還要黏膠帶

07:53 - 07:54

放貨品

07:54 - 07:55

最後封箱啊

07:55 - 07:56

那速度就會很慢

07:56 - 07:59

因為這個人要交互使用不同的工具

07:59 - 08:00

來完成任務

08:00 - 08:01

光是這些交換工具的過程

08:01 - 08:03

就會浪費許多時間

08:03 - 08:05

由於並不是單獨作業

08:05 - 08:07

所以實際上我們可以分配4組人

08:07 - 08:09

分別進行折箱子

08:09 - 08:10

黏膠帶

08:10 - 08:12

放貨品和封箱的動作

08:12 - 08:14

如此一來就省去了交換工具的時間

08:14 - 08:16

只要動線順暢

08:16 - 08:17

這樣分而治之的做法

08:17 - 08:19

肯定會比一個人完成所有作業

08:19 - 08:20

來的有效率

08:20 - 08:22

最後做好任務分類

08:22 - 08:25

除了方便調用核心函數之外

08:25 - 08:28

同時也能讓CUDA知道怎麼分配記憶體

08:28 - 08:29

讓工廠的動線更順暢

08:29 - 08:31

如果我們將任務做適當的分類

08:31 - 08:34

CUDA就會根據我們的分類方式

08:34 - 08:35

配置合適的記憶體

08:35 - 08:37

而不需要自己去選擇

08:37 - 08:38

要配置哪一種記憶體

08:38 - 08:41

甚至對AI模型的研究者來說

08:41 - 08:43

如果只會AI模型的訓練跟推論

08:43 - 08:46

而不會任務分類的話也沒關係

08:46 - 08:49

輝達還推出了cuDNN的程式庫

08:49 - 08:51

讓AI的研究者只需要專注於

08:51 - 08:52

訓練和推論

08:52 - 08:53

模型中

08:53 - 08:55

所有需要任務分類的地方

08:55 - 08:57

CUDNA都會幫忙配置好

08:57 - 08:59

實在揪甘心耶

08:59 - 09:00

也就是說

09:00 - 09:03

CUDA不僅讓AI開發者能用GPU算AI

09:03 - 09:06

提供比別人都還快的運算速度

09:06 - 09:07

還幫你做好翻譯套件

09:07 - 09:08

開發零門檻

09:08 - 09:10

這麼完美的懶人包

09:10 - 09:12

奠定了輝達成功的穩固基礎

09:12 - 09:13

但你知道嗎

09:13 - 09:15

這麼好用的CUDA

09:15 - 09:17

其實一開始完全不被看好

09:17 - 09:18

輝達也沒有

09:18 - 09:20

一開始就想著要踏入AI市場

09:23 - 09:26

黃仁勳一開始創辦輝達的時候

09:26 - 09:27

目的很簡單

09:27 - 09:29

就是想改變遊戲市場生態

09:29 - 09:29

當時宣稱

09:29 - 09:33

正在開發個人電腦用3D繪圖晶片的廠商

09:33 - 09:34

曾經多達七十幾家

09:34 - 09:37

輝達就是在宛如死滅回游的局面中

09:37 - 09:38

慢慢挺了過來

09:38 - 09:40

但在經歷許多場惡戰之後

09:40 - 09:42

黃仁勳似乎也發現了

09:42 - 09:43

遊戲市場的侷限性

09:43 - 09:44

才開始試著找出

09:44 - 09:47

顯卡能夠應用的其他領域

09:47 - 09:48

他與內部團隊所想到的

09:48 - 09:51

是讓GPU去進行科學研究的運算

09:51 - 09:54

畢竟GPU內部也是在進行大量運算

09:54 - 09:57

通過GPU來加速其他領域的運算速度

09:57 - 09:59

似乎是個很合理的想法

09:59 - 10:02

於是CUDA這項在通用運算上技術

10:02 - 10:03

就這麼誕生了

10:03 - 10:06

但不同於現在人人搶顯卡算AI

10:06 - 10:07

這樣的想法跟技術

10:07 - 10:09

在當時是相當新穎的

10:09 - 10:09

這是因為

10:09 - 10:13

CPU能夠進行比GPU更複雜的運算

10:13 - 10:14

而在那個年代

10:14 - 10:16

需要大量運算的任務非常少

10:16 - 10:18

科學運算主要都是使用CPU

10:18 - 10:22

因此黃仁勳的想法是完全不被業界看好的

10:22 - 10:24

甚至連自家的開發人員

10:24 - 10:26

都不相信這項技術會獲得成功

10:26 - 10:29

但這就是黃仁勳獨具慧眼的地方

10:29 - 10:30

他並沒有放棄

10:30 - 10:33

即使CUDA的營運跟維護成本非常燒錢

10:33 - 10:35

他仍然持續與各個學校合作

10:35 - 10:38

就算會因此讓公司的營收不好看

10:38 - 10:39

也不斷投入資源

10:39 - 10:41

進行通用運算的合作與教育

10:41 - 10:43

輝達迎來蛻變的轉捩點

10:43 - 10:44

竟然是一場比賽

10:44 - 10:48

當時在史丹佛大學擔任教授的李飛飛

10:48 - 10:49

從2010年

10:49 - 10:50

創辦了一場ImageNet

10:50 - 10:53

大規模視覺辨識挑戰賽

10:53 - 10:55

目的呢是要促進AI的研究發展

10:55 - 10:57

比賽名稱中的 ImageNet

10:57 - 10:59

是李飛飛教授為了改進

10:59 - 11:01

用以訓練AI模型的資料

11:01 - 11:02

而產生的資料庫

11:02 - 11:03

比賽的內容

11:03 - 11:04

就是要參賽者們

11:04 - 11:06

使用自己的演算法跟工具

11:06 - 11:09

對大量的圖片進行機器辨識

11:09 - 11:11

這個競賽雖然於2017年停辦

11:11 - 11:13

交由WebVision接手

11:13 - 11:14

但卻引出了許多

11:14 - 11:17

至今仍相當重要的深度學習模型

11:17 - 11:19

其中的分水嶺是2012年

11:19 - 11:21

當時兩位博士生

11:21 - 11:23

亞歷克斯·克里澤夫斯基

11:23 - 11:25

與伊爾亞·蘇茨克維

11:25 - 11:28

提出了一種卷積神經網路 AlexNet

11:28 - 11:32

這個模型辨識的錯誤率僅僅只有15.3%

11:32 - 11:35

不要覺得15%的錯誤率很高

11:35 - 11:35

在當年

11:35 - 11:38

可是狠狠甩了第二名10.8個百分點啊

11:38 - 11:40

這樣驚人的成績

11:40 - 11:41

是由於他們的指導教授

11:41 - 11:44

丟了一張輝達的顯示卡給他們

11:44 - 11:45

讓他們試著使用CUDA下去

11:45 - 11:48

做深度學習的模型訓練才有的

11:48 - 11:50

因為大多數深度學習的模型

11:50 - 11:52

參數量實在是太多了

11:52 - 11:55

CPU很難在有限的時間訓練起來

11:55 - 11:56

而輝達的顯示卡

11:56 - 11:58

能透過GPU的平行運算能力

11:58 - 11:59

大展身手

11:59 - 12:02

CUDA也終於在2012年的挑戰賽中

12:02 - 12:03

一戰成名

12:03 - 12:05

對了這位指導教授

12:05 - 12:08

就是現在被稱為AI教父的傑佛瑞·辛頓

12:08 - 12:11

也就是2024年諾貝爾物理學獎的得主

12:11 - 12:12

不久前我們才剛介紹過

12:12 - 12:15

辛頓對於早期AI研究的貢獻

12:15 - 12:16

你可以點這邊來複習一下

12:16 - 12:19

而其中一位博士生蘇茨克維

12:19 - 12:21

你可能也很耳熟

12:21 - 12:24

沒錯 他就是 OpenAI 的前首席科學家

12:24 - 12:25

與共同創辦人之一

12:25 - 12:26

現在

12:26 - 12:29

輝達靠著顯示卡與CUDA硬體跟軟體

12:29 - 12:30

兩張王牌

12:30 - 12:32

坐擁了AI市場的大部分份額

12:32 - 12:34

許多分析師正在討論

12:34 - 12:35

輝達的市值

12:35 - 12:38

未來有沒有機會挑戰10兆大關

12:38 - 12:40

這個呢 就要看黃仁勳怎麼出招了

12:40 - 12:41

我們知道的是

12:41 - 12:43

AI這塊大餅很大很誘人

12:43 - 12:46

因此輝達的競爭對手絕對不會放棄

12:46 - 12:47

然而

12:47 - 12:49

輝達還有另一張王牌還沒亮相的

12:49 - 12:51

就是量子計算

12:51 - 12:53

輝達也要展開量子計算的領域了嗎

12:54 - 12:54

沒錯

12:54 - 12:57

2023年輝達推出了CUDAQuantum平臺

12:57 - 12:59

要搶攻量子計算的市場

12:59 - 13:02

雖然GPU看起來似乎跟

13:02 - 13:03

量子電腦沒有什麼關係

13:03 - 13:04

但量子電腦

13:04 - 13:07

其實並沒有辦法加速所有的計算

13:07 - 13:09

如果要讓計算的效率提高

13:09 - 13:12

就必須混合古典與量子的演算法

13:12 - 13:15

剛好CUDA在整合CPU和GPU的運算上

13:15 - 13:17

本身就有非常成熟的經驗

13:17 - 13:21

如今多整合進一個量子處理器QPU

13:21 - 13:22

讓古典的演算法

13:22 - 13:25

協助計算量子電腦所無法加速的部分

13:26 - 13:28

看起來似乎也是挺合理的對吧

13:28 - 13:31

而且就跟為了AI而生的cuDNN一樣

13:31 - 13:34

輝達也發展了一套cuQuantum

13:34 - 13:36

讓不熟悉GPU的量子計算研究人員

13:36 - 13:38

也能輕鬆利用GPU

13:38 - 13:40

來模擬量子計算電路

13:40 - 13:42

想瞭解這是怎麼一回事嗎

13:42 - 13:43

歡迎在影片下留言

13:43 - 13:44

如果有很多人感興趣

13:44 - 13:46

我們再來接著聊

13:46 - 13:47

也想問問你

13:47 - 13:49

輝答若想持續保持領先

13:49 - 13:50

你要是黃仁勳

13:50 - 13:52

會選擇進攻哪個領域呢

13:52 - 13:53

你是覺得

13:53 - 13:54

那當然是我

13:54 - 13:57

黃仁勳不斷提到的生醫領域

13:57 - 13:59

因為AI在藥物開發商的應用

13:59 - 14:00

已經證實有效了

14:00 - 14:03

還是覺得量子電腦的出現

14:03 - 14:05

將顛覆傳統計算跟加密

14:05 - 14:07

到時候是一片大藍海啊

14:07 - 14:08

還是你認為

14:08 - 14:09

我若是黃仁勳

14:09 - 14:11

我早就在3兆上面躺平了

14:12 - 14:13

難怪我不是黃仁勳

14:13 - 14:15

以上就是本集的內容

14:15 - 14:17

如果你還不知道AI如何加速開發藥物

14:17 - 14:18

或是量子電腦

14:18 - 14:20

帶來多大的衝擊

14:20 - 14:22

可以點旁邊的影片來觀看哦

14:22 - 14:23

記得訂閱 PanSci 泛科學

14:23 - 14:24

開啟小鈴鐺

14:24 - 14:25

加入頻道會員

14:25 - 14:26

鎖定更多精彩的科學新知

14:26 - 14:27

科學議題

14:27 - 14:28

我們下期再見

14:29 - 14:31

最近晚上總是睡不好

14:31 - 14:33

半夜起來頻繁上廁所

14:33 - 14:34

白天提不起精神

14:34 - 14:36

加班更是煎熬

14:36 - 14:38

這樣下去不是辦法

14:38 - 14:38

14:40 - 14:40

推薦你

14:42 - 14:43

一天一顆

14:43 - 14:44

保養好輕鬆

14:44 - 14:48

每顆提供南瓜籽20:1萃取物125毫克

14:48 - 14:50

合成番茄紅素20毫克

14:50 - 14:52

還有豐富的鋅和多種微量元素

14:52 - 14:53

對身體很有幫助

14:53 - 14:55

【愛司盟-南瓜籽順暢膠囊】

14:55 - 14:58

適合男性和中老年的最佳營養補給

14:58 - 14:59

讓你安心睡到天亮

14:59 - 15:01

工作生活都更輕鬆

15:01 - 15:04

妳/你值得擁有幸福夜晚

Unveiling the CUDA: NVIDIA's Secret Weapon in AI Dominance

In 2024, NVIDIA's market value surged from 1 trillion to 3 trillion, surpassing giants like Microsoft and Apple to become the world's most valuable company. This meteoric rise and NVIDIA's dominance in AI are attributed to one key factor: CUDA. CUDA is not just about hardware; it is NVIDIA's groundbreaking software-hardware integration technology. By enabling GPUs to handle numerical computations and AI model training through CUDA, NVIDIA revolutionized the graphics card industry.

The Role of GPUs and CUDA in Data Processing

In a computer, GPUs play a crucial role alongside CPUs. GPUs are like specialized workers in a factory, focusing on processing visual data. However, coordinating between CPUs and GPUs can be challenging due to the difference in their languages. This is where CUDA steps in as a bridge, translating instructions efficiently and effectively.

CUDA: Revolutionizing AI Computing

CUDA's significance lies in its ability to allow GPUs to excel in tensor computations. As AI heavily relies on vast mathematical calculations, the parallel computing prowess of GPUs, orchestrated by CUDA, becomes a game-changer. This streamlined processing is comparable to factory workers in a production line, each efficiently handling specific tasks to boost overall productivity.

The Birth of CUDA and NVIDIA's Vision

When NVIDIA introduced CUDA in 2006, it was a game-changer. While initially unnoticed by the industry, NVIDIA's persistence in exploring GPU capabilities beyond gaming paid off. CUDA's versatility in general computing applications, especially in AI, reshaped the landscape. NVIDIA's CEO, Huang Renxun, proved visionary in steering the company towards AI applications, despite initial skepticism.

CUDA's Impact on AI Research and Accelerated Computing

The success story of AlexNet in the ImageNet Challenge of 2012, catalyzed by NVIDIA GPUs and CUDA, exemplifies CUDA's pivotal role. The collaboration between NVIDIA and leading AI researchers paved the way for groundbreaking advancements. NVIDIA's continuous support for AI and quantum computing underscores its commitment to innovation and technological advancement.

NVIDIA's Future: Quantum Computing and Bioinformatics

As NVIDIA delves into quantum computing with CUDAQuantum platform, the integration of classical and quantum algorithms heralds a new era for computation. The development of cuQuantum further simplifies GPU utilization for quantum computing enthusiasts. NVIDIA's foray into bioinformatics and healthcare applications signifies its strategic shift towards emerging markets where AI can revolutionize drug development and beyond.

In conclusion, NVIDIA's strategic investment in CUDA technology and its unwavering commitment to innovation have propelled the company to unparalleled heights in the AI world. As NVIDIA continues to evolve, embracing quantum computing and expanding its presence in bioinformatics, the future holds endless possibilities. NVIDIA's success story is a testament to the power of visionary leadership and technological prowess in the ever-evolving landscape of AI and computing.

Whether NVIDIA's next move will be in bioinformatics, quantum computing, or further market expansion remains to be seen. As Huang Renxun leads NVIDIA into a new era of technological advancements, one thing is certain - the world will be watching.


If you still wonder about AI's impact on drug development or the quantum computing revolution, consider watching this enlightening video. Remember to subscribe to PanSci for more exciting scientific content in the next episode. Stay informed and engaged in the world of science and innovation.