NVIDIA 在 Computex 2023 上狂嗆 CPU,宣稱生成式 AI 和加速運算是未來的趨勢

NVIDIA 在 Computex 2023 上狂嗆 CPU,宣稱生成式 AI 和加速運算是未來的趨勢 3

歡迎免費訂閱Google 新聞」、追蹤FB 粉專」、「IG」、「YouTube」、「Dcard」、「TikTok」或加入討論社團」,並且可以透過「小額贊助」方式支持本站所有媒體持續營運!

【文章在 2023-05-30 更新過內容】

Computex 2023 是四年來第一次有現場展覽,NVIDIA 的老闆 Jensen 也沒有錯過這個機會,上台狂嗆 CPU 的業界,他說現在的電腦未來都要靠生成式 AI 和加速運算來提升效能,不要再指望摩爾定律能夠讓 CPU 變得更快更省電了,NVIDIA 在 Computex 2023 上狂嗆 CPU 成為一大亮點。

NVIDIA 的 GPU 可以用更少的錢和電來訓練大型語言模型

NVIDIA 在 Computex 2023 上狂嗆 CPU,宣稱生成式 AI 和加速運算是未來的趨勢

如果你要用 CPU 的伺服器來訓練一個大型語言模型 (LLM),你需要花費 $10 million USD (約 2.78 億台幣) 來買 960 個 CPU,而且還要耗掉 11 GWh 的電力,這個數字是 NVIDIA 算出來的,他們把訓練一個 LLM 所需要的所有成本都算進去了,包括網路、機殼、連接線等等。

如果你不想換成 GPU,只是想用同樣的錢來買 GPU 的伺服器,你會發現你可以訓練 44 個 LLM,而且只要用掉 3.2 GWh 的電力,這個情況叫做 ISO cost,就是成本不變的情況下比較效能。

如果你想要用同樣的電力來比較,那你就可以達到 150 倍的速度提升,用 11 GWh 的電力訓練 150 個 LLM,不過你要花 $34 million USD (約 9.45 億台幣),這個情況叫做 ISO power,就是電力不變的情況下比較效能,即使這樣,你的伺服器佔地面積還是比 CPU 小很多。

最後,如果你只想訓練一個 LLM,那你只需要花 $400,000 USD (約 1111 萬台幣) 買一台 GPU 的伺服器,而且只要用掉 0.13 GWh 的電力,NVIDIA 的意思就是說,你可以用 CPU 的 4% 的錢和 1.2% 的電力來訓練一個 LLM,這可是很大的節省啊。

NVIDIA 的目標是讓生成 AI 和加速運算成為主流

Jensen 在 Computex 2023 上的演講不只是要嘲笑 CPU 的業界,也是要展示 NVIDIA 在生成 AI 和加速運算方面的領先地位,他認為這些技術將會改變未來的電腦產業,讓人工智慧能夠解決更多的問題和創造更多的價值,他也展示了 NVIDIA 的一些新產品和合作夥伴,包括新一代的 Ampere 架構、與 Microsoft Azure 的合作、以及支援生成 AI 應用的 Omniverse 平台。

NVIDIA 在 Computex 2023 上的表現無疑是令人印象深刻的,也讓我們看到了 GPU 在未來的電腦產業中所扮演的重要角色,不過 CPU 的業界也不會就此認輸,他們也在努力開發自己的 AI 和加速運算方案,未來的競爭將會更加激烈,而我們作為消費者和開發者也將會受益於更快更好的電腦產品。

延伸閱讀:Intel Meteor Lake CPU 的 AI 性能超強,預計今年夏天正式發售

參考資料

最新文章

  • 文章內容有誤、文章轉載、文章需要更新或有商業合作需求,都歡迎透過「聯絡我」來一起聊聊。
  • 由於文章留言功能已經關閉,有其他問題請透過「綜合疑難雜症討論區」尋求幫助,這是一個互助討論的 FB 社群,我有時間也會親自回覆。
  • 部落格內某些連結是聯盟行銷,如果你透過連結購買產品,我會得到些許回饋,但不影響購買原始價格,詳細請參閱「免責聲明」。
  • 部落格全站內容皆為免費教學版權為本站所有,如要轉載請先來信溝通,詳細資訊請看「隱私權政策」。
  • 如果你願意的話,可以透過「小額贊助」管道支持本站。
Scroll to Top