輝達(NVIDIA)執行長黃仁勳本週出席2023台北國際電腦展,發表主題演講大談人工智慧,並宣布推出多款產品。會中也提到要建構資料中心的成本,包含晶片、系統、硬體生態系統、吞吐量、使用率、採購營運、生命週期最佳化、電力等等。並揚言10年內GPU的效能會有百萬倍的成長力道。
GPU時代來臨
儘管 CPU 過去幾年運算速度不斷提升,但進入 AI 時代後,以 CPU 為運算基礎的時代已經結束。在演講中也舉例到,假設耗費一樣的預算,GPU的功耗只有CPU的3分之1,且LLM資料處理效率是CPU的44倍。
何謂AI伺服器
指的是一種專為人工智慧應用而設計的伺服器系統。它結合了強大的硬體資源和專用的軟體工具,以支援各種需要高效處理大量資料和複雜運算的AI任務。它們可能採用多核心處理器、圖形處理器(GPU)或特定的AI加速器(如TPU),以加快訓練和推理運算的速度。這些硬體元件能夠處理大量的數據並進行並行運算,提供更快速和高效的AI處理。
AI伺服器產業鏈
以下是一個基本的AI伺服器供應鏈的簡要介紹:
零組件供應商:
AI伺服器的製造通常涉及多個零組件,例如處理器、記憶體、硬碟驅動器、散熱器等。這些零組件由各種供應商提供,這些供應商可能是專門從事製造和供應電腦硬體零組件的公司。
組裝和製造:
製造商或製造合作夥伴負責將零組件組裝成完整的AI伺服器。這包括零組件的物理安裝、連接和測試,確保伺服器能夠正常運作。製造商可能需要考慮設計和製造專門針對AI應用的伺服器架構和散熱系統。
物流和配送:
已經組裝好的AI伺服器需要被運送到目的地,這可能涉及國內或國際運輸。物流公司負責管理運輸和配送過程,確保產品安全地運送到客戶手中。這可能涉及多個階段的運輸,包括陸路、海運或航空運輸。
銷售和分銷:
AI伺服器供應鏈中的下一個階段是銷售和分銷。製造商可以直接銷售伺服器給客戶,或者透過分銷商和合作夥伴網絡來將產品推廣和銷售到更廣泛的市場。這包括與零售商、系統整合商、云服務供應商和企業客戶建立合作關係。
技術支援和維護:
提供AI伺服器的製造商或分銷商通常也提供技術支援和維護服務。這包括提供產品更新、故障排除、維修服務和軟體支援等。他們可能提供遠端支援,或派遣技術人員進行現場支援和修復工作,以確保AI伺服器的正常運作和客戶的滿意度。
AI伺服器概念股(GPU伺服器)
以AI伺服器用運到的關鍵零件與技術,概略列出相關的股票: