記者
賴錦宏/即時報導 2025-02-03 16:17 ET
深度求索(DeepSeek)開發大語言模型時,據傳「繞過」了輝達的技術護城河CUDA框架,能讓訓練模型速度加快。 (路透資料照)
近期引發各界關注的中國AI新創公司深度求索(
DeepSeek),外媒指出,其研發大語言模型時,或繞過了美國人工智慧巨頭
輝達的CUDA框架,為DeepSeek在未來適配中國國產
晶片做好準備。
新加坡《聯合早報》3日報導,由輝達開發的軟硬體整合技術「統一運算架構」(Compute Unified Device Architecture,CUDA)是一種通用程式框架,允許開發者利用輝達的圖形處理器(GPU)進行運算。
報導指,由於CUDA大幅降低了研發大模型的難度,因此全球大模型開發商,都傾向於選擇使用輝達的CUDA技術,助力輝達占據全球人工智慧領域的壟斷地位。
不過,美國科技網站Tom's Hardware報導,指模型建構的效率比mexta等巨頭高出10倍以上,引述南韓未來資產證券一位分析師談DeepSeek技術的文章形容,「他們從頭開始重建了一切」。
該分析指出,DeepSeek在使用輝達的H800晶片進行訓練時,使用了輝達的底層硬體指令PTX(Parallel Thread Execution)語言,而不是高階程式語言CUDA。
由於CUDA是通用型程式框架,會導致訓練模型時損失一些彈性。中國網媒「快科技」分析,DeepSeek的做法相當於繞過了硬體對訓練速度的限制,意味著其他模型需要訓練10天,而DeepSeek只需要5天。然而,這種程式設計非常複雜、難以維護,業界通用的做法是使用CUDA這類高階程式語言。
快科技與騰訊網引述的消息人士指出,DeepSeek內部擁有一些擅長寫PTX語言的內部開發者,假如DeepSeek未來有意改適配中國中國國產的GPU,在硬體適配方面將會更得心應手。