輝達助攻 鴻海研究院推首版繁體中文AI大語言模型

FoxBrain 模型(對比Meta Llama 3.1 70B 與 Llama-3-Taiwan-70B) 在 TMMLU+ 上面幾個重要領域的得分。(圖取自鴻海網頁honhai.com)
FoxBrain 模型(對比Meta Llama 3.1 70B 與 Llama-3-Taiwan-70B) 在 TMMLU+ 上面幾個重要領域的得分。(圖取自鴻海網頁honhai.com)

(中央社記者鍾榮峰台北10日電)鴻海今天上午宣布,鴻海研究院推出第1版具有推理能力的人工智慧(AI)繁體中文大型語言模型,未來將透過導入AI大型語言模型,強化智慧製造、智慧電動車、智慧城市等3大平台的數據分析效率。

在模型訓練過程中,鴻海說明,輝達提供Taipei-1超級電腦以及技術諮詢,讓鴻海研究院透過使用輝達NeMo人工智慧模型服務,順利完成模型訓練。

鴻海上午透過新聞稿宣布,鴻海研究院推出首款繁體中文AI大型語言模型(LLM),內部開發代碼FoxBrain,FoxBrain模型原來為內部應用設計,涵蓋數據分析、決策輔助、文書協作、數學、推理解題與代碼生成等功能,後續將對外開源分享。

「開源」(open sourced)意指支撐AI的運算代碼公開給其他企業和研究人員,讓所有人都能使用這些技術來建構、推廣自己的產品。

鴻海指出,FoxBrain作為鴻海研究院AI推理LLM模型訓練成果,展現理解與推理能力,在數學與邏輯推理測試中表現出色,還能強化台灣使用者的語言風格。

鴻海研究院說明,人工智慧研究所在FoxBrain訓練過程中,使用120張輝達(NVIDIA)H100繪圖處理器(GPU),並透過NVIDIA Quantum-2 InfiniBand網路擴展,僅花費約4週時間完成,模型訓練方式低成本且更具效率。

在相關規格與訓練策略上,鴻海研究院指出,FoxBrain透過自主技術,建立24類主題的資料增強方式與品質評估方法,生成98B詞元(tokens)高品質中文預訓練資料,上下文處理長度128K token,總計算力花費2688 GPU days,採用多節點平行訓練架構,確保高效能與穩定性。

在測試結果,鴻海研究院表示,FoxBrain在數學領域較基礎模型Meta Llama 3.1全面提升,相較於目前最好的繁體中文大模型Taiwan Llama,在數學測試中取得顯著進步,並在數學推理能力上超越Meta目前已推出的同等級模型,與DeepSeek蒸餾模型仍有些微差距,但表現已相當接近世界領先水準。

Google新聞透明的Google新聞

鴻海指出,未來將透過導入AI大型語言模型,強化智慧製造、智慧電動車、智慧城市等3大平台的數據分析效率,讓FoxBrain成為驅動智慧應用升級的重要引擎,未來將對外開源分享,擴大模型運用範圍,與技術夥伴共同推動AI在製造業、供應鏈管理與智慧決策領域應用。

鴻海表示,FoxBrain成果將於美國時間3月17日起登場的輝達年度GTC大會專題演講中,以From Open Source to Frontier AI: Build, Customize, and Extend Foundation Models為主題,首次對外發表。(編輯:林家嫻)1140310

鴻海10日上午宣布,鴻海研究院推出第1版具有推理能力的人工智慧(AI)繁體中文大型語言模型。(中央社檔案照片)

標題:輝達助攻 鴻海研究院推首版繁體中文AI大語言模型

聲明: 本文版權屬原作者。轉載內容僅供資訊傳遞,不涉及任何投資建議。如有侵權,請立即告知,我們將儘速處理。感謝您的理解。

分享你的喜愛