4 月 2 日消息,昆侖萬維集團日前通過官方公眾號宣布,在“天工”大模型發布一周年之際,天工大模型 3.0 將于 4 月 17 日正式開啟公測,并將同步選擇開源。“天工 3.0”采用 4000 億級參數 MoE(混合專家模型),官方稱是全球模型參數最大、性能最強的 MoE 模型之一,性能超過 Grok 1.0。
據介紹,相較于上一代“天工 2.0”MoE 大模型,“天工 3.0”在模型語義理解、邏輯推理、以及通用性、泛化性、不確定性知識、學習能力等領域擁有“驚人的”性能提升,其模型技術知識能力提升超過 20%,數學 / 推理 / 代碼 / 文創能力提升超過 30%。
“天工 3.0”還新增了搜索增強、研究模式、調用代碼及繪制圖表、多次調用聯網搜索等能力,并針對性地訓練了模型的 Agent 能力。其能夠獨立完成規劃、調用、組合外部工具及信息,并可完成產業分析、產品對比等各類復雜需求。
“天工 3.0”號稱全球首個多模態“超級模型”,集成了 AI 搜索、AI 寫作、AI 長文本閱讀、AI 對話、AI 語音合成、AI 圖片生成、AI 漫畫創作、AI 圖片識別、AI 音樂生成、AI 代碼寫作、AI 表格生成等多項能力,官方稱其為“大模型時代的超級應用”。
據此前報道,昆侖萬維去年 10 月開源了百億級大語言模型“天工”Skywork-13B 系列,并配套開源了 600GB、150B Tokens 開源中文數據集。
昆侖萬維“天工”Skywork-13B 系列目前包括 130 億參數的兩大模型:Skywork-13B-Base 模型、Skywork-13B-Math 模型
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。