北京深度求索公司推出首個國產開源MoE大模型
1月15日訊,北京深度求索公司推出首個國產開源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,計算量降低60%。DeepSeek MoE目前推出的版本參數量爲160億,實際激活參數量大約是28億。此外,深度求索團隊還透露,DeepSeek MoE模型還有145 B版本正在研發。階段性的初步試驗顯示,145 B的DeepSeek MoE對GShard 137 B具有極大的領先優勢,同時能夠以28.5%的計算量達到與密集版DeepSeek 67 B模型相當的性能。(量子位)
相關資訊
- ▣ 阿里通義千問開源首個MoE模型
- ▣ 第一個100%開源的MoE大模型,7B的參數,1B的推理成本
- ▣ 大模型初創企業MiniMax將發佈國內首個MoE大模型
- ▣ 中國銀河維持計算機推薦評級:國產開源MoE模型DeepSeek-V2性能媲美GPT-4,大模型價格戰拉開帷幕
- ▣ 騰訊混元又來開源,一出手就是最大MoE大模型
- ▣ 國內最大MoE開源大模型來了,還基於此搞出個火遍港臺的AI聊天應用
- ▣ 騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
- ▣ 對標 OpenAI GPT-4,MiniMax 國內首個 MoE 大語言模型全量上線
- ▣ 稀宇科技推出萬億MoE模型abab 6.5
- ▣ AI早知道|全球首個開源的多模態混合AI模型;智譜科技推出AI搜索工具
- ▣ AI早知道|阿里通義將發佈視頻大模型;元象發佈MoE開源大模型
- ▣ 北京君正:公司沒有開發MOE架構計算芯片
- ▣ 獵戶星空發佈MoE大模型,推出AI數據寶AirDS
- 國產模型首開Hugging Face月度下載全球第一,智源B
- ▣ 騰訊發佈最大開源MoE模型,3890億參數免費可商用
- ▣ MiniMax 國內首個 MoE 大語言模型上線 擁有處理複雜任務能力
- ▣ 蘋果推出開放語言模型 OpenELM;微軟、清華團隊提出多頭混合專家 MH-MoE|大模型論文
- ▣ 騰訊開源最大MoE大語言模型!3D大模型同時支持文/圖生成,曬混元模型及應用全家桶
- ▣ 專家模型不要專家並行!微軟開源MoE新路徑
- ▣ 最神秘國產大模型團隊冒泡,出手就是萬億參數MoE,2款應用敞開玩
- ▣ AI早知道|騰訊發佈最大規模開源MoE模型;阿里巴巴達摩院發佈八觀氣象大模型
- ▣ 新國都:公司在AI產品中雖結合了第三方開源大模型,但目前並未自研或擁有大模型產品
- ▣ 中國首個音樂SOTA模型「天工音樂大模型」今日開啓公測
- ▣ 一塊錢100萬token,超強MoE模型開源,性能直逼GPT-4-Turbo
- ▣ 獵戶星空發佈MoE大模型
- ▣ 百度李彥宏:開源模型是智商稅,閉源模型更強大、推理成本更低
- ▣ 「天工大模型3.0」4月17日正式發佈——同步開源4000億參數MoE超級模型,性能超Grok1.0
- ▣ 全國首個司法審判垂直領域大模型在深圳正式啓用
- ▣ 新視角設計下一代時序基礎模型,Salesforce推出Moirai-MoE