1760 億參數、大小 281GB,Mixtral 8x22B 開源模型登場
IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 開源模型,共有 1760 億個參數,Context 長度(上下文文本)爲 6.5 萬個 token,可以通過 Torrent 下載。
Mistral AI 公司自成立以來一直備受外界關注,“6 人團隊,7 頁 PPT,8 億融資”不斷締造傳奇,而且在得到微軟的投資之後更是進入發展快車道。
該公司今天發佈的 Mixtral 8x22B 開源模型是個開源模型,官方目前放出了 Torrent 種子鏈接,文件大小爲 281GB。用戶可以通過磁性鏈接直接下載,或者通過 HuggingFace 和 Perplexity AI Labs 平臺進行下載。IT之家附上相關截圖如下:
Mixtral 8x22B 共有 1760 億個參數,Context 長度(上下文文本)爲 6.5 萬個 token,不過爲單一任務可以調用部分模型(440 億參數),因此使用起來更加靈活。