Meta推出參數規模高達4050億組的人工智慧模型Llama 3.1,同樣以開源形式對外提供使用
今年4月宣佈推出開源大型自然語言模型Llama 3之後,Meta稍早再宣佈推出新版Llama 3.1,最大規模可對應4050億組參數,同樣以開源形式對外提供使用。
而Llama 3.1是以超過16000組NVIDIA H100加速器,以及超過15兆個詞元 (token)資料集進行訓練,但未說明資料集具體來源。隨着此次釋出Llama 3.1,Meta同時也將Llama 3的700億及80億組參數版本進行升級。
同時,Llama 3.1同樣以開源形式對外提供使用,將可用於AWS、Google Cloud、Azure、NVIDIA NIM、Snowflake、Databricks、Kaggle、IBM WatsonX等服務平臺運作,同時將會透過Hugging Face平臺對外提供使用。
依照Meta說明,Llama 3.1在諸多測試項目超越OpenAI的GPT-4o,以及Anthropic的Claude 3.5 Sonnet,而在AWS雲端服務執行Llama 3.1的成本僅需GPT-4o的一半左右。
Meta執行長Mark Zuckberg更解釋爲什麼會以開源形式對外提供其Llama人工智慧模型,原因在於希望藉由比照Linux作業系統開源形式作法,藉此吸引更多人使用此人工智慧模型創造各類應用服務,進而讓Llama人工智慧模型可以持續精進,並且成爲諸多業界使用技術。
Meta此次也宣佈其人工智慧助理服務Meta AI將增加至支援22種語言,此次主要新增阿根廷語、智利通用西班牙語、哥倫比亞西班牙語、墨西哥語、秘魯西班牙語,以及喀麥隆皮欽語,同時也將在美國與加拿大市場進駐Quest系列虛擬視覺頭戴裝置,另外也推出名爲Imagine me的個人資料照片自動生成圖像功能,讓使用者能創造更具特色的個人代表圖像。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》