更多

    IBM watsonx 高調推出 Mixtral-8x7B 版本 Mistral AI 成業界新貴

    人工智能初業公司 Mistral AI 一下子成為業界新貴,這邊廂吸引微軟大額投資,計畫向該公司投資 1,500 萬歐元在下一輪融資轉換成股份,並已達成幾年合作協議,將 Mistral Large 供應給 Azure AI ,讓企業客戶選擇以這技術開發生成式 AI 方案。另一邊廂,IBM 隨即宣布在 watsonx 推出開源 Mistral AI 模型,擴大模型選擇範圍,幫助企業以信任和靈活性擴展 AI 應用。

    IBM 提供 Mixtral-8x7B 最佳化版本,能快速處理和分析大量數據。在該公司的內部測試中,與常規模型相比,該版本能夠將吞吐量(或在指定時間內可以處理的數據量)提高 50%,而且時延可減少高達 75%。

    Mixtral-8x7B 是結合稀疏模型( Sparse modeling ) 和混合專家技術( Mixture-of-Experts )而成。前者是創新技術,僅尋找並使用最重要的數據來創建更高效的模型;後者結合不同的模型來解決問題。

    IBM 除了提供 Mistral AI 的模型 ,同時宣佈在 watsonx 上提供日本公司 ELYZA 開發的開源 ELYZA-japanese-Llama-2-7b 模型,以及 Meta 的開源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 等,未來幾個月也將推出更多模型。

    最新影片

    您會感興趣的內容

    相關文章