IBM于2月底其 Granite 大型語(yǔ)言模型家族的最新一代產(chǎn)品 Granite 3.2,持續推動(dòng)小型、高效、企業(yè)專(zhuān)用的 AI,為實(shí)際應用創(chuàng )造效益。


所有 Granite 3.2 模型均采用寬松的 Apache 2.0 開(kāi)源授權條款,可在 Hugging Face 下載。部分模型現已在 IBM watsonx.ai、Ollama、Replicate 和 LM Studio 上提供,預計不久將支援 RHEL AI 1.5,為企業(yè)與開(kāi)源社區注入更強大的 AI 能力。

主要亮點(diǎn)

  • 全新視覺(jué)語(yǔ)言模型:專(zhuān)為理解文件任務(wù)而設計,在關(guān)鍵企業(yè)基準測試 DocVQA、ChartQA、AI2D 和 OCRBench中,表現可媲美甚至超越更大規模的模型(如 Llama 3.2 11B 和 Pixtral 12B)。除了強大的訓練數據外,IBM 也利用其開(kāi)源 Docling 工具包處理8千5百萬(wàn)份 PDF 文件,并生成2千6百萬(wàn)個(gè)合成問(wèn)答配對,提升視覺(jué)語(yǔ)言模型在處理大量文件工作流時(shí)的能力。


  • 增強推理功能:Granite 3.2的2B與8B模型加入了「思維鏈」(Chain of Thought,CoT)推理機制,且使用者可以開(kāi)啟或關(guān)閉推理功能以?xún)?yōu)化效率。通過(guò)這項能力,8B 模型在 ArenaHard 和 Alpaca Eval 等指令遵循基準測試中的表現,比前一代優(yōu)異比例達到兩位數,且不影響其他領(lǐng)域的安全性或性能。此外,通過(guò)創(chuàng )新的推理擴展方法,Granite 3.2 8B 模型可以調整至接近 Claude 3.5 Sonnet 或 GPT-4o 在數學(xué)推理基準(如 AIME2024 和 MATH500)上的表現。


  • Granite Guardian 安全模型更輕巧:在保持 Granite 3.1 Guardian 模型性能的同時(shí),模型尺寸減少三成。此外,Granite 3.2 系列還引入了語(yǔ)言化信心評估(Verbalized Confidence)新功能,可提供更精細的風(fēng)險評估,幫助安全監測系統識別不確定性。


IBM 持續推動(dòng)企業(yè)專(zhuān)用的小型 AI 模型策略,并已在測試中展現高效能。例如,Granite 3.1 8B 模型在 Salesforce 大型語(yǔ)言模型CRM基準測試中獲得高分,顯示其在實(shí)際應用中的準確度和可靠性。


IBM Granite 模型家族擁有廣大的合作伙伴生態(tài)體系,許多領(lǐng)先的軟件公司已將Granite模型嵌入其技術(shù)。Granite 3.2 是 IBM 在推動(dòng)企業(yè)專(zhuān)用小型 AI 方面的重要進(jìn)展,體現了 IBM 致力于提供小型、高效、實(shí)用 AI 的產(chǎn)品策略。


CrushBank 首席技術(shù)官 David Tan 表示:"在 CrushBank,我們親眼目睹了 IBM 開(kāi)放、高效的人工智能模型如何為企業(yè)人工智能帶來(lái)真正的價(jià)值--在性能、成本效益和可擴展性之間實(shí)現適當的平衡。Granite 3.2 通過(guò)新的推理功能更進(jìn)一步,我們很高興能在構建新的代理(智能體)解決方案時(shí)探索這些功能。"


Granite 3.2 是 IBM 產(chǎn)品組合和戰略發(fā)展的重要一步,旨在為企業(yè)提供小型實(shí)用的 AI。雖然思維鏈在推理任務(wù)中表現強大,但它需要大量計算資源,并非所有任務(wù)都必須啟用。因此,IBM 在 Granite 3.2 模型中加入了程式化開(kāi)關(guān)功能,使用者可以根據需求開(kāi)啟或關(guān)閉推理模式;模型可在不啟用推理的情況下運行較簡(jiǎn)單的任務(wù),以降低不必要的計算成本。


此外,其他推理技術(shù)(例如推理擴展 Inference Scaling) 已顯示 Granite 3.2 8B 模型能夠在標準數學(xué)推理基準測試中,媲美甚至超越更大模型的性能。持續發(fā)展這項推理技術(shù)也是 IBM 研究團隊的重點(diǎn)方向,以進(jìn)一步提升 AI 的效能與應用范圍。


除了 Granite 3.2 的指令、視覺(jué)和防護模型之外,IBM 也推出了新一代 TinyTimeMixers(TTM)時(shí)間序列模型,這些模型的參數少于1千萬(wàn),具備長(cháng)期預測能力,可進(jìn)行長(cháng)達兩年的長(cháng)期預測。這些模型為長(cháng)期趨勢分析提供強大工具,適用于金融與經(jīng)濟趨勢分析、供應鏈需求預測,以及零售業(yè)的季節性庫存規劃。


IBM AI 研究副總裁 Sriram Raghavan 表示:"AI 的下一個(gè)時(shí)代將聚焦效率、整合與實(shí)際應用的影響力 — 企業(yè)應該能夠在不過(guò)度消耗計算資源的情境下,取得強大的 AI 效益。IBM 最新的 Granite 模型發(fā)展專(zhuān)注于開(kāi)放式解決方案,逐步推動(dòng) AI 的普及,使其更具成本效益,為現代企業(yè)創(chuàng )造更大價(jià)值。"