Red Hat 新推出 AI Enterprise 主打統一人工智能平台

Author:

Published:

- 廣告 -

Red Hat 宣佈推出全新企業級 AI 平台 Red Hat AI Enterprise,主打為企業打造一個統一人工智能平台,幫助客戶由實驗性 PoC,跨越至可監管、可重複的大規模 AI 生產營運。平台建基於 Red Hat Enterprise Linux、Red Hat OpenShift 及 Red Hat OpenShift AI 等產品,並整合 Red Hat AI Inference Server、Red Hat Enterprise Linux AI 等組件,將 AI 模型、Agent 同應用程式的生命週期放在一個一致的堆疊上管理。​

Red Hat 指出,現時不少企業的 AI 應用已由單純聊天機械人,演變為需要與系統深度整合的「自動化智能代理工作流」,但受限於工具分散、基礎設施不一致,很多項目仍停留在「試點階段」,難以進入真正生產環境。 Red Hat AI Enterprise 的定位,就是協助科技團隊把 AI 當作標準企業系統一部分,而不是一堆孤立試驗,令模型部署、更新、監管與觀察性,都可以用類似管理企業軟件的方式處理。​

Red Hat AI Enterprise:由 Metal 到 Agent 的完整堆疊

Red Hat AI Enterprise 以 Red Hat OpenShift(Kubernetes 驅動的混合雲平台)為核心,提供高效能推理、模型微調與定制、智能代理部署及管理等能力,並強調支援「任何模型、任何硬件、任何環境」的彈性。 在硬件層面,Red Hat 與 NVIDIA 共同推出 Red Hat AI Factory with NVIDIA,把 Red Hat AI Enterprise 與 NVIDIA AI 基礎設施深度整合,加速企業在 GPU 環境上實現生產級部署。​

- 廣告 -

平台主要優勢包括:

  • 更快、更高效且可擴展的 AI 推理:引入 vLLM 推理引擎及 llm-d 分佈式推理框架,針對混合硬件環境(例如不同品牌 GPU、甚至 CPU)優化生成式 AI 模型部署與運行表現。​
  • 整合的可觀測性與全生命週期管理:透過驗證過、具互操作性的企業級 AI 技術堆疊,提供模型健康度、效能的遙測監控,同時強化 AI 治理,降低模型漂移、合規及安全風險。​
  • 混合雲靈活性:支援在本地數據中心、公有雲及邊緣環境,以一致方式部署與管理模型和智能代理,方便根據數據所在位置與合規要求靈活選擇運行位置。​

Red Hat AI 3.3:擴展模型生態與硬件支援

伴隨 Red Hat AI Enterprise,Red Hat 同步發布 Red Hat AI 3.3,為整個 AI 產品線帶來多項新功能與優化,目標是進一步提升「從模型到生產」的效率與戰略靈活性。​

重點更新包括:

  • 擴大模型生態系統:透過 OpenShift AI Catalog 提供經驗證的 Mistral-Large-3、Nemotron-Nano、Apertus-8B-Instruct 等壓縮版本模型,並支援部署 Ministral 3、DeepSeek-V3.2 等較新模型,同時提升多模態能力,例如 Whisper 語音模型速度提升至約 3 倍、加入地理空間支援及工具調用增強等。​
  • Model-as-a-Service (MaaS) 自助存取:企業可透過 API Gateway 將內部私有託管模型以服務形式開放給不同團隊使用,方便在組織內快速構建與擴展各類 AI 應用,兼顧可控性與重用性。​
  • 擴展硬件支援:引入基於 CPU 的生成式 AI 支援(技術預覽,首推 Intel CPU),以及對 NVIDIA Blackwell Ultra 和 AMD MI325X 等新一代加速器的認證,方便企業按成本與性能需要選擇適當組合。​

數據與安全:從 Python 生態到 Guardrails

Red Hat AI 3.3 亦在數據處理、開發工具及安全治理方面作出補強:

  • 透過 Red Hat AI Python Index 提供受信任、企業級的工具庫,如 Docling、SDG Hub、Training Hub 等,協助團隊在數據準備、合成數據、生訓流程中使用經驗證組件,降低供應鏈風險。​
  • 在可觀測性方面,提供模型健康與性能的即時遙測數據,幫助運維團隊及時調整資源和配置。​
  • 在安全方面,整合 NeMo Guardrails(技術預覽),令企業能為 AI 互動設置安全規則與邏輯,減少不當輸出、偏見內容或越權操作的風險,符合日益嚴格的 AI 治理要求。​

此外,平台亦支援按需訪問 GPU 資源,透過智能調度與自動 Checkpointing 建立內部版「GPU-as-a-Service」,在共享資源環境中保持可預測的運算成本與使用體驗。​

Red Hat 副總裁兼 AI 事業部總經理 Joe Fernandes 表示,要令 AI 真正創造商業價值,企業必須將它視為軟件堆疊的核心組件,而不是零散實驗;Red Hat AI Enterprise 透過統一的「從硬件到智能代理」平台,把 GPU 加速基建和驅動業務邏輯的模型與代理連成一體,配合 Red Hat AI 3.3,幫助企業跨越試點階段,在混合雲環境中實現可監管、高效能的 AI 營運。

- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -