Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat AI Enterprise bridges the gap from AI infrastructure to production-ready agents by unifying the AI lifecycle with the industry-leading foundation of Red Hat Enterprise Linux and Red Hat OpenShift

Red Hat, the world’s leading provider of open source solutions, today announced Red Hat AI Enterprise, an integrated AI platform for deploying and managing AI models, agents and applications across the hybrid cloud. It joins the Red Hat AI portfolio which includes Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI. Red Hat is also introducing Red Hat AI 3.3, bringing significant updates and enhancements across the company’s entire AI portfolio. 

Together, these solutions provide a comprehensive “metal-to-agent” stack, integrating the underlying Linux and Kubernetes infrastructure with advanced inference and agentic capabilities to help organizations move from fragmented experimentation to governed, autonomous operations.

The enterprise AI landscape is rapidly evolving from simple chat interfaces toward high-density, autonomous agentic workflows that require deeper integration across the entire technology stack. However, many organizations remain stuck in the “pilot phase” due to fragmented tools and inconsistent infrastructure. Red Hat AI Enterprise addresses this by unifying the model and application lifecycles allowing IT teams to manage AI as a standardized enterprise system rather than a siloed project – making AI delivery as reliable and repeatable as traditional enterprise software.

Red Hat AI Enterprise: The foundation for AI production

Red Hat AI Enterprise provides core capabilities, including high-performance AI inference, model tuning and customization and agent deployment and management, with the flexibility to support any model and any hardware across any environment. Fueled by Red Hat OpenShift – the industry’s leading hybrid cloud application platform powered by Kubernetes – at its core, Red Hat AI Enterprise delivers a highly scalable and more consistent experience with a stronger security footprint, anywhere, using familiar tools and frameworks. For NVIDIA AI infrastructure, NVIDIA and Red Hat co-engineered the new Red Hat AI Factory with NVIDIA, combining Red Hat AI Enterprise and NVIDIA AI Enterprise to help speed and scale production AI for enterprises.  

Key benefits of Red Hat AI Enterprise include:

  • Faster, more cost-effective and scalable AI inference using the vLLM inference engine and llm-d distributed inference framework for optimized generative AI model deployments across hybrid hardware environments.
  • Integrated observability and lifecycle management to help drive AI lifecycle governance and mitigate risk with an integrated, tested and interoperable enterprise-ready AI stack.
  • Flexibility across the hybrid cloud by empowering organizations to deploy and manage AI models, agents and applications with greater consistency wherever their business needs to run backed by trusted Red Hat platforms.

Extending strategic flexibility and full-stack efficiency with Red Hat AI 3.3 

Red Hat’s strategy centers on bridging the gap between mission-critical stability and frontier innovation through a unified platform. The latest software release expands model choice, deepens full-stack optimization for next-generation silicon and hardens operational consistency for frontier models. 

New features and enhancements include:

  • Expanded model ecosystem with validated, production-ready compressed versions of Mistral-Large-3, Nemotron-Nano and Apertus-8B-Instruct, available via the OpenShift AI Catalog. Additionally,  the release enables deployment of state-of-the-art models like Ministral 3 and DeepSeek-V3.2 with sparse attention, while delivering multimodal enhancements including 3x Whisper speedup, geospatial support, improved EAGLE speculative decoding and enhanced tool calling for agentic workflows.
  • Self-service access to AI models with a technology preview of Models-as-a-Service (MaaS). IT teams can provide self-service access to privately hosted models via an API gateway. This centralized approach ensures that AI is available on-demand for internal users, fostering a ready-to-go AI foundation that promotes private and scalable AI adoption within the enterprise.
  • Expanded hardware support including a technology preview of generative AI support on CPUs, starting with Intel CPUs for more cost-effective small language model (SLM) inference. Additionally, the platform has expanded its hardware certification for NVIDIA’s Blackwell Ultra and support for AMD MI325X accelerators.
  • Unified data-to-model lifecycle secured by the new Red Hat AI Python Index. This trusted repository delivers hardened, enterprise-grade versions of critical tools—including Docling, SDG Hub, and Training Hub—enabling teams to move from fragmented experimentation to repeatable, security-focused production pipelines.
  • Comprehensive AI observability and safety with greater visibility into model health, performance and behavior. This provides real-time telemetry across AI workloads, llm-d deployments and Models-as-a-Service (MaaS) cluster and model usage and is paired with a technology preview of integrated NeMo Guardrails, enabling developers to enforce operational safety and alignment across AI interactions.
  • On-demand access to GPU resources by empowering organizations to deploy their own internal GPU-as-a-Service capabilities through intelligent orchestration and pooled hardware access with automatic checkpointing to save the state of long-running training jobs, preventing work loss and maintaining more predictable compute costs, even in highly dynamic or preemptible environments.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“For AI to deliver true business value, it must be operationalized as a core component of the enterprise software stack, not as a standalone silo. Red Hat AI Enterprise is designed to bridge the gap between infrastructure and innovation by providing a unified metal to agent platform. By integrating advanced tuning and agentic capabilities with the industry-leading foundation of Red Hat Enterprise Linux and Red Hat OpenShift, we are providing the complete stack – from the GPU-accelerated hardware to the models and agents that drive business logic. Additionally, with Red Hat AI 3.3 organizations can move beyond fragmented pilots to governed, repeatable and high-performance AI operations across the hybrid cloud.”

Additional Resources

Connect with Red Hat

Red Hat เปิดตัว Red Hat AI Enterprise มอบแพลตฟอร์ม AI หนึ่งเดียวที่ครอบคลุมครบวงจร ตั้งแต่ระดับฮาร์ดแวร์จนถึงเอเจนต์

สามขั้นตอนสู่ความเป็น Adaptive Leadership ในยุคเทคโนโลยี

Red Hat เปิดตัว Red Hat AI Enterprise มอบแพลตฟอร์ม AI หนึ่งเดียวที่ครอบคลุมครบวงจร ตั้งแต่ระดับฮาร์ดแวร์จนถึงเอเจนต์

Red Hat AI Enterprise ประสานรอยต่อระหว่างโครงสร้างพื้นฐาน AI กับ เอเจนต์ที่พร้อมใช้งานจริงด้วยการรวมไลฟ์ไซเคิลของ AI ให้เป็นหนึ่งเดียวกับ Red Hat Enterprise Linux และ  Red Hat OpenShift ซึ่งเป็นโครงสร้างพื้นฐานชั้นนำของอุตสาหกรรม

 

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอรส์ระดับแนวหน้าของโลก ประกาศเปิดตัว Red Hat AI Enterprise แพลตฟอร์ม AI แบบเบ็ดเสร็จ สามารถรองรับการใช้และบริหารจัดการโมเดล AI, เอเจนต์ (agent) และแอปพลิเคชัน AI ที่อยู่บนไฮบริดคลาวด์ทั้งหมด แพลตฟอร์มนี้เข้าร่วมเป็นส่วนหนึ่งของพอร์ตโฟลิโอด้าน AI ของเร้ดแฮท ซึ่งประกอบด้วย Red Hat AI Inference Server, Red Hat OpenShift AI และ Red Hat Enterprise Linux AI นอกจากนี้เร้ดแฮทยังได้เปิดตัว Red Hat AI 3.3 ซึ่งเป็นการอัปเดทและการเพิ่มประสิทธิภาพครั้งสำคัญของพอร์ตโฟลิโอด้าน AI ที่มีอยู่ทั้งหมดของบริษัทฯ โซลูชันทั้งสองนี้รวมพลังกันมอบชุดโซลูชันที่ครอบคลุมตั้งแต่ระดับฮาร์ดแวร์ไปจนถึงระดับซอฟต์แวร์เอเจนต์ (metal-to-agent) โดยผสานรวม Linux และโครงสร้างพื้นฐาน Kubernetes เข้ากับความสามารถในการอนุมาน (inference) และการทำงานของเอเจนต์ (agent) เพื่อช่วยให้องค์กรต่าง ๆ เปลี่ยนจากการทำงานและการทดลองที่กระจัดกระจายไปเป็นการทำงานอัตโนมัติที่ควบคุมดูแลตามมาตรฐานขององค์กรได้

แลนด์สเคปด้าน AI ขององค์กรกำลังพัฒนาอย่างรวดเร็ว จากอินเทอร์เฟซการแชทแบบง่าย ๆ ไปเป็นเวิร์กโฟลว์เอเจนต์อัตโนมัติ (autonomous agentic workflows) ที่มีความซับซ้อนสูงมีปริมาณงานและขีดความสามารถที่มากขึ้น (high-density) ซึ่งต้องการการบูรณาการเทคโนโลยีที่มีอยู่เข้าด้วยกันอย่างมาก อย่างไรก็ตาม องค์กรจำนวนมากยังคงติดอยู่กับ “ระยะนำร่อง” เนื่องจากเครื่องมือมากมายที่กระจัดกระจายและโครงสร้างพื้นฐานที่ไม่เป็นเอกภาพ Red Hat AI Enterprise จัดการกับความท้าทายนี้ด้วยการรวมไลฟ์ไซเคิลของโมเดลและแอปพลิเคชันไว้ด้วยกัน ซึ่งช่วยให้ทีมไอทีสามารถบริหารจัดการ AI เหมือนเป็นระบบปกติระบบหนึ่งขององค์กร แทนที่จะเป็นโปรเจกต์ที่ต่างคนต่างทำ ช่วยให้การให้บริการ AI เชื่อถือได้และนำกลับมาใช้ใหม่ได้เหมือนกับซอฟต์แวร์แบบดั้งเดิมขององค์กร

Red Hat AI Enterprise คือพื้นฐานรองรับการนำ AI มาใช้งานจริง 

Red Hat AI Enterprise มอบความสามารถสำคัญต่าง ๆ เช่น การอนุมาน AI คุณภาพสูง, การปรับจูนและปรับแต่งโมเดล รวมถึงการใช้และบริหารจัดการ เอเจนต์ ที่มาพร้อมความยืดหยุ่นที่สามารถรองรับโมเดลและฮาร์ดแวร์ใดก็ได้ในทุกสภาพแวดล้อม Red Hat OpenShift ซึ่งเป็นแพลตฟอร์มแอปพลิเคชันไฮบริดคลาวด์ที่ขับเคลื่อนโดย Kubernetes ชั้นนำของวงการ เป็นขุมพลังที่ให้การสนับสนุน Red Hat AI Enterprise ให้สามารถมอบประสบการณ์การใช้งานที่สอดคล้องเป็นเอกภาพ และมีความสามารถในการปรับขนาดสูง พร้อมมาตรฐานความปลอดภัยที่รัดกุมบนทุกสภาพแวดล้อมผ่านการใช้เครื่องมือและเฟรมเวิร์กที่คุ้นเคย นอกจากนี้ NVIDIA และเร้ดแฮทได้ร่วมกันพัฒนา Red Hat AI Factory with NVIDIA ขึ้นมาใหม่ ซึ่งเป็นการรวม Red Hat AI Enterprise และ NVIDIA AI Enterprise เข้าด้วยกันเพื่อช่วยเร่งความเร็วและปรับขนาดการใช้งานในการนำ AI มาใช้งานจริงในองค์กร

ประโยชน์หลัก ๆ ของ Red Hat AI Enterprise

  • การอนุมาน AI ที่รวดเร็วขึ้น คุ้มค่าการลงทุนมากขึ้น และปรับขนาดได้ โดยใช้เครื่องมืออนุมานที่เป็น vLLM และเฟรมเวิร์กการอนุมานแบบกระจายตัว llm-d เพื่อทำให้การใช้โมเดล generative AI มีประสิทธิภาพสูงสุดบนทุกสภาพแวดล้อมที่ใช้ฮาร์ดแวร์แบบไฮบริด
  • การสังเกตการณ์แบบครบวงจร และการบริหารจัดการไลฟ์ไซเคิล เพื่อช่วยขับเคลื่อนการกำกับดูแลไลฟ์ไซเคิลของ AI และลดความเสี่ยงด้วยชุดเทคโนโลยี AI ระดับองค์กรที่ผ่านการทดสอบ ผสานรวมการทำงานร่วมกันได้อย่างสมบูรณ์ และพร้อมใช้งานทันที
  • ความยืดหยุ่นที่มีให้กับไฮบริดคลาวด์ทั้งหมด โดยช่วยให้องค์กรต่าง ๆ สามารถใช้และบริหารจัดการโมเดล AI เอเจนต์ และแอปพลิเคชัน ได้อย่างเป็นเอกภาพมากขึ้น ในทุกสภาพแวดล้อมที่ธุรกิจต้องการใช้งาน ภายใต้การสนับสนุนจากแพลตฟอร์มที่เชื่อถือได้ต่าง ๆ ของเร้ดแฮท

การขยายความยืดหยุ่นเชิงกลยุทธ์และประสิทธิภาพการทำงานแบบครบวงจร ด้วย Red Hat AI 3.3

กลยุทธ์ของ Red Hat คือการให้ความสำคัญกับการใช้แพลตฟอร์มหนึ่งเดียวเป็นตัวเชื่อมช่องว่างระหว่างความเสถียรของภารกิจสำคัญกับนวัตกรรมล้ำสมัย ซอฟต์แวร์เวอร์ชันล่าสุดได้เพิ่มทางเลือกของโมเดลให้หลากหลายขึ้น เพิ่มประสิทธิภาพชิปประมวลผลยุคใหม่อย่างเต็มรูปแบบ และเสริมแกร่งด้านความคงเส้นคงวาในการดำเนินงานให้กับโมเดลที่ล้ำสมัยและทรงพลัง

ฟีเจอร์และประสิทธิภาพใหม่ ๆ

  • ระบบนิเวศของโมเดลที่ขยายใหญ่ขึ้นด้วย Mistral-Large-3, Nemotron-Nano และ Apertus-8B-Instruct ในเวอร์ชันที่ผ่านการบีบอัด (compressed versions) ซึ่งได้รับการตรวจสอบความถูกต้องและพร้อมใช้งานจริง สามารถเรียกใช้งานผ่าน OpenShift AI Catalog นอกจากนี้ ซอฟต์แวร์เวอร์ชันนี้ยังรองรับการใช้งานโมเดลล้ำสมัย เช่น Ministral 3 และ DeepSeek-V3.2 ที่ใช้เทคโนโลยี sparse attention พร้อมเพิ่มประสิทธิภาพให้กับการทำงานแบบ multimodal ซึ่งรวมถึงการเร่งความเร็ว 3x Whisper, การรองรับข้อมูลเชิงพื้นที่, การถอดรหัสแบบคาดการณ์ล่วงหน้าของ EAGLE ที่มีการเพิ่มประสิทธิภาพ และการเรียกใช้เครื่องมือที่ได้รับการเพิ่มประสิทธิภาพเพื่อรองรับ agentic workflows
  • การเข้าใช้โมเดล AI ได้แบบ self-service ผ่านเทคโนโลยี Models-as-a-Service (MaaS) เวอร์ชันทดสอบ ทีมไอทีสามารถให้บริการการเข้าถึงแบบ self-service ไปยังโมเดลที่โฮสต์แบบส่วนตัว ผ่าน API Gateway วิธีการแบบรวมศูนย์นี้ช่วยให้มั่นใจได้ว่าผู้ใช้ภายในองค์กรสามารถใช้งาน AI ได้แบบออนดีมานด์พร้อมทั้งสร้างรากฐานด้าน AI ที่มีความพร้อมใช้งาน เพื่อส่งเสริมการนำ AI แบบไพรเวทและปรับขนาดได้ไปใช้ในองค์กร
  • ขยายการรองรับฮาร์ดแวร์ที่หลากหลาย รวมถึงการเปิดตัว generative AI บน CPU โดยเริ่มจาก Intel CPUs ที่ช่วยเพิ่มความคุ้มทุนด้านการอนุมานโมเดลภาษาขนาดเล็ก (SLM) นอกจากนี้ แพลตฟอร์มยังได้ขยายการรับรองฮาร์ดแวร์ NVIDIA Blackwell Ultra และรองรับ accelerators รุ่น AMD MI325X
  • รวมไลฟ์ไซเคิลของข้อมูลสู่โมเดลให้เป็นหนึ่งเดียวและปลอดภัยด้วย Red Hat AI Python Index ใหม่ คลังเก็บข้อมูลที่เชื่อถือได้นี้มอบเครื่องมือสำคัญต่าง ๆ ที่มีความแข็งแกร่งเพียงพอต่อการใช้งานในระดับองค์กร ซึ่งรวมถึง Docling, SDG Hub, และ Training Hub ซึ่งช่วยให้ทีมทำงานเปลี่ยนจากการทดลองที่กระจัดกระจายไปสู่ไปป์ไลน์การใช้งานจริงที่ทำซ้ำได้และเน้นเรื่องความปลอดภัยเป็นสำคัญ
  • การตรวจสอบและความปลอดภัย AI ที่ครอบคลุม พร้อมความสามารถในการมองเห็นสถานะ ความสมบูรณ์ ประสิทธิภาพ และพฤติกรรมของโมเดล โดยระบบจะแสดงข้อมูลการเก็บและส่งข้อมูลการทำงานของเวิร์กโหลด AI ทั้งหมดแบบเรียลไทม์ ช่วยให้สามารถใช้งาน llm-d และใช้งานคลัสเตอร์และโมเดลในรูปแบบ Models-as-a-Service (MaaS) และจับคู่กับ NeMo Guardrails เวอร์ชันทดสอบที่รวมเข้าด้วยกัน เพื่อช่วยให้นักพัฒนาซอฟต์แวร์สามารถควบคุมความปลอดภัยในการดำเนินงานและควบคุมการโต้ตอบกับ AI ทั้งหมดให้เป็นไปในทิศทางเดียวกันได้
  • การเข้าถึงทรัพยากร GPU ได้แบบออนดีมานด์ ช่วยให้องค์กรสามารถใช้ GPU-as-a-Service ภายในองค์กรได้เอง ผ่านการจัดการอย่างชาญฉลาด และการเข้าถึงกลุ่มฮาร์ดแวร์ส่วนกลาง (pooled hardware) พร้อมระบบบันทึกสถานะอัตโนมัติ (automatic checkpointing) เพื่อจัดเก็บสถานะของงานเทรนโมเดลที่ใช้เวลานาน ซึ่งช่วยป้องกันข้อมูลหรืองานไม่ให้สูญหาย และให้คงความสามารถในการคาดการณ์ต้นทุนการประมวลผลได้มากขึ้น แม้ในสภาพแวดล้อมที่มีความผันผวนสูง หรือในสภาพแวดล้อมที่ทรัพยากรอาจถูกดึงกลับคืนได้ทุกเมื่อ

คำกล่าวสนับสนุน

นายโจ เฟอร์นานเดส รองประธานและผู้จัดการทั่วไป หน่วยธุรกิจ AI ของ Red Hat

“เพื่อให้ AI สามารถส่งมอบคุณค่าทางธุรกิจที่แท้จริงได้นั้น เทคโนโลยีนี้จำเป็นต้องถูกทำให้กลายเป็นส่วนประกอบหลักในโครงสร้างซอฟต์แวร์ขององค์กร ไม่ใช่การใช้งานแยกส่วนแบบเอกเทศ Red Hat AI Enterprise จึงออกแบบมาเพื่อประสานรอยต่อระหว่างโครงสร้างพื้นฐานและนวัตกรรม ด้วยการมอบแพลตฟอร์มที่เป็นหนึ่งเดียวตั้งแต่ระดับฮาร์ดแวร์ไปจนถึงระดับ เอเจนต์ การผสานรวมความสามารถในการปรับจูนขั้นสูงและความสามารถของ เอเจนต์ เข้ากับรากฐานระดับชั้นนำของอุตสาหกรรมเช่น Red Hat Enterprise Linux และ Red Hat OpenShift ทำให้เราสามารถให้บริการเทคโนโลยีที่ครบวงจร ตั้งแต่ฮาร์ดแวร์ที่เร่งความเร็วด้วย GPU ไปจนถึงโมเดลและ เอเจนต์ที่ขับเคลื่อนตรรกะทางธุรกิจ นอกจากนี้ Red Hat AI 3.3 ยังช่วยให้องค์กรต่าง ๆ ก้าวข้ามจากการทดลองที่กระจัดกระจาย ไปสู่การปฏิบัติงานด้าน AI ที่ควบคุมได้ ทำซ้ำได้ และมีประสิทธิภาพสูง ครอบคลุมทั่วทั้งไฮบริดคลาวด์”

แหล่งข้อมูลเพิ่มเติม

ช่องทางติดต่อกับเร้ดแฮท

AI ambitions meet automation reality: The case for a unified automation platform

เมื่อวิสัยทัศน์ AI กับ การลงมือทำจริงของระบบอัตโนมัติ มาพบกัน ทำไมต้องใช้แพลตฟอร์มอัตโนมัติหนึ่งเดียว

AI ambitions meet automation reality: The case for a unified automation platform

Article by: Harper Buete, Product Marketing Manager for Red Hat Ansible Automation Platform

IT teams are stuck between wanting to implement AI solutions across their organizations and dealing with the messy reality of increasingly complex infrastructure. Many are attempting to build their own automation solutions, cobbling together a patchwork of tools that, while well-intentioned, can actually make things worse. Red Hat dug into this with S&P Global Market Intelligence 451 Research, and their findings point to a simpler alternative: use a unified platform instead of patchworking tools together.

The DIY dilemma: More tools, more problems

Most teams are drowning in tools, often ending up with too many dashboards with too little coordination. A remarkable 72% of organizations are using up to 50 different IT tools, while nearly a third (28%) are managing over 50. This fragmented approach creates significant hurdles for effective IT automation, including:

  • Complex implementations: This is a top obstacle for 58% of organizations. We often see this arise when customers deploy too many resources and move components piecemeal, slowing progress and increasing effort.
  • Integration challenges: Integrating existing systems is a challenge for 51% of IT organizations. This isn’t just about connecting tools, it’s about achieving true interoperability for automation workflows.
  • Skills gaps: 40% of respondents point to specific skills shortages. Maintaining expertise across a vast array of different tools is a constant drain on time and resources.

This “do-it-yourself” mentality is particularly detrimental to AI initiatives. Complex applications like AI work best when they’re supported by systems that run like clockwork—predictable, consistent, and scalable. Without comprehensive automation, it’s difficult to scale AI up effectively.

Automation translates to tangible benefits for AI

The 451 Research report introduces the concept of a unified IT automation platform. These platforms act as a centralized control plane, using automation to integrate, automate, and orchestrate IT tools, processes, and resources across the entire organization.

For AI, this translates directly into tangible benefits:

  • Actionable AI at scale: With capabilities like Event-Driven Ansible, a unified platform makes AI-driven intelligence actionable, enabling teams to turn insights into automated responses.
  • Consistent AI infrastructure: A unified approach enables the consistent supervision and management of AI environments, including deployment and scaling. With the automation dashboard, you’ll receive actionable insights in real time. The dashboard helps you analyze your IT operations and make smarter decisions based on real data.
  • AI governance and policy enforcement: These features help enforce security and compliance rules across automated AI tasks. This provides essential control and predictable behavior.

There’s a clear connection between automation and AI strategies. IT service management (56%) and generative AI (53%) are cited as critical capabilities for an integrated platform. This confirms that a unified automation platform isn’t just a nice-to-have, it’s the strategic foundation for your AI applications. Red Hat Ansible Automation Platform also has Red Hat Ansible Lightspeed, which includes Intelligent assistance powered by gen AI, which helps administrators install, configure, maintain, and optimize automation workflows.

Instead of spending valuable time and resources and taking the risk of building a fragmented automation solution, consider investing in a platform designed for the enterprise and ready to accelerate your AI journey from the start. 

เมื่อวิสัยทัศน์ AI กับ การลงมือทำจริงของระบบอัตโนมัติ มาพบกัน ทำไมต้องใช้แพลตฟอร์มอัตโนมัติหนึ่งเดียว

เมื่อวิสัยทัศน์ AI กับ การลงมือทำจริงของระบบอัตโนมัติ มาพบกัน ทำไมต้องใช้แพลตฟอร์มอัตโนมัติหนึ่งเดียว

เมื่อวิสัยทัศน์ AI กับ การลงมือทำจริงของระบบอัตโนมัติ มาพบกัน ทำไมต้องใช้แพลตฟอร์มอัตโนมัติหนึ่งเดียว

บทความโดย ฮาร์เปอร์ บิวท์ ผู้จัดการฝ่ายการตลาดผลิตภัณฑ์ เร้ดแฮท แอนซิเบล ออโตเมชัน แพลตฟอร์ม

ทีมไอทีกำลังเผชิญกับอุปสรรคเมื่อต้องการนำโซลูชัน AI มาใช้ทั่วทั้งองค์กร แต่ต้องรับมือกับความจริงที่ยุ่งเหยิงของโครงสร้างพื้นฐานไอทีที่ซับซ้อนมากขึ้น องค์กรหลายแห่งพยายามสร้างโซลูชันอัตโนมัติขึ้นเองด้วยการนำเครื่องมือต่าง ๆ มาเชื่อมต่อกันแบบเฉพาะหน้า ซึ่งแม้จะเป็นความตั้งใจที่ดี แต่อาจส่งผลเสียต่อระบบได้ ผลการศึกษาของเร้ดแฮทร่วมกับ S&P Global Market Intelligence 451 Research ชี้ให้เห็นทางเลือกที่ง่ายกว่า  คือการเปลี่ยนมาใช้แพลตฟอร์มแบบรวมศูนย์ (unified platform) แทนการนำเครื่องมือหลายชนิดมาประกอบกัน

กับดักของการสร้างโซลูชันเอง: ใช้เครื่องมือมาก ปัญหายิ่งมาก

ทีมงานส่วนใหญ่กำลังแบกรับภาระจากเครื่องมือจำนวนมาก ซึ่งมักจบลงด้วยการมีแดชบอร์ดที่ต้องใช้มากเกินไป แต่มีการประสานทำงานร่วมกันเพียงน้อยนิด ผลสำรวจพบว่าองค์กรถึง 72% ใช้เครื่องมือไอทีที่แตกต่างกันมากถึง 50 ชนิด ในขณะที่เกือบหนึ่งในสาม (28%) ต้องบริหารจัดการเครื่องมือมากกว่า 50 ชนิด แนวทางการทำงานที่กระจัดกระจายเช่นนี้ สร้างอุปสรรคสำคัญต่อการทำระบบอัตโนมัติให้มีประสิทธิภาพ และต้องพบกับความท้าทายเช่น

  • ความซับซ้อนในการติดตั้ง: 58% ขององค์กรระบุว่าความซับซ้อนของการติดตั้งใช้งานเป็นอุปสรรคอันดับต้น ๆ  กรณีเช่นนี้มักพบเมื่อมีการจัดวางทรัพยากรมากเกินความจำเป็นและเคลื่อนย้ายองค์ประกอบต่าง ๆ ทีละส่วน ซึ่งส่งผลให้การดำเนินงานล่าช้าและต้องใช้ความพยายามเพิ่มมากขึ้น
  • ความท้าทายด้านการเชื่อมโยงระบบ: 51% ขององค์กรไอทีระบุว่าการบูรณาการระบบเดิมที่มีอยู่ถือเป็นอีกหนึ่งความท้าทาย ประเด็นนี้ไม่ใช่เพียงแค่เรื่องของการเชื่อมต่อเครื่องมือเข้าด้วยกันเท่านั้น แต่คือการทำให้ระบบต่าง ๆ ทำงานร่วมกันได้อย่างสมบูรณ์ เพื่อรองรับเวิร์กโฟลว์ของระบบอัตโนมัติอย่างแท้จริง
  • ข้อจำกัดด้านทักษะ: ผู้ตอบแบบสอบถาม 40% ระบุว่าการขาดแคลนทักษะเฉพาะทางคือปัญหาหลัก เพราะการต้องคงระดับความเชี่ยวชาญในเครื่องมือที่หลากหลายนั้นเป็นการสิ้นเปลืองทั้งเวลาและทรัพยากรอย่างไม่สิ้นสุด

แนวคิดแบบ “ต่างคนต่างสร้างเองใช้เอง” (do-it-yourself) ส่งผลเสียอย่างยิ่งต่อการใช้ AI ในแง่มุมต่าง ๆ เนื่องจากแอปพลิเคชันที่มีความซับซ้อนเช่น AI จะทำงานได้ดีที่สุดกับระบบที่ดำเนินไปอย่างแม่นยำเที่ยงตรง ทั้งในด้านการคาดการณ์ ความสม่ำเสมอ และปรับขนาดการทำงานได้ การจะยกระดับและขยายขีดความสามารถของ AI ให้ใช้งานในวงกว้างย่อมเป็นไปได้ยาก หากขาดระบบอัตโนมัติที่ครอบคลุม 

ระบบอัตโนมัติเปลี่ยน AI ให้เป็นผลลัพธ์ที่จับต้องได้

รายงาน 451 Research ชูแนวคิดเรื่องแพลตฟอร์มระบบอัตโนมัติไอทีแบบรวมศูนย์ (unified IT automation platform) ซึ่งทำหน้าที่เป็นศูนย์กลางในการควบคุม โดยใช้ระบบอัตโนมัติเข้ามาบูรณาการ จัดระเบียบครื่องมือ กระบวนการ และทรัพยากรด้านไอทีทั้งหมดขององค์กรให้ทำงานร่วมกันอย่างเป็นระบบโดยอัตโนมัติ

ในแง่ของ AI แนวทางนี้จะถูกเปลี่ยนให้เป็นคุณประโยชน์ที่จับต้องได้ดังนี้

  • AI ที่ใช้งานได้จริงในวงกว้าง: ความสามารถต่าง ๆ เช่น Event-Driven Ansible ซึ่งเป็นแพลตฟอร์มรวมศูนย์จะช่วยให้ทีมงานสามารถเปลี่ยนข้อมูลเชิงลึกต่าง ๆ ให้เป็นการตอบสนองแบบอัตโนมัติ โดยอาศัยความชาญฉลาดที่ขับเคลื่อนด้วย AI ที่ใช้งานได้จริง
  • โครงสร้างพื้นฐาน AI ที่เป็นมาตรฐานใช้ได้กับทุกสภาพแวดล้อม: แนวทางแบบรวมศูนย์หนึ่งเดียวจะช่วยให้กำกับดูแลและบริหารจัดการสภาพแวดล้อม AI ต่าง ๆ ไ
  • ด้อย่างสอดคล้องเป็นไปในทิศทางเดียวกัน รวมถึงการปรับใช้และการปรับขนาดการทำงาน นอกจากนี้ แดชบอร์ดอัตโนมัติ ยังมอบข้อมูลเชิงลึกแบบเรียลไทม์ที่ผู้รับผิดชอบด้านไอทีสามารถนำไปใช้งานได้จริง แดชบอร์ดนี้ช่วยให้สามารถวิเคราะห์การดำเนินงานด้านไอทีและทำการตัดสินใจได้อย่างชาญฉลาดโดยอ้างอิงจากข้อมูลจริง 
  • การบังคับใช้นโยบายและการกำกับดูแล AI: ฟีเจอร์เหล่านี้ช่วยเสริมแกร่งด้านความปลอดภัยและการปฏิบัติตามข้อกำหนดต่าง ๆ ให้กับงานด้าน AI อัตโนมัติ ซึ่งช่วยให้สามารถควบคุมและคาดการณ์การทำงานได้อย่างมีประสิทธิภาพ

กลยุทธ์ AI และระบบอัตโนมัติ มีความเชื่อมโยงกันอย่างชัดเจน ผลสำรวจพบว่าการบริหารจัดการไอที (56%) และ generative AI (53%) คือความสามารถสำคัญมากสำหรับแพลตฟอร์มแบบบูรณาการใด ๆ ซึ่งเป็นการยืนยันว่าแพลตฟอร์มอัตโนมัติแบบหนึ่งเดียวไม่ได้เป็นเพียง “มีไว้ก็ดี” แต่มันเป็นพื้นฐานเชิงกลยุทธ์สำหรับการใช้แอปพลิเคชัน AI ขององค์กร ทั้งนี้แพลตฟอร์ม Red Hat Ansible Automation ของเร้ดแฮท ยังมาพร้อม Red Hat Ansible Lightspeed ซึ่งมีระบบช่วยเหลืออัจฉริยะที่ขับเคลื่อนด้วย gen AI เพื่อช่วยผู้ดูแลระบบในการติดตั้ง กำหนดค่า บำรุงรักษา และเพิ่มประสิทธิภาพให้เวิร์กโฟลว์อัตโนมัติ องค์กรควรพิจารณาลงทุนในแพลตฟอร์มที่ออกแบบมาเพื่อใช้งานในระดับองค์กรและพร้อมที่จะเร่งการเดินทางสู่โลกของการใช้ AI ได้อย่างรวดเร็วตั้งแต่วันเริ่มต้น แทนที่จะต้องใช้เวลาและทรัพยากรที่มีค่าไปกับความเสี่ยงในการสร้างโซลูชันอัตโนมัติที่กระจัดกระจายขึ้นเอง

Red Hat Expands Collaboration with NVIDIA to Pair Enterprise Open Source with Rack-Scale AI for Faster, Production-Ready Innovation

Red Hat ขยายความร่วมมือกับ NVIDIA ผสานพลังโอเพ่นซอร์สระดับองค์กร เข้ากับ Rack-Scale AI เร่งสปีดนวัตกรรมอัจฉริยะที่พร้อมใช้งานจริง

Red Hat Expands Collaboration with NVIDIA to Pair Enterprise Open Source with Rack-Scale AI for Faster, Production-Ready Innovation

  • With the goal of accelerating enterprise AI adoption, Red Hat intends to deliver a complete AI stack optimized for the NVIDIA Vera Rubin platform with Red Hat Enterprise Linux, Red Hat OpenShift and Red Hat AI

  • Red Hat Enterprise Linux for NVIDIA aims to provide a Day 0 starting point for faster-moving, customized, open source experiences for rack-scale AI workloads powered by the NVIDIA Rubin platform, backed by Red Hat’s commitment to production stability

Red Hat, the world’s leading provider of open source solutions, today announced a landmark expansion of its collaboration with NVIDIA to align enterprise open source technologies to the rapidity of enterprise AI evolution and rack-scale AI advances. As the industry moves beyond individual servers toward unified, high-density systems, Red Hat aims to deliver the starting point for this transformation with Red Hat Enterprise Linux for NVIDIA, a specialized edition of the world’s leading enterprise Linux platform that is optimized for the NVIDIA Rubin platform and tuned to drive future production on Red Hat OpenShift and Red Hat AI.

“NVIDIA’s architectural breakthroughs have made AI an imperative, proving that the computing stack will define the industry’s future,” said Matt Hicks, president and CEO, Red Hat. “To meet these tectonic shifts at launch, Red Hat and NVIDIA aim to provide Day 0 support for the latest NVIDIA architectures across Red Hat’s hybrid cloud and AI portfolios. Together, we are fueling the next generation of enterprise AI through the power of open source.”

“Red Hat revolutionized enterprise computing with industrial-strength open-source software,” said Jensen Huang, founder and CEO, NVIDIA. “In the age of AI, the entire computing stack—from chips and systems to middleware, models, and the AI lifecycle—is being reinvented from the ground up. Together, NVIDIA and Red Hat are industrializing open source to bring AI to the enterprise, starting with the Vera Rubin platform.”

Moving into 2026, many organizations are poised to move AI from experimentation into production, with top-down strategies and centralized AI toolboxes that incorporate AI agents and other advances. This shift, however, demands a stable, high-performance and more secure infrastructure stack, from the underlying architecture to the software running on top of it. The NVIDIA Rubin platform, featuring the new NVIDIA Vera CPU and advanced NVIDIA Rubin GPUs, is designed to deliver a giant leap forward in intelligence for agentic AI and advanced reasoning. With Red Hat optimizing its hybrid cloud portfolio for NVIDIA’s breakthroughs, starting with Day 0 support for this new platform, Red Hat intends to empower organizations to scale their AI initiatives more confidently, with enterprise-grade reliability and a consistent operational model across the hybrid cloud.

The backbone for gigascale AI factories

The NVIDIA Vera Rubin platform introduces transformative innovations, including the Vera CPU, the most power-efficient CPU for gigascale AI factories, the BlueField-4 data processor, as well as the NVIDIA Vera Rubin NVL72 rack-scale solution. Today, Red Hat is announcing its intention to deliver Day 0 support for the NVIDIA Rubin platform across the Red Hat AI portfolio, encompassing:

  • Red Hat Enterprise Linux serves as a bridge between this advanced hardware and the complex software ecosystems required for modern AI. As the fundamental building block for Red Hat’s robust portfolio of hybrid cloud solutions, including Red Hat OpenShift and Red Hat AI, Red Hat Enterprise Linux will introduce support for NVIDIA Confidential Computing for the entire AI lifecycle, providing enhanced security capabilities for GPUs, memory and model data while giving organizations cryptographic proof that their most sensitive AI workloads maintain extensive protections.

  • Red Hat OpenShift provides NVIDIA Rubin platform customers with ready access to the industry’s leading enterprise hybrid cloud platform powered by Kubernetes. To automate deployment, configuration and lifecycle management of accelerated computing, Red Hat OpenShift adds support for NVIDIA infrastructure software and the NVIDIA CUDA X libraries, delivering optimized performance of a wide range of accelerated workloads. Additionally, support for NVIDIA Bluefield delivers enhanced networking, advanced cluster management and improved resource utilization through a more consistent, enterprise-grade operational experience.

  • Red Hat AI, Red Hat’s production-ready enterprise AI platform, will add new integrations with NVIDIA, expanding support for distributed inference with NVIDIA’s open source models on Red Hat AI Inference Server, Red Hat Enterprise Linux AI and Red Hat OpenShift AI. This includes Red Hat and NVIDIA working to expand support beyond the NVIDIA Nemotron family to other NVIDIA open models, including those aimed at vision, robotics and vertical-specific areas.

AI innovations served by the world’s leading enterprise Linux platform at Day 0

Red Hat is introducing Red Hat Enterprise Linux for NVIDIA, a new edition of the world’s leading enterprise Linux platform that incorporates the latest NVIDIA platform advancements at launch. In collaboration with NVIDIA, Red Hat Enterprise Linux for NVIDIA will support the platform features of the latest NVIDIA architectures on Day 0 of availability, starting with the NVIDIA Rubin platform.

Red Hat Enterprise Linux for NVIDIA remains fully aligned with the main build of the operating system. As improvements from Red Hat Enterprise Linux for NVIDIA make their way into Red Hat Enterprise Linux, customers will be able to easily transition to the traditional Red Hat Enterprise Linux as their specific production demands require with the confidence that production systems will maintain expected performance levels and application compatibility. 

With this new focus, Red Hat and NVIDIA are giving customers a launch-ready, enterprise-class Linux platform that fully supports the latest breakthroughs in rack-scale AI. This includes:

  • Validated interoperability: Red Hat Enterprise Linux is a validated operating system for NVIDIA’s latest accelerators, helping to ensure that hardware and software capabilities work seamlessly to reduce deployment friction.

  • Streamlined driver management: Organizations can access validated NVIDIA GPU OpenRM drivers and the CUDA toolkit directly through Red Hat Enterprise Linux repositories, simplifying the lifecycle management of AI infrastructure.

  • Enhanced security posture: Red Hat Enterprise Linux provides a hardened foundation with features like SELinux and proactive vulnerability management, critical for protecting sensitive data in AI training and inference environments.

  • Hybrid cloud consistency: Whether on-premises, at the edge or in the public cloud, Red Hat Enterprise Linux offers a unified platform for NVIDIA accelerated computing infrastructure, reducing infrastructure silos and lowering the total cost of ownership.

  • Backed by the industry’s largest commercial open source ecosystem: Red Hat Enterprise Linux is supported across a robust ecosystem of software, hardware and cloud providers to enable greater choice and deeper capabilities across hybrid cloud environments.

Availability

Red Hat Enterprise Linux support for the NVIDIA Vera Rubin platform will coincide with its general availability in the second half of 2026. Customers will be able to access the latest drivers and integration tools through the Red Hat Customer Portal.