Five Forces Shaping APAC’s AI-Driven Future in 2026

Five Forces Shaping APAC’s AI-Driven Future in 2026

Five Forces Shaping APAC’s AI-Driven Future in 2026

Article by Supannee Amnajmongkol Thailand Country Manager, Red Hat

Organizations in Asia-Pacific are entering the new year with a sharper focus than ever before, as they shift from trying emerging technologies to transforming with them. Leaders have moved past experimentation and are now focused on how to operationalize them responsibly, at scale, and with measurable returns – embedding AI into the core of their digital platforms.

The AI era is moving toward specialization and organizations want systems that are tuned to their industries, data, and operational realities. They also want the freedom to run these workloads wherever it makes most sense: be it on-premise, in the cloud, or at the edge. This combination of specialized intelligence and architectural flexibility is what I believe will shape the defining trends of 2026.

1) AI becomes practical – and fit-for-purpose models will take center stage

If 2023 to 2025 were defined by the excitement of generative AI, 2026 will be defined by its practicality. In the last two years, we have gone from proving AI’s potential to proving its value in meeting specific business needs.

A recent IDC study found that 70% of Asia-Pacific organizations expect agentic AI to disrupt their business models within the next 18 months¹. Enterprises are beginning to realize that the future of AI lies not in models that attempt to do everything, but in specialized, right-sized, and explainable systems designed for specific industries and workflows. This shift aligns with another IDC prediction: by 2027, 40% of organizations will use custom silicon, including ARM processors or AI/ML-specific chips, to meet rising demands for performance optimization, cost efficiency, and specialized computing².

In financial services in particular, fit-for-purpose AI can help automate complex, high-volume processes such as client onboarding, transaction monitoring, and fraud analysis — areas that remain heavily manual today. For institutions under mounting regulatory and operational pressure, specialized AI systems offer a clearer path to improving accuracy, reducing cost, and strengthening risk management.

In alignment with the Thailand National AI Strategy and Action Plan (2022-2027), second phase (2024-2027), which identifies the financial sector as a key target industry for AI adoption, Thai commercial banks are increasingly leveraging AI for credit scoring. By analyzing data for retail customers and those without fixed incomes, these banks are significantly broadening financial inclusion and boosting the country’s economic potential. Additionally, the government’s Cloud First Policy and the Bank of Thailand’s (BOT) regulatory framework are pushing organizations toward cloud-native services and containerization. These tools are key to increasing data flexibility and supporting efficient AI processing.

Business leaders will need to rethink their infrastructure strategies to support more diverse and demanding AI workloads. We will see growing interest in unified inference layers that can support a wide range of AI models without compromising performance and cost efficiency. At the same time, there is strong momentum around connecting enterprise application platforms with cloud-based AI accelerators, giving organizations a more seamless way to operationalize AI at scale. By pairing flexible platforms with specialized computing, enterprises can accelerate the shift from pilots to producing measurable business impact.

2) Virtualization evolves to meet the demands of AI-era workloads

AI is reshaping how enterprises think about infrastructure. Traditional virtualization approaches, built for predictable and uniform workloads, are now being stretched by the needs of modern AI — which demand higher performance, lower latency, and far more flexibility.

In 2026, enterprises will increasingly adopt virtualization strategies that bring together virtual machines, containers, and specialized compute under a single operational model. This helps platform teams modernize at their own pace while supporting both existing applications and new AI-driven workloads. The result is an infrastructure foundation that is flexible enough to run traditional applications and intelligent systems side by side — without sacrificing governance or control.

3) Hybrid cloud becomes the default architecture for modern AI

As AI models increasingly rely on real-time data, distributed systems, and specialized computing resources, enterprises need architectures that allow them to run workloads as close to their data as possible, while still maintaining scalability and resilience.

The demands of AI require the hybrid cloud. And in 2026, hybrid cloud will solidify its position as the standard operating model for intelligent enterprise systems.

Organizations will prioritize platforms that help them maintain control over sensitive workloads on-premises, scale using public cloud capabilities, and bring intelligence closer to where data is generated at the edge.

For financial institutions, the hybrid cloud model is especially critical. Sensitive and regulated workloads must remain on-premises, while AI-driven analytics often require the elasticity and specialized compute of public cloud environments. This balance is becoming foundational for FSI firms modernizing their risk, compliance, and customer systems.

This reflects a broader industry truth: there will not be one place where AI runs. Enterprises that design environments capable of running AI anywhere will be best positioned to capture its value.

4) Governance frameworks reshape digital strategy across APAC

As AI adoption accelerates, governance will become one of the most defining forces shaping digital strategy in Asia-Pacific. Stronger governance frameworks will influence how AI is adopted across the region. Organizations want systems with greater security, transparency, and alignment with local regulations — and increasingly expect their technology platforms to support these requirements across hybrid and multi-cloud environments.

Southeast Asia is striving to balance innovation and regulation. Similarly, Thai authorities are promoting ethical AI use to minimize risks. Key to this effort is the ETDA’s AI Governance Center (AIGC), which provides guidelines for the private and financial sectors. This framework ensures compliance with local laws like the PDPA and meets international best practices in technical, legal, and practical applications.

Financial services will play an outsized role in shaping these standards. With stringent requirements around auditability, traceability, and model behavior, FSI organizations are already setting the benchmark for responsible AI adoption — creating patterns that other industries are likely to follow.

These guardrails are not slowing innovation — they are enabling it. In 2026, enterprises will increasingly prioritize AI systems that can be audited, monitored, and governed across hybrid environments, ensuring that decisions remain traceable and models behave as expected. This governance shift will also influence architectural choices, vendor selection, and skill priorities. Enterprises will seek open, trustworthy solutions that allow them to examine how models are built, how data is used, and how decisions are made. In regulated industries like financial services, these capabilities will become non-negotiable.

5) Skills, communities, and collaboration become the real accelerators

No transformation happens without people. The demand for cloud-native, AI, and cybersecurity talent continues to outpace supply across Asia-Pacific, and in 2026, the gap will only widen unless organizations invest in a skills-first approach to build, operate, and optimize modern digital systems.

Thailand aims to develop at least 30,000 AI professionals by 2027 through AI reskilling and upskilling initiatives designed to bridge the digital talent gap. One of the examples is the public-private partnership between MDES and MHESI, which established the GDCC AI Marketplace. Serving as a central hub for accessible AI tools and services for the Thai people, the marketplace has launched various applications, including AI, security, and data analytics platforms, etc.

Open source communities will play a central role in this shift. They provide shared knowledge, transparency, and a global ecosystem rooted in collaboration. Tools and frameworks are also made available to everyone, instead of just a few. As more enterprises contribute back to these communities – by building on ideas quickly and responsibly – Asia-Pacific will strengthen its position in digital innovation, not just as a consumer but increasingly as a creator.

Thailand itself as well has developed over twenty homegrown AI solutions. These range from comprehensive AI services and Thai-language robotics to AI Energy platforms, DevOps services, and specialized AI applications for agriculture and precision medical imaging.

The right model, in the right environment, on the right architecture will define the next era of enterprise AI. The success of agentic AI will hinge not only on powerful models, but on the infrastructure, governance, and skills that support them. In 2026, openness, flexibility, and collaboration will remain the principles that help organizations move from potential to real, measurable outcomes. With no single model suited to every enterprise context, open source will continue to underpin the freedom and innovation needed to build what comes next.

5 พลังพลิกโฉม AI ในเอเชียแปซิฟิกปี 2026

5 พลังพลิกโฉม AI ในเอเชียแปซิฟิกปี 2026

5 พลังพลิกโฉม AI ในเอเชียแปซิฟิกปี 2026

สุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท
บทความโดย สุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท

เทคโนโลยีเกิดใหม่ต่าง ๆ สู่การนำมาประยุกต์ใช้เพื่อปฏิรูปองค์กรอย่างเต็มรูปแบบ ผู้นำในปัจจุบันไม่ได้หยุดอยู่เพียงขั้นการทดลอง แต่กำลังมุ่งเน้นว่าจะนำเทคโนโลยีมาใช้งานจริงอย่างมีประสิทธิภาพและรับผิดชอบได้อย่างไร เพื่อให้เกิดผลตอบแทนที่วัดผลได้ในระดับโครงสร้าง พร้อมทั้งผนวก AI เข้าเป็นแกนหลักของแพลตฟอร์มดิจิทัล

ยุคของ AI กำลังเปลี่ยนผ่านสู่ความชำนาญเฉพาะด้าน องค์กรต่างต้องการระบบที่ได้รับการปรับแต่งให้เข้ากับบริบทของอุตสาหกรรม ข้อมูล และรูปแบบการดำเนินงานจริงของตนเอง ที่มาพร้อมอิสระในการรันเวิร์กโหลดเหล่านี้ได้ทุกที่บนสภาพแวดล้อมที่เหมาะสมที่สุด ไม่ว่าจะเป็นภายในศูนย์ข้อมูลของตนเอง (on-premise), บนคลาวด์ หรือที่ edge เร้ดแฮทเชื่อว่าการผสานรวมระหว่างความชาญฉลาดที่เฉพาะเจาะจง และ ความยืดหยุ่นในการเลือกใช้สถาปัตยกรรม คือเทรนด์สำคัญที่จะกำหนดทิศทางเทคโนโลยีในปี 2026

  • AI เข้าสู่ยุคการใช้งานจริง: โมเดลที่ออกแบบมาเพื่อวัตถุประสงค์เฉพาะด้านจะมีบทบาทสำคัญ

หากช่วงปี 2023 ถึง 2025 คือยุคแห่งความตื่นเต้นในศักยภาพของ generative AI ปี 2026 ก็จะเป็นปีที่มุ่งเน้นผลลัพธ์จากการใช้งานจริง เราได้ข้ามผ่านขั้นตอนการพิสูจน์ว่า AI มีศักยภาพอะไรบ้างในช่วงสองปีที่ผ่านมา มาสู่การพิสูจน์ให้เห็นคุณค่าของ AI ที่สามารถตอบโจทย์ความต้องการเฉพาะด้านของธุรกิจ

ผลการศึกษาล่าสุดจาก IDC พบว่า 70% ขององค์กรในเอเชียแปซิฟิก คาดการณ์ว่า agentic AI จะเข้ามาพลิกโฉมโมเดลธุรกิจของตนภายใน 18 เดือนข้างหน้า1 องค์กรธุรกิจเริ่มตระหนักว่าอนาคตของ AI ไม่ใช่การใช้โมเดลเดียวที่ทำได้ครอบจักรวาล แต่คือระบบ AI ที่มีความเฉพาะทาง มีขนาดพอเหมาะกับงาน สามารถอธิบายที่มาที่ไปได้ และออกแบบมาอย่างเฉพาะเจาะจงสำหรับอุตสาหกรรมและเวิร์กโฟลว์ต่าง ๆ ที่แตกต่างกัน การเปลี่ยนแปลงนี้สอดคล้องกับอีกหนึ่งการคาดการณ์ของ IDC ที่ว่า ภายในปี 2027 องค์กร 40% จะหันไปใช้ชิปสั่งทำพิเศษที่มีประสิทธิภาพเฉพาะทาง (custom silicon) เช่น หน่วยประมวลผล ARM หรือชิปเฉพาะทางสำหรับ AI/ML เพื่อตอบสนองการเพิ่มขึ้นของความต้องการด้านการเพิ่มประสิทธิภาพการทำงานสูงสุด ความคุ้มค่าด้านต้นทุน และการประมวลผลเฉพาะด้าน2

โดยเฉพาะอย่างยิ่งในภาคการเงิน การใช้ AI ที่ออกแบบมาเพื่อวัตถุประสงค์เฉพาะด้าน (fit-for-purpose AI) สามารถเปลี่ยนกระบวนการที่ซับซ้อนและมีปริมาณมหาศาลให้เป็นอัตโนมัติ เช่น ขั้นตอนการรับลูกค้าใหม่ (client onboarding) การตรวจสอบรายการธุรกรรม และการวิเคราะห์การทุจริต ซึ่งงานเหล่านี้ยังคงต้องใช้บุคลากรทำด้วยตัวเองเป็นส่วนใหญ่ ระบบ AI เฉพาะทางเหล่านี้จะช่วยปูทางไปสู่การเพิ่มความแม่นยำ ลดต้นทุน และยกระดับการบริหารจัดการความเสี่ยงให้แข็งแกร่งกว่าเดิม ให้กับสถาบันการเงินที่ต้องเผชิญกับแรงกดดันด้านกฎระเบียบและการปฏิบัติงานที่เพิ่มสูงขึ้น

ซึ่งสอดคล้องกับแผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติเพื่อการพัฒนาประเทศไทย (พ.ศ. 2565-2570) ระยะที่สอง (พ.ศ. 2567-2570) ที่รัฐบาลได้จัดให้ภาคการเงินเป็นหนึ่งในเจ็ดอุตสาหกรรมเป้าหมายที่ต้องเร่งนำ AI มาใช้ เพื่อเพิ่มศักยภาพทางเศรษฐกิจ ธนาคารพาณิชย์ในไทยเริ่มใช้ AI ในการวิเคราะห์ข้อมูลเพื่อการปล่อยสินเชื่อ สำหรับกลุ่มลูกค้ารายย่อยและกลุ่มที่ไม่มีรายได้ประจำ ซึ่งช่วยให้การเข้าถึงบริการทางการเงินกว้างขวางขึ้น นอกจากนี้นโยบาย Cloud First Policy ของภาครัฐและเกณฑ์การกำกับดูแลของธนาคารแห่งประเทศไทย (ธปท.) กำลังผลักดันให้องค์กรหันมาใช้ cloud-native services และ containerization เพื่อเพิ่มความยืดหยุ่นในการจัดการข้อมูลและรองรับการประมวลผล AI อย่างมีประสิทธิภาพ

ผู้นำธุรกิจจึงจำเป็นต้องทบทวนกลยุทธ์ด้านโครงสร้างพื้นฐาน เพื่อให้สามารถรองรับเวิร์กโหลด AI ที่มีความหลากหลายและซับซ้อนมากขึ้น เราจะเห็นความต้องการที่เพิ่มสูงขึ้นในเรื่องของเลเยอร์การอนุมาน AI แบบรวมศูนย์ต่าง ๆ (unified inference layers) ที่สามารถรองรับโมเดล AI ได้หลากหลาย โดยไม่ส่งผลกระทบต่อประสิทธิภาพและความคุ้มค่าด้านต้นทุน ในเวลาเดียวกันนี้ เราจะได้เห็นแรงขับเคลื่อนที่สำคัญในการเชื่อมโยงแพลตฟอร์มแอปพลิเคชันขององค์กรเข้ากับเทคโนโลยีเร่งความเร็ว AI บนคลาวด์ (cloud-based AI accelerators) ซึ่งช่วยให้องค์กรสามารถนำ AI มาใช้งานจริงในวงกว้างได้อย่างราบรื่น การจับคู่ระหว่างแพลตฟอร์มที่มีความยืดหยุ่นเข้ากับการประมวลผลเฉพาะทางจะช่วยให้องค์กรเปลี่ยนผ่านจากการทดลองใช้ AI ไปสู่การใช้งานจริงที่สร้างผลลัพธ์ทางธุรกิจที่วัดผลได้ ได้รวดเร็วยิ่งขึ้น

  • การปรับตัวของเวอร์ชวลไลเซชัน เพื่อให้สามารถรองรับเวิร์กโหลดยุค AI

AI กำลังเข้ามาปรับเปลี่ยนแนวคิดเรื่องโครงสร้างพื้นฐานขององค์กรไปอย่างสิ้นเชิง แนวทางการใช้เวอร์ชวลไลเซชันแบบเดิมที่สร้างมาเพื่อรองรับเวิร์กโหลดที่คาดการณ์ได้และมีรูปแบบตายตัว กำลังถูกท้าทายด้วยความต้องการของ AI ที่ทันสมัย ซึ่งจำเป็นต้องใช้ประสิทธิภาพที่สูงขึ้น มีระยะเวลาตอบสนองของระบบ (latency) ที่ต่ำลง และต้องการความยืดหยุ่นที่มากกว่าเดิมอย่างมหาศาล

ในปี 2026 องค์กรจะหันมาใช้กลยุทธ์เวอร์ชวลไลเซชันที่รวมเอาทั้งเวอร์ชวลแมชชีน คอนเทนเนอร์ และการประมวลผลเฉพาะทางเข้ามาอยู่ภายใต้โมเดลการทำงานเดียวกันมากขึ้น ซึ่งจะช่วยทีมงานที่ดูแลแพลตฟอร์มสามารถปรับปรุงระบบให้ทันสมัยได้ตามความต้องการของตน ในขณะที่ยังสามารถรองรับได้ทั้งแอปพลิเคชันเดิมและเวิร์กโหลด AI ใหม่ ๆ ผลลัพธ์ที่ได้คือโครงสร้างพื้นฐานที่มีความยืดหยุ่นเพียงพอที่จะใช้งานแอปพลิเคชันแบบดั้งเดิมและระบบอัจฉริยะควบคู่กันไปได้ โดยไม่ลดทอนการกำกับดูแลหรือการควบคุม

  • ไฮบริดคลาวด์กำลังกลายเป็นสถาปัตยกรรมมาตรฐานที่สามารถรองรับ AI ที่ทันสมัย

การที่โมเดล AI ต้องพึ่งพาข้อมูลแบบเรียลไทม์ ระบบประมวลผลแบบกระจายตัว และทรัพยากรการประมวลผลเฉพาะทางมากขึ้นเรื่อย ๆ ทำให้องค์กรจำเป็นต้องใช้สถาปัตยกรรมที่ช่วยให้สามารถรันเวิร์กโหลดได้ใกล้กับแหล่งที่มาของข้อมูลของตนให้ได้มากที่สุดเท่าที่จะเป็นไปได้ ในขณะที่ยังคงความสามารถในการขยายขนาดการทำงาน และความสามารถในการฟื้นฟูระบบได้อย่างแข็งแกร่ง และดำเนินธุรกิจได้อย่างต่อเนื่อง

ความต้องการที่ซับซ้อนของ AI จำเป็นต้องใช้ไฮบริดคลาวด์ ในปี 2026 ไฮบริดคลาวด์จะตอกย้ำสถานะการเป็นโมเดลมาตรฐานให้กับระบบอัจฉริยะต่าง ๆ ขององค์กร องค์กรต่างๆ จะให้ความสำคัญกับแพลตฟอร์มที่ช่วยให้พวกเขายังคงสิทธิ์ในการควบคุมเวิร์กโหลดที่อ่อนไหวภายไว้ภายในองค์กรของตน (on-premises) ในขณะเดียวกันก็สามารถขยายขีดความสามารถได้อย่างรวดเร็วผ่านพับลิคคลาวด์ และสามารถส่งต่อความฉลาดของระบบไปใกล้จุดกำเนิดของข้อมูลที่ edge ได้อย่างมีประสิทธิภาพ

ไฮบริดคลาวด์คือคำตอบที่ลงตัวที่สุดสำหรับองค์กรในภาคการเงิน เนื่องจากเวิร์กโหลดที่ต้องอยู่ภายใต้การกำกับดูแลและมีความอ่อนไหวสูงจำเป็นต้องได้รับการจัดเก็บไว้ภายในองค์กร ในขณะที่การวิเคราะห์ข้อมูลด้วย AI มักต้องการความยืดหยุ่นและพลังประมวลผลเฉพาะทางบนพับลิคคลาวด์ การรักษาสมดุลนี้กำลังกลายเป็นพื้นฐานที่สถาบันการเงินต้องมี เพื่อยกระดับระบบบริหารจัดการความเสี่ยง การปฏิบัติตามกฎระเบียบ และปรับปรุงระบบดูแลลูกค้าให้ทันสมัยยิ่งขึ้น

เรื่องนี้สะท้อนถึงความจริงที่สำคัญของอุตสาหกรรมว่า AI จะไม่ได้ถูกจำกัดให้รันอยู่แค่ที่ใดที่หนึ่ง ดังนั้น องค์กรที่สามารถออกแบบสภาพแวดล้อมให้รองรับการรัน AI ได้จากทุกสภาพแวดล้อม คือ ผู้ที่อยู่ในจุดที่ได้เปรียบที่สุดในการคว้าโอกาสและสร้างมูลค่าจาก AI ได้อย่างเต็มประสิทธิภาพ

  • กรอบการกำกับดูแลพลิกโฉมกลยุทธ์ดิจิทัลทั่วเอเชียแปซิฟิก

เมื่อมีการนำ AI มาใช้เพิ่มขึ้นอย่างรวดเร็ว การกำกับดูแลกลายเป็นหนึ่งในแรงขับเคลื่อนสำคัญที่สุดในการกำหนดทิศทางกลยุทธ์ดิจิทัลในภูมิภาคเอเชียแปซิฟิก กรอบการกำกับดูแลที่แข็งแกร่งมากขึ้นจะมีอิทธิพลต่อรูปแบบการนำ AI มาใช้ ทั้งนี้ องค์กรต่างต้องการระบบที่มีความปลอดภัยสูง โปร่งใส และสอดคล้องกับกฎระเบียบในท้องถิ่น อีกทั้งยังคาดหวังเพิ่มขึ้นว่าแพลตฟอร์มเทคโนโลยีที่ตนเลือกใช้จะสามารถรองรับข้อกำหนดเหล่านี้ได้ ทั้งในสภาพแวดล้อมแบบไฮบริดคลาวด์และมัลติคลาวด์

ภูมิภาคเอเชียตะวันออกเฉียงใต้กำลังสร้างกรอบการกำกับดูแลที่สร้างสมดุลระหว่างนวัตกรรมและการปฏิบัติตามกฎระเบียบ หน่วยงานภาครัฐของไทยให้ความสำคัญในการส่งเสริมให้ทุกภาคส่วนเกิดการประยุกต์ใช้ AI อย่างมีจริยธรรม เหมาะสม ลดความเสี่ยงที่อาจจะเกิดขึ้น โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ผ่านศูนย์ AI Governance Center (AIGC) ได้จัดทำแนวทางปฏิบัติสำหรับการใช้ AI อย่างมีธรรมาภิบาล เพื่อเป็นมาตรฐานให้ภาคเอกชนและกลุ่มการเงินนำไปปรับใช้ให้สอดคล้องกับกฎหมายท้องถิ่น เช่น PDPA หรือแม้แต่แนวทางสากลต่าง ๆ ทั้งในแง่เทคนิค กฎหมาย และการนำไปใช้งานจริง

บริการทางการเงินต่าง ๆ จะมีบทบาทสำคัญมากในการกำหนดมาตรฐานเหล่านี้ ข้อกำหนดที่เข้มงวดในด้านที่ต้องสามารถตรวจสอบได้ (auditability) สามารถติดตามย้อนกลับได้ (traceability) และพฤติกรรมของโมเดล ทำให้องค์กรในธุรกิจการเงินกลายเป็นผู้กำหนดบรรทัดฐานของการนำ AI มาใช้อย่างมีความรับผิดชอบ ซึ่งเป็นการสร้างต้นแบบที่องค์กรในอุตสาหกรรมอื่น ๆ มีแนวโน้มที่จะปฏิบัติตาม

กฎระเบียบหรือข้อกำหนดเหล่านี้ไม่ได้ทำให้การสร้างสรรค์นวัตกรรมล่าช้าลง แต่กลับเป็นตัวช่วยส่งเสริมนวัตกรรม ในปี 2026 องค์กรจะให้ความสำคัญมากขึ้นกับระบบ AI ที่สามารถตรวจสอบ ติดตาม และกำกับดูแลได้บนสภาพแวดล้อมไฮบริด เพื่อให้มั่นใจว่าการตัดสินใจทุกครั้งจะสามารถตรวจสอบย้อนกลับได้ และโมเดลทำงานได้อย่างถูกต้องตามที่คาดหวัง การเปลี่ยนแปลงด้านการกำกับดูแลนี้จะส่งผลต่อการตัดสินใจเลือกสถาปัตยกรรมทางเทคโนโลยีและผู้ให้บริการ รวมถึงลำดับความสำคัญด้านทักษะ องค์กรจะมองหาโซลูชันที่เป็นระบบเปิดและน่าเชื่อถือที่องค์กรสามารถตรวจสอบวิธีการสร้างโมเดล การใช้ข้อมูล และที่มาของการตัดสินใจได้ ความสามารถเหล่านี้จะกลายเป็นข้อกำหนดพื้นฐานที่ขาดไม่ได้สำหรับอุตสาหกรรมที่มีกฎระเบียบเข้มงวด เช่น บริการทางการเงิน

5) ทักษะ คอมมิวนิตี้ และความร่วมมือ คือตัวเร่งนวัตกรรมที่แท้จริง

ไม่มีการเปลี่ยนแปลงใดเกิดขึ้นได้หากปราศจากคน ความต้องการบุคลากรที่มีทักษะด้าน cloud-native, AI และความปลอดภัยทางไซเบอร์ ยังคงมีมากกว่าจำนวนบุคลากรที่มีอยู่ในตลาดทั่วภูมิภาคเอเชียแปซิฟิก และในปี 2026 ช่องว่างนี้จะยิ่งขยายกว้างขึ้น เว้นแต่ว่าองค์กรจะเริ่มลงทุนในแนวทางที่เน้นทักษะเป็นหลัก (skills-first approach) เพื่อสร้าง ดำเนินงาน และเพิ่มประสิทธิภาพระบบดิจิทัลที่ทันสมัย

ประเทศไทยมุ่งเน้นการสร้างคนผ่านโครงการ AI Reskill/Upskill โดยตั้งเป้าพัฒนาบุคลากรด้าน AI ให้ได้อย่างน้อย 30,000 คน ภายในปี 2570 เพื่อลดช่องว่างการขาดแคลนทักษะดิจิทัล มีความร่วมมือระหว่างภาครัฐ (DE และ MHESI) และเอกชนในการสร้าง GDCC AI Marketplace เพื่อเป็นศูนย์กลางเครื่องมือและบริการ AI ที่คนไทยเข้าถึงได้ง่าย โดยได้เปิดตัวแอปพลิเคชันต่าง ๆ เช่น AI platform, security platform, data analytic platform เป็นต้น

ชุมชนโอเพ่นซอร์ส หรือ โอเพ่นซอร์สคอมมิวนิตี้ จะเป็นหัวใจสำคัญของการเปลี่ยนแปลงนี้ ชุมชนโอเพ่นซอร์สต่าง ๆ เป็นแหล่งรวมการแบ่งปันความรู้ ความโปร่งใส และเป็นระบบนิเวศระดับโลกที่หยั่งรากอยู่บนการทำงานร่วมกันอย่างแท้จริง เครื่องมือและกรอบการทำงานต่าง ๆ เปิดกว้างให้ทุกคนสามารถเข้าถึงได้ แทนที่จะจำกัดอยู่เพียงคนบางกลุ่ม และเมื่อองค์กรต่าง ๆ เข้ามามีส่วนร่วมในการแบ่งปันไอเดียกลับสู่คอมมิวนิตี้เหล่านี้ รวมถึงการต่อยอดไอเดียเหล่านี้อย่างรวดเร็วและมีความรับผิดชอบ จะส่งให้ภูมิภาคเอเชียแปซิฟิกมีความแข็งแกร่งยิ่งขึ้นในด้านนวัตกรรมดิจิทัล และไม่ได้เป็นเพียงผู้ใช้เทคโนโลยีอีกต่อไป แต่จะก้าวสู่การเป็นผู้สร้างนวัตกรรมทางเทคโนโลยี

ประเทศไทยเองก็ได้มีการพัฒนา AI สัญชาติไทยกว่ายี่สิบรายการ ทั้งด้านการให้บริการ AI ครบวงจร, แพลตฟอร์ม บริการ AI และระบบสื่อสารหุ่นยนต์ภาษาไทย, แพลตฟอร์มด้านพลังงานที่ใช้, บริการ DevOps as a Service และ Linux System Admin, และแอปพลิเคชัน AI เฉพาะทางสำหรับการเกษตรและการวินิจฉัยภาพทางการแพทย์ที่แม่นยำ เป็นต้น

อนาคตของ AI องค์กรในยุคหน้า จะถูกกำหนดโดยโมเดลที่ใช่ ในสภาพแวดล้อมที่เหมาะสม และอยู่บนสถาปัตยกรรมที่ถูกต้อง การใช้ agentic AI ได้อย่างประสบความสำเร็จนั้นไม่ได้ขึ้นอยู่กับโมเดลที่ทรงพลังเพียงอย่างเดียว แต่ต้องมีโครงสร้างพื้นฐาน การกำกับดูแล และทักษะ ที่คอยเป็นฐานสนับสนุนอยู่ด้วย ในปี 2026 ความเป็นระบบเปิด ความยืดหยุ่น และความร่วมมือ จะยังคงเป็นหลักการสำคัญที่ช่วยให้องค์กรเปลี่ยนผ่านจากศักยภาพที่เป็นไปได้ ไปสู่ ผลลัพธ์ทางธุรกิจที่วัดผลได้จริง โอเพ่นซอร์สจะยังคงเป็นรากฐานสำคัญที่มอบอิสระและนวัตกรรมที่จำเป็นต่อการสร้างสรรค์สิ่งใหม่ที่จะเกิดขึ้นในอนาคต เพราะไม่มีโมเดลเดียวที่สามารถตอบโจทย์ได้ทุกบริบทของธุรกิจ

 

Red Hat to Deliver Enhanced AI Inference Across AWS

CIMB Thai Bank และ KBTG สององค์กรไทย ได้รับรางวัล APAC Innovation Awards ประจำปี 2565 จาก Red Hat

Red Hat to Deliver Enhanced AI Inference Across AWS

Red Hat AI on AWS Trainium and Inferentia AI chips to provide customers with greater choice, flexibility and efficiency for production AI workloads

Red Hat, the world’s leading provider of open source solutions, today announced an expanded collaboration with Amazon Web Services (AWS) to power enterprise-grade generative AI (gen AI) on AWS with Red Hat AI and AWS AI silicon. With this collaboration, Red Hat focuses on empowering IT decision-makers with the flexibility to run high-performance, efficient AI inference at scale, regardless of the underlying hardware.

The rise of gen AI and subsequent need for scalable inference is pushing organizations to reevaluate their IT infrastructure. As a result, IDC predicts that “by 2027, 40% of organizations will use custom silicon, including ARM processors or AI/ML-specific chips, to meet rising demands for performance optimization, cost efficiency, and specialized computing.”[1] This underscores the need for optimized solutions that can improve processing power, minimize costs and enable faster innovation cycles for high-performance AI applications.

Red Hat’s collaboration with AWS empowers organizations with a full-stack gen AI strategy by bringing together Red Hat’s comprehensive platform capabilities with AWS cloud infrastructure and AI chipsets, AWS Inferentia2 and AWS Trainium3. Key aspects of the collaboration include: 

  • Red Hat AI Inference Server on AWS AI chips: Red Hat AI Inference Server, powered by vLLM, will be enabled to run with AWS AI chips, including AWS Inferentia2 and AWS Trainium3, to deliver a common inference layer that can support any gen AI model, helping customers achieve higher performance, lower latency and cost-effectiveness for scaling production AI deployments, delivering up to 30-40% better price performance than current comparable GPU-based Amazon EC2 instances.
  • Ease of access and deployment: By supporting AWS AI chips, Red Hat will offer enhanced and easier access to high-demand, high-capacity accelerators for Red Hat customers on AWS. In addition, Red Hat recently released the amazon.ai Certified Ansible Collection for Red Hat Ansible Automation Platform to enable orchestrating AI services on AWS.
  • Upstream community contribution: Red Hat and AWS are collaborating to optimize an AWS AI chip plugin up-streamed to vLLM. As the top commercial contributor to vLLM, Red Hat is committed to enabling vLLM on AWS to help accelerate AI inference and training capabilities for users. vLLM is also the foundation of llm-d, an open source project focused on delivering inference at scale and now available as a commercially supported feature in Red Hat OpenShift AI 3

Red Hat has a long history of collaboration with AWS to enable customers from the datacenter to the edge. This latest milestone now aims to address the evolving needs of organizations as they integrate AI into their hybrid cloud strategies to achieve optimized, efficient gen AI outcomes.

Availability

The AWS Neuron community operator is now available in the Red Hat OpenShift OperatorHub for customers using Red Hat OpenShift or Red Hat OpenShift Service on AWS. Red Hat AI Inference Server support for AWS AI chips is expected to be available in developer preview in January 2026. 

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“By enabling our enterprise-grade Red Hat AI Inference Server, built on the innovative vLLM framework, with AWS AI chips, we’re empowering organizations to deploy and scale AI workloads with enhanced efficiency and flexibility. Building on Red Hat’s open source heritage, this collaboration aims to make generative AI more accessible and cost-effective across hybrid cloud environments.”

Colin Brace, vice president, Annapurna Labs, AWS

“Enterprises demand solutions that deliver exceptional performance, cost efficiency, and operational choice for mission-critical AI workloads. AWS designed its Trainium and Inferentia chips to make high-performance AI inference and training more accessible and cost-effective. Our collaboration with Red Hat provides customers with a supported path to deploying generative AI at scale, combining the flexibility of open source with AWS infrastructure and purpose-built AI accelerators to accelerate time-to-value from pilot to production.”

Jean-François Gamache, chief information officer and vice president, Digital Services, CAE

“Modernizing our critical applications with Red Hat OpenShift Service on AWS marks a significant milestone in our digital transformation. This platform supports our developers in focusing on high-value initiatives – driving product innovation and accelerating AI integration across our solutions. Red Hat OpenShift provides the flexibility and scalability that enable us to deliver real impact, from actionable insights through live virtual coaching to significantly reducing cycle times for user-reported issues.” 

Anurag Agrawal, founder and chief global analyst, Techaisle

“As AI inference costs escalate, enterprises are prioritizing efficiency alongside performance. This collaboration exemplifies Red Hat’s ‘any model, any hardware’ strategy by combining its open hybrid cloud platform with the distinct economic advantages of AWS Trainium and Inferentia. It empowers CIOs to operationalize generative AI at scale, shifting from cost-intensive experimentation to sustainable, governed production.”

Additional Resources

Connect with Red Hat

 

Red Hat ยกระดับประสิทธิภาพ AI Inference บน AWS

CIMB Thai Bank และ KBTG สององค์กรไทย ได้รับรางวัล APAC Innovation Awards ประจำปี 2565 จาก Red Hat

Red Hat ยกระดับประสิทธิภาพ AI Inference บน AWS

Red Hat AI ทำงานร่วมกับ Trainium และ Inferentia ซึ่งเป็น AI chips ของ AWS มอบทางเลือก ความยืดหยุ่น และประสิทธิภาพที่เหนือกว่า ให้กับเวิร์กโหลด AI ที่นำไปใช้งานจริง

เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศขยายความร่วมมือกับ Amazon Web Services (AWS) เพื่อขับเคลื่อน Generative AI (Gen AI) ระดับองค์กรบน AWS ด้วย Red Hat AI และชิป AWS AI ความร่วมมือนี้ Red Hat มุ่งเน้นการเพิ่มศักยภาพให้ผู้มีอำนาจตัดสินใจด้านไอที ให้มีความยืดหยุ่นในการรัน AI inference ประสิทธิภาพสูงที่ปรับขนาดการทำงานได้มากโดยไม่ต้องกังวลถึงข้อจำกัดของฮาร์ดแวร์พื้นฐานที่ใช้อยู่ 

การเติบโตของ gen AI และความต้องการเรื่องของการอนุมานที่ปรับขนาดได้ตามการใช้งานจริง (scalable inference) กำลังผลักดันให้องค์กรต่าง ๆ ต้องประเมินโครงสร้างพื้นฐานไอทีของตนใหม่อีกครั้ง ทั้งนี้ IDC ได้คาดการณ์ว่า “ภายในปี พ.ศ. 2570 องค์กร 40% จะหันมาใช้ชิปที่ออกแบบมาเฉพาะทาง รวมถึงโปรเซสเซอร์ ARM หรือชิปที่สร้างขึ้นเฉพาะสำหรับ AI/ML เพื่อตอบสนองต่อความต้องการด้านการเพิ่มประสิทธิภาพ ความคุ้มค่า และการประมวลผลเฉพาะทาง ที่มีความต้องการเพิ่มมากขึ้น” นับเป็นการชี้ให้เห็นถึงความจำเป็นของโซลูชันที่ได้รับการปรับแต่งอย่างเหมาะสม ซึ่งสามารถเพิ่มพลังการประมวลผล ลดต้นทุน และช่วยให้ไลฟ์ไซเคิลของการสร้างนวัตกรรมสำหรับแอปพลิเคชัน AI ประสิทธิภาพสูงทำได้รวดเร็วขึ้น 

ความร่วมมือของ Red Hat กับ AWS ช่วยเสริมศักยภาพให้องค์กรสามารถวางกลยุทธ์ gen AI ได้แบบ full-stack โดยการผสานรวมความสามารถด้านแพลตฟอร์มที่ครอบคลุมของ Red Hat เข้ากับโครงสร้างพื้นฐานคลาวด์และ AI chipsets ของ AWS ได้แก่ AWS Inferentia2 และ AWS Trainium3 ประเด็นสำคัญของความร่วมมือนี้ประกอบด้วย:

  • Red Hat AI Inference Server on AWS AI chips: Red Hat AI Inference Server ที่ขับเคลื่อนด้วย vLLM จะรองรับการทำงานร่วมกับ AI chips ของ AWS ได้แก่ AWS Inferentia2 และ AWS Trainium3 เพื่อมอบเลเยอร์การอนุมานมาตรฐานที่สามารถรองรับโมเดล gen AI ได้ทุกรูปแบบ ช่วยให้ลูกค้าได้รับประสิทธิภาพที่สูงขึ้น ลดระยะเวลาในการตอบสนอง และเพิ่มความคุ้มค่าในการขยายการนำ AI ไปใช้งานจริง โดยให้ประสิทธิภาพต่อราคา (price performance) ดีกว่า Amazon EC2 instances รูปแบบปัจจุบันที่ใช้ GPU ซึ่งมีคุณสมบัติใกล้เคียงกัน สูงถึง 30-40%
  • ใช้งาน AI on Red Hat OpenShift: Red Hat ได้ทำงานร่วมกับ AWS เพื่อพัฒนา AWS Neuron operator สำหรับ Red Hat OpenShiftRed Hat OpenShift AI และ Red Hat OpenShift Service on AWS ซึ่งเป็นแพลตฟอร์มแอปพลิเคชันแบบครบวงจรและมีการจัดการเต็มรูปแบบบน AWS มอบเส้นทางที่ราบรื่นและได้รับการสนับสนุนอย่างเป็นทางการในการรันเวิร์กโหลดด้าน AI ด้วย AWS accelerators
  • เข้าถึงและปรับใช้ได้ง่ายขึ้น: การรองรับ AI chips ของ AWS ช่วยให้ลูกค้า Red Hat on AWS สามารเข้าถึงอุปกรณ์เร่งความเร็ว (accelerators) ประสิทธิภาพสูง และรองรับปริมาณงานมากได้สะดวกยิ่งขึ้น นอกจากนี้ Red Hat ได้เปิดตัว amazon.ai Certified Ansible Collection สำหรับ Red Hat Ansible Automation Platform เพื่อช่วยประสานการทำงานของบริการ AI บน AWS 
  • การมีส่วนร่วมสนับสนุนชุมชนต้นน้ำ (upstream community): Red Hat และ AWS กำลังร่วมกันเพิ่มประสิทธิภาพให้กับปลั้กอิน AI chip ของ AWS ซึ่งได้ถูกส่งกลับไปยัง vLLM และในฐานะที่ Red Hat เป็นผู้มีส่วนร่วมสนับสนุนในเชิงพาณิชย์รายสำคัญให้กับ vLLM เร้ดแฮทจึงมุ่งมั่นที่จะทำให้ vLLM ทำงานบน AWS เพื่อช่วยเร่งศักยภาพด้านการอนุมานและการเทรน AI นอกจากนี้ vLLM ยังเป็นรากฐานของ llm-d ซึ่งเป็นโปรเจกต์โอเพ่นซอร์สที่เน้นการให้บริการด้านการอนุมานในระดับสเกลใหญ่ ที่ปัจจุบันเปิดให้ใช้งานเป็นฟีเจอร์เชิงพาณิชย์บน Red Hat OpenShift AI 3 แล้ว

Red Hat มีประวัติความร่วมมืออันยาวนานกับ AWS เพื่อช่วยเสริมศักยภาพลูกค้า ตั้งแต่ดาต้าเซ็นเตอร์ไปจนถึงเอดจ์ ความร่วมมือล่าสุดนี้มีเป้าหมายเพื่อตอบสนองความต้องการที่เปลี่ยนแปลงไปขององค์กรที่กำลังผสาน AI เข้ากับกลยุทธ์ไฮบริดคลาวด์ เพื่อให้ได้ผลลัพธ์ด้าน gen AI ที่เหมาะสมและมีประสิทธิภาพสูงสุด

ความพร้อมใช้งาน

AWS Neuron community operator พร้อมให้ใช้งานแล้วบน Red Hat OpenShift OperatorHub สำหรับลูกค้าที่ใช้งาน Red Hat OpenShift หรือ Red Hat OpenShift Service on AWS ส่วน Red Hat AI Inference Server ที่รองรับ AI chips ของ AWS ดาดว่าจะเปิดใช้งานในเวอร์ชัน developer preview ในเดือนมกราคม พ.ศ. 2569

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat
เรากำลังเสริมศักยภาพองค์กรให้สามารถปรับใช้และขยายเวิร์กโหลดด้าน AI ได้อย่างมีประสิทธิภาพและยืดหยุ่นมากยิ่งขึ้น ด้วยการทำให้ Red Hat AI Inference Server ระดับองค์กรของเรา ซึ่งพัฒนาบนเฟรมเวิร์ก vLLM ที่ล้ำสมัย สามารถทำงานร่วมกับ AI chips ของ AWS ได้ ความร่วมมือนี้ต่อยอดจากรากฐานด้านโอเพ่นซอร์สของ Red Hat โดยมีเป้าหมายเพื่อทำให้สามารถเข้าถึง generative AI ได้ง่ายและคุ้มค่ามากขึ้นในสภาพแวดล้อมไฮบริดคลาวด์”

Colin Brace, vice president, Annapurna Labs, AWS

“องค์กรต่างต้องการโซลูชันที่มีประสิทธิภาพที่เหนือชั้น คุ้มค่าการลงทุน และมีตัวเลือกที่เหมาะสมในการดำเนินงานเพื่อใช้กับเวิร์กโหลด AI ที่มีความสำคัญต่อภารกิจหลัก AWS ได้ออกแบบชิป Trainium และ Inferentia เพื่อทำให้การอนุมานและการเทรน AI มีประสิทธิภาพสูง เข้าถึงได้ง่ายขึ้น และคุ้มค่ามากขึ้น ความร่วมมือของเรากับ Red Hat ช่วยให้ลูกค้ามีแนวทางที่ได้รับการสนับสนุนในการปรับใช้ generative AI ในระดับองค์กร โดยผสานความยืดหยุ่นของโอเพนซอร์สเข้ากับโครงสร้างพื้นฐานของ AWS และตัวเร่งความเร็ว AI ที่ออกแบบมาโดยเฉพาะ เพื่อเร่งเวลาในการสร้างมูลค่าจากระยะทดลองไปสู่การใช้งานจริง”

Jean-François Gamache, chief information officer and vice president, Digital Services, CAE

“การปรับปรุงแอปพลิเคชันสำคัญให้ทันสมัยด้วย Red Hat OpenShift Service on AWS ถือเป็นก้าวสำคัญในการทรานส์ฟอร์มด้านดิจิทัลขององค์กร แพลตฟอร์มนี้ช่วยให้นักพัฒนาสามารถมุ่งเน้นไปที่โครงการที่มีมูลค่าสูง ทั้งการขับเคลื่อนนวัตกรรมผลิตภัณฑ์และเร่งการบูรณาการ AI เข้ากับโซลูชัน  ต่าง ๆ ของเรา Red Hat OpenShift มอบความยืดหยุ่นและความสามารถในการปรับขนาดที่ช่วยให้สร้างผลลัพธ์ที่จับต้องได้จริง ตั้งแต่การมอบข้อมูลเชิงลึกที่นำไปใช้งานได้จริงผ่านระบบการโค้ชเสมือนจริงแบบเรียลไทม์ (live virtual coaching) ไปจนถึงการลดระยะเวลาในการแก้ไขปัญหาที่ผู้ใช้รายงานเข้ามาได้อย่างมีนัยสำคัญ”

Anurag Agrawal, founder and chief global analyst, Techaisle

“ในขณะที่ต้นทุนการทำ AI inference เพิ่มสูงขึ้น องค์กรต่างให้ความสำคัญกับประสิทธิภาพควบคู่ไปกับสมรรถนะ ความร่วมมือนี้สะท้อนกลยุทธ์ ‘any model, any hardware’ ของ Red Hat โดยการบูรณาการแพลตฟอร์มโอเพ่นไฮบริดคลาวด์เข้ากับข้อได้เปรียบด้านความคุ้มค่าที่โดดเด่นของ AWS Trainium และ Inferentia ซึ่งช่วยให้ CIO สามารถนำ generative AI ไปใช้งานจริงในระดับองค์กร เปลี่ยนจากการทดลองที่มีต้นทุนสูงไปสู่การใช้งานจริงที่ยั่งยืนและมีการกำกับดูแล”

แหล่งข้อมูลเพิ่มเติม

ช่องทางการติดต่อกับเร้ดแฮท

Red Hat OpenShift 4.20 Enhances Security of the Modern Application Platform to Unite Enterprise IT, from Virtual Machines to AI

Red Hat OpenShift 4.20 เพิ่มประสิทธิภาพความปลอดภัยให้กับแพลตฟอร์มแอปพลิเคชันยุคใหม่ เพื่อรวมระบบไอทีขององค์กรเป็นหนึ่งเดียว ตั้งแต่เวอร์ชวลแมชชีนไปจนถึง AI

Red Hat OpenShift 4.20 Enhances Security of the Modern Application Platform to Unite Enterprise IT, from Virtual Machines to AI

Red Hat OpenShift enables customers to run what they need, where they need it, with new capabilities extending the platform’s trusted foundation to accelerate AI workloads and expand virtualization support across sovereign clouds.

Red Hat, the world’s leading provider of open source solutions, today announced the general availability of Red Hat OpenShift 4.20, the latest version of the industry’s leading hybrid cloud application platform powered by Kubernetes. Red Hat OpenShift 4.20 introduces capabilities for accelerating AI workloads, strengthening core platform security and enhancing virtualization strategies consistently from the datacenter, to public clouds, and the edge.

As organizations navigate increasing complexity and expanding regulatory requirements, they need a more consistent and reliable platform to bridge diverse applications and services across their entire IT footprint. There is also a growing need for capabilities that support digital sovereignty, which requires organizations to maintain expansive control over their cloud destiny – deciding precisely which applications and data must run in-house and which exist outside that domain. Red Hat OpenShift 4.20 provides a unified and more efficient foundation, built with systems security front and center, enabling sovereign deployments and accelerating the development and deployment of applications and AI workloads across hybrid cloud environments.

Strengthened platform security and enhanced core manageability

This latest release significantly strengthens the platform’s security posture, addressing both today’s immediate threats and the complex, evolving security needs of enterprise IT. By hardening the platform for the unique requirements of sovereignty, Red Hat OpenShift 4.20 helps secure the main traffic between control plane components with initial support for post-quantum cryptography (PQC) algorithms for mTLS, to deliver long-term cryptographic protection for critical communications.

This release also brings greater operational flexibility to the core platform and strengthens security capabilities for Red Hat OpenShift Platform Plus customers. This includes the general availability of Red Hat Advanced Cluster Security 4.9 and enhancements to Red Hat Trusted Artifact Signer and Red Hat Trusted Profile Analyzer to help customers more easily manage and analyze security data. Additionally, the zero trust workload identity manager is scheduled for release later this year, delivering identity attestation for machines and humans alike across federated infrastructure. 

Additional features focused on control and identity include:

  • Gain identity management flexibility and control: Bring-your-own OpenID Connect enables customers to use their existing OpenID Connect (OIDC) infrastructure, providing greater control over user data.
  • Significantly lower cost pod-to-pod mTLS encryption, identity-based traffic policies, observability and more with “sidecar-less” ambient mode with Red Hat OpenShift Service Mesh, helping reduce infrastructure costs, operational complexity, and resource overhead.
  • Simplify external secret management with a cluster-wide service: The External Secrets Operator (ESO) provides lifecycle management for secrets fetched from external secret management systems, helping improve security.
  • Reduce infrastructure costs with high availability on smaller footprints: Two-node OpenShift with arbiter enables a new high-availability form factor, reducing infrastructure costs without sacrificing resiliency.
  • Enhance network integration and performance for on-premises deployments: Border Gateway Protocol (BGP) in OVN-Kubernetes delivers new networking capabilities to on-premises environments by providing continuous route exchange between OpenShift and external network fabrics, which means faster adaptation to network changes, VM migration or failover events.

Scaling AI from experimentation to production

Red Hat OpenShift 4.20 helps accelerate AI projects to run in production faster, more reliably, and with more confidence. New capabilities are designed to streamline the deployment and management of complex AI workloads, making them easier to scale and manage. For instance, the LeaderWorkerSet (LWS) API for AI workloads simplifies the management of large, distributed AI workloads with automated orchestration and scaling. 

Deployment time is dramatically reduced using Image volume source for AI workloads, which allows new models to be integrated in minutes without rebuilding application containers. Together, these features provide functionality for Red Hat OpenShift AI or other AI platforms to help customers move more easily from experimentation to production. Additionally, Model Context Protocol (MCP) enables cluster management via developer tools like Visual Studio Code. 

Production-ready virtualization

Red Hat continues to optimize Red Hat OpenShift Virtualization, enabling customers to manage virtual machines (VMs) alongside containers and cloud-native applications from a single platform. The addition of CPU load-aware rebalancing and Arm support improves performance and resource utilization for virtualized workloads, while expanded hybrid cloud support extends Red Hat OpenShift Virtualization to bare-metal deployments on Oracle Cloud, giving organizations more control over their infrastructure and the placement of their data. With enhanced storage offloading functionality, the migration toolkit for virtualization significantly accelerates VM migration from legacy virtualization solutions to OpenShift Virtualization through existing storage resources.   

Availability

Red Hat OpenShift 4.20 is now generally available. More information, including how to upgrade to the latest version, is available here.

Supporting Quotes

Mike Barrett, vice president and general manager, Hybrid Cloud Platforms, Red Hat

“The pace of innovation in enterprise IT is accelerating, driven by the demands of AI and a shifting landscape caused by new regulations and corporations needing to mix sovereignty into their technology investments. With Red Hat OpenShift 4.20, we are delivering a foundation that not only keeps pace with these changes but helps our customers lead them. We’re providing the tools to unify their infrastructure, from legacy virtual machines to modern approaches for virtualization, all while maintaining the enhanced security posture, confidence and production control that is essential for market changes coming in 2026.”

Luc Choubert, vice president, Platform Engineering, Amadeus

“Our journey to multi cloud was driven by the need for massive scale and speed, moving from our private datacenter and supporting our 10,000 engineers. Red Hat OpenShift has become the unified foundation for this transformation, allowing us to securely automate our real-time key applications from infrastructure to deployment. Enhancing OpenShift with OpenShift Lightspeed could boost our teams’ efficiency and ability to scale by harnessing generative AI to provide instant, context-aware answers to admins of all experience levels. We are particularly interested in the continuous focus on platform innovation in this latest release, which is essential for giving us the long-term agility and resilience needed to serve the global travel industry.”

Gustavo de Abreu Fiuza, DevOps engineer, Cloud Platforms, Banco do Brasil

“When Banco Brazil first embraced Kubernetes, we found that scaling it to meet the demands of Latin America’s largest bank required significant operational overhead. Moving from vanilla Kubernetes to Red Hat OpenShift immediately reduced that overhead while expanding our hybrid cloud strategy. As a result, we have tripled our number of managed applications without increasing headcount. We’ve fully embraced GitOps and we even offer optimization services to our developers to keep per-application costs down. The platform also enabled us to more easily include the public cloud via Microsoft Azure Red Hat OpenShift.”

Jim Mercer, program vice president, Software Development, DevOps, and DevSecOps, IDC

“The true challenge for enterprises today is no longer just adopting AI, but securely bridging the AI lifecycle with their existing hybrid cloud infrastructure. Platforms like Red Hat OpenShift provide the necessary layer of consistency and control to manage applications, data and security policies across diverse footprints, ensuring businesses can meet new digital sovereignty demands while accelerating innovation.”

Venkat Ramakrishnan, vice president and general manager, Portworx by Pure Storage

“By optimizing Portworx data management on Red Hat OpenShift, we deliver a powerful application development solution for greater reliability and operational efficiency from the datacenter to the cloud and out to the edge. Our support for Red Hat OpenShift 4.20 and the enablement of two-node OpenShift with arbiter on Portworx extends critical data resilience, management capabilities and services across multiple edge locations, helping customers realize the future of edge infrastructure.”