Alibaba Cloud Releases Qwen2.5-Omni-7B: An End-to-end Multimodal AI Model

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

Alibaba Cloud Releases Qwen2.5-Omni-7B: An End-to-end Multimodal AI Model

Alibaba Cloud has launched Qwen2.5-Omni-7B, a unified end-to-end multimodal model in the Qwen series. Uniquely designed for comprehensive multimodal perception, it can process diverse inputs, including text, images, audio, and videos, while generating real-time text and natural speech responses. This sets a new standard for optimal deployable multimodal AI for edge devices like mobile phones and laptops.

Despite its compact 7B-parameter design, Qwen2.5-Omni-7B delivers uncompromised performance and powerful multimodal capabilities. This unique combination makes it the perfect foundation for developing agile, cost-effective AI agents that deliver tangible value, especially intelligent voice applications. For example, the model could be leveraged to transform lives by helping visually impaired users navigate environments through real-time audio descriptions, offering step-by-step cooking guidance by analyzing video ingredients, or powering intelligent customer service dialogues that really understand customer needs.

The model is now open-sourced on Hugging Face and GitHub, with additional access via Qwen Chat and Alibaba Cloud’s open-source community ModelScope. Over the past years, Alibaba Cloud has made over 200 generative AI models open-source.

High Performance Driven by Innovative Architecture

Qwen2.5-Omni-7B delivers remarkable performance across all modalities, rivaling specialized single-modality models of comparable size. Notably, it sets a new benchmark in real-time voice interaction, natural and robust speech generation, and end-to-end speech instruction following.

Its efficiency and high performance stem from its innovative architecture, including Thinker-Talker Architecture, which separates text generation (through Thinker) and speech synthesis  (through Talker) to minimize interference among different modalities for high-quality output; TMRoPE (Time-aligned Multimodal RoPE), a position embedding technique to better synchronize the video inputs with audio for coherent content generation; and Block-wise Streaming Processing, which enables low-latency audio responses for seamless voice interactions.

Qwen2.5-Omni-7B was pre-trained on a vast, diverse dataset, including image-text, video-text, video-audio, audio-text, and text data, ensuring robust performance across tasks.

With the innovative architecture and high-quality pre-trained dataset, the model excels in following voice command, achieving performance levels comparable to pure text input. For tasks that involve integrating multiple modalities, such as those evaluated in OmniBench – a benchmark that assesses models’ ability to recognize, interpret, and reason across visual, acoustic, and textual inputs – Qwen2.5-Omni achieves state-of-the-art performance.

Qwen2.5-Omni-7B also demonstrates high performance on robust speech understanding and generation capabilities through in-context learning (ICL). Additionally, after reinforcement learning (RL) optimization, Qwen2.5-Omni-7B showed significant improvements in generation stability, with marked reductions in attention misalignment, pronunciation errors, and inappropriate pauses during speech response.

Alibaba Cloud unveils Qwen2.5 last September and released Qwen2.5-Max in January, which was ranked 7th on Chatbot Arena, matching other top proprietary LLMs and demonstrates exceptional capabilities. Alibaba Cloud also open-sourced Qwen2.5-VL and Qwen2.5-1M for enhanced visual understanding and long context input handling.

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

 อาลีบาบา คลาวด์ เปิดตัว Qwen2.5-Omni-7B โมเดลมัลติโหมด (multimodal model) ครบวงจรเป็นส่วนหนึ่งใน Qwen series โมเดลนี้ออกแบบมาโดยเน้นความสามารถในการเข้าใจประเภทของข้อมูลได้หลายรูปแบบและครอบคลุม สามารถประมวลผลอินพุตหลากหลาย รวมถึงข้อความ รูปภาพ เสียง และ วิดีโอ สามารถสร้างการตอบสนองด้วยข้อความและคำพูดที่เป็นธรรมชาติได้แบบเรียลไทม์ นับเป็นการตั้งมาตรฐานใหม่ให้กับ multimodal AI ที่สามารถปรับใช้กับอุปกรณ์ปลายทาง (edge devices) เช่น โทรศัพท์มือถือ และแล็ปท็อปได้อย่างเหมาะสม

โมเดลนี้มอบประสิทธิภาพที่ไม่มีแผ่ว และมอบความสามารถแบบมัลติโหมดที่ทรงพลัง แม้ว่าจะมีพารามิเตอร์ขนาดกะทัดรัดเพียง 7B เท่านั้น จึงเป็นการผสมผสานรากฐานที่สมบูรณ์แบบเข้ากับการพัฒนา AI agents ที่คล่องตัวและคุ้มค่า มอบคุณประโยชน์ที่จับต้องได้ โดยเฉพาะกับแอปพลิเคชันเสียงอัจฉริยะต่าง ๆ เช่น โมเดลนี้ช่วยเปลี่ยนให้คุณภาพชีวิตดีขึ้น โดยการช่วยนำทางผู้มีความบกพร่องทางการมองเห็น ผ่านคำอธิบายเสียงเกี่ยวกับสภาพแวดล้อมแบบเรียลไทม์ หรือ ให้คำแนะนำในการทำอาหารทีละขั้นตอนด้วยการวิเคราะห์ส่วนผสมจากวิดีโอ หรือ ขับเคลื่อนให้บริการลูกค้าอัจริยะสามารถใช้บทสนทนาที่เข้าใจความต้องการที่แท้จริงของลูกค้าได้

ปัจจุบันโมเดลนี้เปิดเป็นโอเพ่นซอร์สบน Hugging Face และ GitHub และสามารถเข้าใช้ผ่าน Qwen Chat และ ModelScope ซึ่งเป็นชุมชนโอเพ่นซอร์สของอาลีบาบา คลาวด์ ทั้งนี้ในหลายปีที่ผ่านมา อาลีบาบา คลาวด์ ได้เปิดให้โมเดล generative AI มากกว่า 200 โมเดลเป็นโอเพ่นซอร์ส

นวัตกรรมด้านสถาปัตยกรรม ขับเคลื่อนให้โมเดลมีประสิทธิภาพสูง

Qwen2.5-Omni-7B มอบประสิทธิภาพโดดเด่นให้กับโหมดทุกประเภท ได้ทัดเทียมกับโมเดลเฉพาะแบบโหมดเดียวต่าง ๆ (single-modality models) ที่มีขนาดใกล้เคียงกัน โดยเฉพาะอย่างยิ่ง โมเดลนี้ได้ตั้งมาตรฐานใหม่ด้านการปฏิสัมพันธ์ด้วยเสียงแบบเรียลไทม์ การสร้างเสียงพูดที่เป็นธรรมชาติและชัดเจน และการทำตามคำสั่งเสียงอย่างครบวงจรจากต้นจนจบ

ประสิทธิภาพและสมรรถนะที่สูงของโมเดลนี้มาจากการใช้สถาปัตยกรรมล้ำสมัย ซึ่งรวมถึง Thinker-Talker Architecture ที่แยกการสร้างข้อความ (ด้วย Thinker) และการสังเคราะห์เสียง (ด้วย Talker) ออกจากกัน เพื่อลดสัญญาณรบกวนจากโหมดต่าง ๆ ให้เหลือน้อยที่สุดเพื่อให้ได้เอาต์พุตคุณภาพสูง, TMRoPE (Time-aligned Multimodal RoPE) ซึ่งเป็นเทคนิคการฝังตำแหน่งเพื่อให้ซิงโครไนซ์อินพุตวิดีโอด้วยเสียงเพื่อสร้างเนื้อหาที่สอดคล้องกันได้ดีขึ้น, และ Block-wise Streaming Processing ที่ช่วยให้สามารถตอบสนองเสียงด้วยความรวดเร็วมีความหน่วงต่ำ ส่งผลให้การโต้ตอบด้วยเสียงเป็นไปอย่างราบรื่น

Qwen2.5-Omni-7B ได้รับการเทรนล่วงหน้าด้วยชุดข้อมูลที่หลากหลายและกว้างขวาง ซึ่งรวมถึง การเปลี่ยนภาพเป็นข้อความ, วิดีโอเป็นข้อความ, วิดีโอเป็นเสียง, ตัวอักษรเป็นข้อมูล เพื่อให้มั่นใจได้ว่าโมเดลจะสามารถทำงานได้ทุกแบบด้วยประสิทธิภาพสูง

สถาปัตยกรรมที่ล้ำสมัยและการเทรนล่วงหน้าด้วยชุดข้อมูลคุณภาพสูง ทำให้โมเดลนี้มีความเป็นเลิศด้านการทำตามคำสั่งเสียง และมีประสิทธิภาพเทียบเท่ากับการป้อนเป็นตัวอักษรข้อความล้วน ๆ สำหรับงานที่เกี่ยวข้องกับมัลติโหมด เช่น โมเดลที่ได้รับการประเมินผ่าน OmniBench ซึ่งเป็นเกณฑ์มาตรฐานที่ประเมินความสามารถของโมเดลต่าง ๆ ด้านการจดจำ การตีความ และการให้เหตุผล จากอินพุตที่เป็นภาพ เสียงและข้อความ จึงกล่าวได้ว่า Qwen2.5-Omni มีสมรรถนะล้ำสมัยที่สุดในปัจจุบัน

Qwen2.5-Omni-7B ยังแสดงให้เห็นว่ามีสมรรถนะในการทำความเข้าใจและการสร้างคำพูดที่ดีเยี่ยม และมีความสามารถในการสร้างคำพูดผ่านการเรียนรู้ลงลึกในเชิงบริบท (in-context learning: ICL) นอกจากนี้ หลังจากเสริมประสิทธิภาพด้วยการเรียนรู้แบบเสริมกำลัง (reinforcement learning: RL) หรือการเรียนรู้จากปฏิสัมพันธ์แบบลองผิดลองถูกที่เกิดขึ้นระหว่างทางของการเรียนรู้แล้ว Qwen2.5-Omni-7B ได้แสดงให้เห็นว่ามีความเสถียรในการสร้างคำพูดเพิ่มขึ้นอย่างมาก ลดความคลาดเคลื่อนในการให้ความสนใจ, ลดข้อผิดพลาดในการออกเสียง และลดการสะดุดหยุดลงระหว่างการตอบสนองด้วยคำพูดได้อย่างเห็นได้ชัด

อาลีบาบา คลาวด์ เปิดตัว Qwen2.5 เมื่อเดือนกันยายนปี 2567 และปล่อย Qwen2.5-Max สู่ตลาดในเดือนมกราคมปี 2568 และได้รับการจัดให้อยู่ในอันดับที่ 7 บน Chatbot Arena ซึ่งเทียบชั้นได้กับ LLM ชั้นนำทั้งหลายที่มีกรรมสิทธิ์ และยังแสดงให้เห็นถึงความสามารถที่โดดเด่นด้านต่าง ๆ  อาลีบาบา คลาวด์ยังได้เปิดโอเพ่นซอร์ส Qwen2.5-VL และ Qwen2.5-1M ตอบโจทย์การทำความเข้าใจภาพที่มีประสิทธิภาพมากขึ้น และจัดการกับอินพุตบริบทที่ยาว ๆ ได้ดีขึ้น

Binance TH, Binance Charity and Changpeng Zhao pledge to support up to $1.5 Million in the Earthquake-Affected Areas in Myanmar and Thailand.

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity and Changpeng Zhao pledge to support up to $1.5 Million in the Earthquake-Affected Areas in Myanmar and Thailand.

In response to the recent devastating earthquake centered in Myanmar and surrounding areas including Thailand. Binance Charity, together with Binance co-founder and former CEO Changpeng Zhao (CZ), will launch a joint effort to airdrop up to $1.5 million equivalent in BNB to the users of Binance.com living in affected areas of Myanmar, as well as the users of Binance’s subsidiary in Thailand, Binance TH by Gulf Binance, in Thailand to support relief efforts in the region.

Binance Charity 

For Thailand, the areas considered affected can be found on Binance TH (www.binance.th) FAQ section and Binance Charity (https://www.binance.charity/) website. The identification of the users will be based on their living address information provided to Binance TH by Gulf Binance. We expect the funds to reach eligible users at the latest by April 14, 2025.

“In times of crisis, every second counts,” CZ said. “Blockchain and digital assets have provided an effective and efficient means of delivering financial aid to disaster victims. We encourage more people to join us to lend a helping hand to the needy and the less fortunate at this critical moment.”

Binance CEO Richard Teng said, “We are deeply saddened by the devastating earthquake that struck Myanmar, Thailand and the surrounding regions. Our prayers go out to the victims, their families and all those affected by the tragedy. Binance stands in solidarity with the communities and we sincerely hope that our efforts can provide some relief during this challenging time.”

“I extend my deepest condolences to the families who have lost loved ones, and my heartfelt sympathies to everyone affected by the recent earthquake,” said Nirun Fuwattananukul, CEO of Binance TH by Gulf Binance. “In partnership with Binance Charity, we are committed to finding innovative ways to provide support during this time of crisis, and to demonstrate our care for our users and the wider community. We also encourage recipients of these donations to pay it forward—if possible—so that aid reaches those who may be in even greater need.”

Additionally, Binance TH recognizes the vital role played by various agencies, especially the Police K9 Unit, which has been instrumental in searching for survivors during this crisis. Binance TH by Gulf Binance will donate an additional 200,000 THB to the K9 USAR Thailand under the Environmental and Social Foundation, to support the training of dogs for future missions and special operations.

Binance Charity remains committed to providing unwavering support to those in need through the power of blockchain technology. Previously, it has launched philanthropic initiatives in Spain, Turkey, Argentina, Libya, Vietnam and more.

For more information, please visit our FAQ page.

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao – CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

จากเหตุการณ์แผ่นดินไหวครั้งรุนแรงที่เกิดขึ้นในประเทศเมียนมาและพื้นที่โดยรอบ รวมถึงประเทศไทย Binance Charity ร่วมกับนายฉางเผิง จ้าว (Changpeng Zhao หรือ CZ) ผู้ร่วมก่อตั้งและอดีตซีอีโอของ Binance ได้ประกาศโครงการช่วยเหลือ โดยจะทำการแจกจ่ายความช่วยเหลือผ่านการแอร์ดรอปเหรียญ BNB รวมมูลค่า 1.5 ล้านดอลลาร์สหรัฐ ให้กับผู้ใช้ Binance.com ที่อาศัยอยู่ในพื้นที่ที่ได้รับผลกระทบในเมียนมา และผู้ใช้ของ Binance TH by Gulf Binance ที่อยู่ในประเทศไทย เพื่อสนับสนุนความช่วยเหลือในภูมิภาคนี้

สำหรับประเทศไทย รายชื่อพื้นที่ที่ถือว่าได้รับผลกระทบสามารถตรวจสอบได้จากหน้า FAQ ของ Binance TH (https://www.binance.th/th/faq) และเว็บไซต์ของ Binance Charity (https://www.binance.charity/) โดยการระบุผู้ใช้ที่ได้รับสิทธิ์จะอ้างอิงจากที่อยู่ที่ได้ลงทะเบียนไว้กับ Binance TH by Gulf Binance โดยคาดว่าผู้ใช้ที่มีสิทธิ์จะได้รับเงินช่วยเหลือภายในวันที่ 14 เมษายน 2568

“ในช่วงเวลาวิกฤต ทุกวินาทีล้วนมีความหมาย” CZ กล่าว “เทคโนโลยีบล็อกเชนและสินทรัพย์ดิจิทัลได้พิสูจน์แล้วว่าเป็นวิธีการที่มีประสิทธิภาพในการส่งต่อความช่วยเหลือทางการเงินแก่ผู้ประสบภัย เราขอเชิญชวนทุกคนมาร่วมเป็นส่วนหนึ่งในการยื่นมือช่วยเหลือผู้ที่เดือดร้อนในช่วงเวลาสำคัญนี้” CZ กล่าวเสริม

นายริชาร์ด เทง ซีอีโอของ Binance กล่าวว่า “เรารู้สึกเสียใจอย่างยิ่งต่อเหตุแผ่นดินไหวที่เกิดขึ้นในเมียนมา ประเทศไทย และพื้นที่โดยรอบ ขอแสดงความเสียใจอย่างสุดซึ้งต่อผู้เสียชีวิต ครอบครัวของพวกเขา และทุกคนที่ได้รับผลกระทบจากโศกนาฏกรรมครั้งนี้ Binance ขอเป็นกำลังใจให้กับทุกชุมชนที่ได้รับผลกระทบ และหวังเป็นอย่างยิ่งว่าความช่วยเหลือของเราจะสามารถบรรเทาความเดือดร้อนได้ในบางส่วน”

นายนิรันดร์ ฟูวัฒนานุกูล ซีอีโอของ Binance TH by Gulf Binance กล่าว  “ผมขอแสดงความเสียใจอย่างสุดซึ้งต่อครอบครัวของผู้ที่ต้องสูญเสียคนที่รักและขอส่งกำลังใจให้กับทุกคนที่ได้รับผลกระทบจากเหตุการณ์แผ่นดินไหวครั้งนี้ เราได้ร่วมมือกับ Binance Charity เพื่อแสวงหาวิธีการที่สร้างสรรค์ในการช่วยเหลือในยามวิกฤต และเพื่อแสดงให้เห็นถึงความห่วงใยที่เรามีต่อผู้ใช้และชุมชนโดยรวม นอกจากนี้เราขอเชิญชวนผู้ที่ได้รับเงินช่วยเหลือหากเป็นไปได้ให้ส่งต่อความช่วยเหลือแก่ผู้อื่นที่อาจเดือดร้อนมากกว่า เพื่อให้ความช่วยเหลือไปถึงผู้ที่จำเป็นได้รับอย่างทั่วถึง”

นอกจากนี้ Binance TH เห็นความสำคัญของการปฏิบัติภารกิจของหน่วยงานต่าง ๆ และโดยเฉพาะอย่างยิ่งกองกำกับการสุนัขตำรวจที่เป็นอีกกำลังหลักเพื่อค้นหาผู้รอดชีวิตจากเหตุการณ์ดังกล่าว ซึ่ง Binance TH by Gulf Binance จะบริจาคเงินเพิ่มเติมจำนวน 200,000 บาท ให้กับ องค์การสุนัขกู้ภัยแห่งชาติ ภายใต้มูลนิธิเพื่อสิ่งแวดล้อมและสังคม เพื่อช่วยสนับสนุนการฝึกสุนัขสำหรับภารกิจและปฏิบัติการพิเศษต่าง ๆ  

Binance Charity ยังคงยึดมั่นในพันธกิจในการให้ความช่วยเหลือแก่ผู้ที่ต้องการ ด้วยพลังของเทคโนโลยีบล็อกเชน โดยก่อนหน้านี้ได้ดำเนินโครงการเพื่อสังคมในประเทศต่าง ๆ เช่น สเปน ตุรกี อาร์เจนตินา ลิเบีย เวียดนาม และอีกมากมาย

Virtualization in 2025 and beyond

ส่อง! เวอร์ชวลไลเซชันปี 2025 และจากนี้ไป

Virtualization in 2025 and beyond

Article by Senior Manager, Product Management, OpenShift

Looking back, every decade has brought a new wave of innovation based on unmet customer needs and technology advancements. The 1990s brought about the information transition to digitization resulting in the popularity of the World Wide Web. 2000s began with applications gaining hardware independence by adopting server virtualization made possible due to advancements in hypervisor technologies. 2010s introduced on-demand infrastructure and shortening application lifecycles from years to hours through the adoption of DevOps and Kubernetes. The 2020s are shaping up to bring about the adoption of generative AI (gen AI) as well as many customers rethinking their traditional approach to virtualization due to changes in the industry. 

At least two out of three enterprise applications are hosted as virtual machines and critical for every enterprise. As virtualization continues to evolve, many customers are rethinking their traditional approaches. Today, I want to talk about where the virtualization market is headed in 2025, how Red Hat is working with our partner ecosystem to meet new demands and how organizations can protect their critical virtual machine (VM) investments while having a path forward towards modernization when the time is right. 

Where we’re headed 

In 2025 (and beyond), virtualization will be defined by diversification. Many customers are prioritizing the need to avoid vendor lock-in by diversifying their hypervisor vendors. ISVs – especially in storage, backup and disaster recovery integrations are seeing the same diversification wave and rapidly extending support to additional industry standard hypervisors.  To simplify operations and bypass steep learning curves, AI-driven solutions will play a key role, enabling teams to work seamlessly at an operational syntax level rather than mastering complex systems.

We’re going to see greater adoption of modern application development principles. Customers’ familiarity with modern application development and deployment methodologies has increased significantly. The resulting benefits on developer productivity and application delivery agility is prompting customers to evaluate their existing VM-based workloads and classify which ones can benefit from adopting modern practices. Platforms that allow the flexibility to run VMs and containers in a unified manner and provide operational agility and efficiencies will continue to gain popularity. 

Lastly, hybrid cloud adoption will demand operational simplicity. Even as customers embrace multi-cloud strategies for virtualization workloads, they’re simultaneously repatriating some workloads to on-premises. These decisions are increasingly driven by geographic availability, sovereignty concerns and cost optimizations. This growing reliance on diverse cloud providers underscores the need for hybrid cloud solutions that can deliver standardized operations across these clouds with seamless failover capabilities, simplifying management in a complex landscape.

There’s a common theme here, if you couldn’t tell – there is a need for modern virtualization solutions that are adaptable and work across environments, enabling organizations to prepare for future innovation and growth. With the right strategies in place, organizations can align their legacy infrastructure with evolving business strategies.

The need for open, hybrid virtualization solutions

Soaring costs that are squeezing already-slim IT budgets may be the primary catalyst for organizations reevaluating their virtualization solutions, but it’s not the only reason. Modern open source alternatives are gaining momentum, and it’s in part because they meet the needs of where virtualization is headed.

Even if modernization is years away and VMs remain a critical component of an organization’s IT strategy, chances are any future plans involve containers, edge deployments, generative AI (gen AI) and more. Enterprise adoption of AI requires a platform that solves the same challenges of flexibility, collaborative workflows and scaling across hybrid clouds. To take advantage of these innovations without leaving behind VM investments, organizations need solutions that prevent vendor lock-in and provide a unified platform for managing across modern and legacy applications alike and extend to enterprise AI platform deployments.

This is where open source solutions can shine, offering a way to integrate cloud-native technologies without abandoning needed infrastructure. Open source virtualization options give organizations the ability to tap into an entire ecosystem of certified technology, unlocking the flexibility and – most importantly – the control that many IT leaders are looking for in a market that has seen increasing uncertainty. Red Hat OpenShift is built on proven open source technology like Kubernetes, KubeVirt and KVM to provide a consistent management experience across cloud, on-premises and edge environments

Bringing together VMs and containers

The crossroads that many are finding themselves at today – needing to confront immediate virtualization challenges but also wanting to lay the groundwork for future application modernization initiatives – can be an opportunity. Many are not ready to go all in on modernization – whether due to budget constraints, skills gaps, prioritization or a host of other reasons, oftentimes organizations are focused on keeping the lights on and making incremental IT changes vs the sweeping overhaul of their infrastructure they may dream of making. But it doesn’t need to be an all or nothing approach when it comes to virtualization modernization.

We’ve been working to refine Red Hat OpenShift to best meet the needs of virtualized infrastructure while also enabling organizations to take advantage of the latest IT innovations like generative AI. Red Hat OpenShift with OpenShift Virtualization serves as a strategic bridge between traditional virtualization environments and modern, cloud-native applications, simplifying the transition process while maintaining operational continuity. 

Additionally, Red Hat expanded its virtualization portfolio to provide options that meet users wherever they are on their virtualization journey. With the latest edition of Red Hat OpenShift, Red Hat OpenShift Virtualization Engine, organizations now have a streamlined solution entitled to the essential OpenShift features and components required for virtualization with a seamless upgrade path to meet the needs of infrastructure and modernization needs in the future.

Using Red Hat OpenShift Virtualization, organizations like Reist Telecom AG have been able to unify VMs and containers to cut licensing costs in half, bring greater transparency and consistency to its IT security policies, and enable greater cross-team collaboration through the implementation of DevOps practices and tools.

A flexible path forward

Over the past few years the virtualization landscape has seen some fairly significant changes and in 2025 we’ll see some of that dust start to settle. Key decisions are being made when it comes to protecting VM investments while also keeping an eye on the future. While it may seem easier to keep the status quo, with options like Red Hat OpenShift Virtualization Engine, organizations can focus solely on migrating to a stable environment and modernize down the road if and when the time comes.