Alibaba Releases Wan2.2 to Uplift Cinematic Video Production

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

Alibaba Releases Wan2.2 to Uplift Cinematic Video Production

The Industry’s first open-source MoE large video generation models offering superb control for global creators and developers

Alibaba has released Wan2.2, the industry’s first open-source large video generation models incorporating the MoE (Mixture-of-Experts) architecture, that will significantly elevate the ability of creators and developers to produce cinematic-style videos with a single click. 

The Wan2.2 series feature a text-to-video model Wan2.2-T2V-A14B and image-to-video model Wan2.2-I2V-A14B, and Wan2.2-TI2V-5B, a hybrid model that supports both text-to-video and image-to-video generation tasks within a single unified framework. 

Built on the MoE architecture and trained on meticulously curated aesthetic data, Wan2.2-T2V-A14B and Wan2.2-I2V-A14B generates videos with cinematic-grade quality and aesthetics, offering creators precise control over key dimensions such as lighting, time of day, color tone, camera angle, frame size, composition, focal length, etc. 

The two MoE models also demonstrate significant enhancements in producing complex motions – including vivid facial expressions, dynamic hand gestures, and intricate sports movements. Additionally, the models deliver realistic representations with enhanced instruction following and adherence to physical laws.

To address the issue of high computational consumption in video generation caused by long tokens, Wan2.2-T2V-A14B and Wan2.2-I2V-A14B implement a two-expert design in the denoising process of diffusion models, including a high-noise expert focusing on overall scene layout and a low-noise expert to refine details and textures. Though both models comprise a total of 27 billion parameters, only 14 billion parameters are activated per step, reducing computational consumption by up to 50%.

Wan2.2 incorporates fine-grained aesthetic tuning through a cinematic-inspired prompt system that categorizes key dimensions such as lighting, illumination, composition, and color tone. This approach enables Wan2.2 to accurately interpret and convey users’ aesthetic intentions during the generation process. 

To enhance generalization capabilities and creative diversity, Wan2.2 was trained on a substantially larger dataset, featuring 65.6% increase in image data and 83.2% increase in video data compared to Wan2.1. Wan2.2 demonstrates enhanced performance in producing complex scenes and motions, as well as an enhanced capacity for artistic expression. 

A Compact Model to Enhance Efficiency and Scalability

Wan2.2 also introduces its hybrid model Wan2.2-TI2V-5B, a dense model utilizes a high-compression 3D VAE architecture to achieve a temporal and spatial compression ratio of 4x16x16, enhancing the overall information compression rate to 64. The TI2V-5B can generate a 5-second 720P video in several minutes on a single consumer-grade GPU, enabling efficiency and scalability to developers and content creators.  

Wan2.2 models are available to download on Hugging Face and GitHub, as well as Alibaba Cloud’s open-source community, ModelScope. A major contributor to the global open source community, Alibaba open sourced four Wan2.1 models in February 2025 and Wan 2.1-VACE (Video All-in-one Creation and Editing) in May 2025. To date, the models have attracted over 5.4 million downloads on Hugging Face and ModelScope. 

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

โมเดลสร้างวิดีโอแบบโอเพ่นซอร์สรุ่นแรกในอุตสาหกรรมที่ใช้สถาปัตยกรรม MoE ช่วยให้ครีเอเตอร์และนักพัฒนาทั่วโลกควบคุมการผลิตวิดีโอได้อย่างยอดเยี่ยม

อาลีบาบา เปิดตัว Wan2.2 โมเดลสร้างวิดีโอขนาดใหญ่แบบโอเพ่นซอร์สที่สร้างบนสถาปัตยกรรม MoE (Mixture-of-Experts) เป็นโมเดลแรกในอุตสาหกรรม เพื่อช่วยยกระดับความสามารถในการผลิตวิดีโอสไตล์ภาพยนตร์ให้กับครีเอเตอร์และนักพัฒนา ด้วยการคลิกเพียงครั้งเดียว

Wan2.2 series เป็นไฮบริดโมเดลที่รองรับการสร้างวิดีโอจากข้อความและจากภาพภายใต้เฟรมเวิร์กเดียวกัน ประกอบด้วยโมเดลแปลงข้อความเป็นวิดีโอ Wan2.2-T2V-A14B และโมเดลแปลงภาพเป็นวิดีโอ Wan2.2-12V-A14B และ Wan2.2-TI2V-5B 

Wan2.2-T2V-A14B และ Wan2.2-I2V-A14B สร้างขึ้นบนสถาปัตยกรรม MoE ได้รับการเทรนด้วยชุดข้อมูลภาพที่คัดสรรมาอย่างพิถีพิถัน ทำให้สามารถสร้างวิดีโอที่มีคุณภาพและสวยงามในเกรดภาพยนต์ ครีเอเตอร์สามารถควบคุมมิติสำคัญ ๆ ได้อย่างแม่นยำ เช่น แสง เวลาที่ต้องการ โทนสี มุมกล้อง ขนาดของเฟรม องค์ประกอบ และ ระยะโพกัส เป็นต้น

โมเดล MoE ทั้งสองนี้ ยังแสดงให้เห็นถึงประสิทธิภาพในการสร้างการเคลื่อนไหวที่ซับซ้อนได้อย่างโดดเด่น ไม่ว่าจะเป็นการแสดงออกทางสีหน้าที่สดใส ท่าทางมือที่เคลื่อนไหวแบบไดนามิก ไปจนถึงการเคลื่อนไหวที่ซับซ้อนของการเล่นกีฬา นอกจากนี้ยังช่วยให้การนำเสนอสมจริง ด้วยความสามารถในการทำตามคำสั่งและยึดหลักปฏิบัติตามกฎทางกายภาพได้ดีมากขึ้น

Wan2.2-T2V-A14B และ Wan2.2-I2V-A14B ใช้การออกแบบ แบบ two-expert ในกระบวนการลดเสียงรบกวนของโมเดลการแพร่กระจาย (diffusion model) ต่าง ๆ เพื่อแก้ปัญหาในการสร้างวิดีโอที่ต้องใช้ทรัพยากรประมวลผลสูงที่เกิดจากการใช้โทเค็นที่ใช้ได้ตลอดระยะเวลาของการสตรีมสื่อ (long tokens) ซึ่งรวมถึง high-noise expert ที่เน้นไปที่เค้าโครงของฉากในภาพรวม และ low-noise expert เพื่อปรับแต่งรายละเอียดและพื้นผิว ทั้งนี้แม้ว่าทั้งสองโมเดลจะมีพารามิเตอร์รวม 27 พันล้านพารามิเตอร์ แต่ในแต่ละขั้นตอนจะเปิดใช้งานเพียง 14 พันล้านพารามิเตอร์เท่านั้น ทำให้สามารถลดการใช้ทรัพยากรการประมวลผลลงได้มากถึง 50% 

Wan2.2 รองรับการปรับแต่งอย่างละเอียดผ่านระบบพรอมต์ที่ได้รับแรงบันดาลใจจากงานภาพยนตร์ โดยจัดหมวดหมู่มิติสำคัญต่าง ๆ เช่น แสง ความสว่าง องค์ประกอบภาพ และ โทนสี ช่วยให้ Wan2.2 สามารถตีความและถ่ายทอดเจตนารมณ์ของผู้ใช้งานได้อย่างแม่นยำตลอดกระบวนการสร้างวิดีโอ

Wan2.2 ได้รับการเทรนจากชุดข้อมูลที่มีขนาดใหญ่ขึ้นมาก เพื่อเพิ่มความสามารถให้ใช้ได้ในวงกว้างมากขึ้น และเพิ่มความหลากหลายของการสร้างสรรค์ โดยมีข้อมูลภาพเพิ่มขึ้น 65.6% และข้อมูลวิดีโอเพิ่มขึ้น 83.2% เมื่อเทียบกับ Wan2.1 ทำให้ Wan2.2 มีประสิทธิภาพในการสร้างฉากและการเคลื่อนไหวที่ซับซ้อน รวมถึงความสามารถในการแสดงออกทางศิลปะเพิ่มมากขึ้น

โมเดลขนาดกะทัดรัด เพื่อเพิ่มประสิทธิภาพและความสามารถในการปรับขนาด 

Wan2.2 มาพร้อม Wan2.2-TI2V-5B ซึ่งเป็นไฮบริดโมเดลของ Wan2.2 และเป็น dense model ที่ใช้สถาปัตยกรรม 3D VAE ที่มีอัตราการบีบอัดข้อมูลสูง เพื่อให้ได้ใช้อัตราส่วนการบีบอัดเชิงเวลาและเชิงพื้นที่ที่ 4x16x16 ซึ่งช่วยเพิ่มอัตราการบีบอัดข้อมูลโดยรวมที่ 64 ทั้งนี้ TI2V-5B สามารถสร้างวิดีโอยาว 5 วินาที และมีความละเอียด 720P ได้ในเวลาไม่กี่นาทีบน GPU ที่เป็นเกรดผู้บริโภคเพียงตัวเดียว เป็นการช่วยให้นักพัฒนาและคอนเทนต์ครีเอเตอร์สร้างสรรค์วิดีโอได้อย่างมีประสิทธิภาพและสามารถปรับขนาดได้ตามต้องการ

โมเดล Wan2.2 พร้อมให้ดาวน์โหลดแล้วบน Hugging Face และ GitHub รวมถึงบน ModelScope ซึ่งเป็นชุมชนด้านโอเพ่นซอร์สของอาลีบาบา คลาวด์ นอกจากนี้ อาลีบาบา ในฐานะหนึ่งในผู้มีส่วนร่วมหลักของชุมชนโอเพ่นซอร์สระดับโลก ได้เปิดโอเพ่นซอร์สโมเดล Wan2.1 สี่โมเดล เมื่อเดือนกุมภาพันธ์ 2568 และโอเพ่นซอร์ส Wan 2.1-VACE (โมเดลสร้างและตัดต่อวิดีโอแบบ all-in-one) เมื่อเดือนพฤษภาคม 2568  ปัจจุบัน โมเดลเหล่านี้มียอดดาวน์โหลดมากกว่า 5.4 ล้านครั้งบน Hugging Face และ ModelScope

Alibaba Unveils Cutting-Edge AI Coding Model Qwen3-Coder

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

Alibaba Unveils Cutting-Edge AI Coding Model Qwen3-Coder

Alibaba has launched Qwen3-Coder, its most advanced agentic AI coding model to date. Designed for high-performance software development, Qwen3-Coder excels in agentic AI coding tasks, from generating new codes and managing complex coding workflows to debugging across entire codebases.

Built on a Mixture-of-Experts (MoE) architecture, this open-sourced model Qwen3-Coder-480B-A35B-Instruct, which has a total of 480 billion parameters but activates 35 billion parameters per token, delivers efficiency without sacrificing performance. The model achieves competitive results against leading state-of-the-art (SOTA) models across key benchmarks in agentic coding, browser use, and tool use.

Additionally, Alibaba is open-sourcing Qwen Code, a powerful command-line interface (CLI) tool that enables developers to delegate engineering tasks to AI using natural language. Optimized with custom prompts and interaction protocols, Qwen Code unlocks the full potential of Qwen3-Coder for real-world agentic programming. The model also supports integration with the Claude Code interface, making it even easier for developers to execute their coding tasks.

Trained on an extensive dataset of codes and general text data, Qwen3-Coder is engineered for robust agentic coding. It natively supports a context window of 256K tokens, extendable up to 1 million tokens, enabling it to process vast codebases in a single session. Its superior performance stems not only from scaling across tokens, context length, and synthetic data during pre-training, but also from innovative post-training techniques such as long-horizon reinforcement learning (agent RL). This advancement allows the model to solve complex, real-world problems through multi-step interactions with external tools. As a result, Qwen3-Coder achieves SOTA performance among open-source models on SWE-Bench Verified (a benchmark for evaluating AI models’ ability to solve real-world software issues), even without test-time or inference scaling. 

Agentic AI coding is transforming software development by enabling more autonomous, efficient, and accessible programming workflows. With its open-source availability, strong agentic coding capabilities, and seamless compatibility with popular developer tools and interfaces, Qwen3-Coder is positioned as a valuable tool for global developers in software development.

The Qwen3-Coder-480B-A35B-Instruct model is now available on Hugging Face and GitHub. Developers can also access the model on Qwen Chat or via cost-effective APIs through Model Studio, Alibaba’s generative AI development platform.

Qwen-based coding models have already surpassed 20 million downloads globally. Tongyi Lingma, Alibaba Cloud’s Qwen-powered coding assistant, will soon be upgraded with Qwen3-Coder’s enhanced agentic capabilities. Since its launch in June 2024, Tongyi Lingma’s “AI Programmer” feature—offering code completion, optimization, debugging support, snippet search, and batch unit test generation—has generated over 3 billion lines of code.

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด agentic AI ของบริษัทฯ ที่ล้ำหน้าที่สุดในปัจจุบัน Qwen3-Coder ออกแบบมาเพื่อใช้ในการพัฒนาซอฟต์แวร์ที่ต้องการประสิทธิภาพสูง มีความสามารถเป็นเลิศในการเขียนโค้ด agentic AI ไม่ว่าจะเป็นการสร้างโค้ดใหม่และการจัดการกับเวิร์กโฟลว์ในการเขียนโค้ดที่ซับซ้อน ไปจนถึงการหาและแก้ไขข้อบกพร่อง (debugging) ชุดของซอร์สโค้ด (codebase) ทั้งหมด

Qwen3-Coder-480B-A35B-Instruct เป็นโมเดลโอเพ่นซอร์สที่สร้างบนสถาปัตยกรรม Mixture-of-Experts (MoE) มีพารามิเตอร์ทั้งหมด 480 พันล้านพารามิเตอร์ แต่เปิดใช้งาน 35 พันล้านพารามิเตอร์ต่อโทเค็น มอบประสิทธิภาพโดยไม่ลดทอนสมรรถนะ โมเดลนี้มีผลลัพธ์ที่แข่งขันได้กับโมเดลที่ล้ำสมัย (state-of-the-art: SOTA) ชั้นนำอื่น ๆ ในการวัดประสิทธิภาพสำคัญต่าง ๆ ในด้านการเขียนโค้ด agentic, การใช้เบราว์เซอร์ และ การใช้เครื่องมือ

นอกจากนี้ อาลีบาบายังได้เปิดโอเพ่นซอร์ส Qwen Code ซึ่งเป็นเครื่องมือ command-line interface (CLI) ทรงประสิทธิภาพที่ช่วยให้นักพัฒนาซอฟต์แวร์มอบหมายงานด้านวิศวกรรมให้กับ AI ด้วยการใช้ภาษาธรรมชาติ Qwen Code ได้รับการปรับให้เหมาะสมด้วยพรอมต์ที่กำหนดเอง (custom prompts) และโปรโตคอลการปฏิสัมพันธ์ต่าง ๆ ซึ่งเป็นการปลดล็อกศักยภาพทั้งหมดของ Qwen3-Coder ให้กับการเขียนโปรแกรม agentic ในโลกจริงได้อย่างเต็มรูปแบบ โมเดลนี้ยังรองรับการทำงานร่วมกับ Claude Code interface ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์เขียนโค้ดได้ง่ายขึ้น

Qwen3-Coder ได้รับการเทรนกับชุดข้อมูลโค้ดและข้อมูลข้อความทั่วไปอย่างครอบคลุม และได้รับการออกแบบมาสำหรับการเขียนโค้ด agentic ได้อย่างทรงประสิทธิภาพ โดยปกติโมเดลนี้รองรับหน้าต่างบริบท (context window) ได้ 256K โทเค็น และสามารถขยายได้สูงสุด 1 ล้านโทเค็น ช่วยให้สามารถประมวลผล codebases ขนาดใหญ่ได้ในการสนทนาโต้ตอบเดียว (single session) 

ประสิทธิภาพทั้งหมดที่เหนือกว่านี้ไม่เพียงเกิดจากการปรับขนาดข้ามโทเค็น, ความยาวบริบท และข้อมูลสังเคราะห์ (synthetic data) ระหว่างการเทรนล่วงหน้าเท่านั้น แต่ยังมาจากเทคนิคที่เป็นนวัตกรรมต่าง ๆ ภายหลังการเทรน เช่น การเรียนรู้ของ agent ที่เกิดจากการเรียนรู้แบบลองผิดลองถูกในระยะยาว (long-horizon reinforcement learning: agent RL) 

ความล้ำหน้านี้ช่วยให้โมเดลสามารถแก้ปัญหาที่ซับซ้อนในโลกจริง ผ่านการปฏิสัมพันธ์โต้ตอบแบบหลายขั้นกับเครื่องมือภายนอกต่าง ๆ ส่งผลให้ Qwen3-Coder บรรลุผลทดสอบสมรรถนะ SOTA ในกลุ่มโมเดลโอเพ่นซอร์สจาก SWE-Bench Verified (เกณฑ์มาตรฐานสำหรับการประเมินความสามารถของโมเดล AI ต่าง ๆ ในการแก้ปัญหาซอฟต์แวร์ในโลกการใช้งานจริง) แม้จะไม่มีการปรับเวลาทดสอบหรือปรับขนาดการอนุมานก็ตาม

การเขียนโค้ด agentic AI กำลังพลิกโฉมการพัฒนาซอฟต์แวร์ ด้วยการทำให้เวิร์กโฟลว์การเขียนโปรแกรมมีความอิสระที่จะทำได้ด้วยตนเอง มีประสิทธิภาพ และเข้าถึงได้มากขึ้น การเปิดโอเพ่นซอร์สความสามารถในการเขียนโค้ด agentic ที่มีสมรรถนะสูง และความเข้ากันได้อย่างไม่ติดขัดกับเครื่องมือและอินเทอร์เฟซต่าง ๆ ที่นักพัฒนาซอฟต์แวร์นิยมใช้ ส่งให้ Qwen3-Coder เป็นเครื่องมือทรงคุณค่าสำหรับนักพัฒนาซอฟต์แวร์ทั่วโลก

 

โมเดล Qwen3-Coder-480B-A35B-Instruct พร้อมใช้งานแล้วบน Hugging Face และ GitHub นอกจากนี้นักพัฒนาซอฟต์แวร์ยังสามารถเข้าใช้โมเดลนี้บน Qwen Chat หรือผ่าน APIs ที่คุ้มค่าใช้จ่ายบน Model Studio ซึ่งเป็นแพลตฟอร์มการพัฒนา generative AI ของอาลีบาบา

โมเดลการเขียนโค้ดที่ใช้ Qwen มียอดดาวน์โหลดทะลุ 20 ล้านครั้งทั่วโลก Tongyi Lingma ผู้ช่วยเขียนโค้ดที่ขับเคลื่อนโดย Qwen จะได้รับการอัปเกรดความสามารถด้าน agentic ของ Qwen3-Coder เร็ว ๆ นี้ และนับตั้งแต่เปิดตัวเมื่อเดือนมิถุนายน 2567 ฟีเจอร์ “AI Programmer” ของ Tongyi Lingma ที่นำเสนอการเติมโค้ดให้สมบูรณ์, การเพิ่มประสิทธิภาพให้เหมาะสม, สนับสนุนการดีบัก, การค้นหาตัวอย่าง และการสร้างการทดสอบ batch unit ได้สร้างโค้ดมาแล้วมากกว่า 3 พันล้านบรรทัด

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

  • Durable foundation for IT innovation fuels more intelligent hybrid cloud operations with AI-powered Linux management
  • Adds security features to help mitigate future quantum-based threats
  • Makes containers the language of the OS and new Red Hat Insights capabilities enable more informed decisions at build time
  • Empowers the next generation of developers with support for emerging architectures and software innovation

Red Hat, the world’s leading provider of open source solutions, today introduced Red Hat Enterprise Linux 10, the evolution of the world’s leading enterprise Linux platform to help meet the dynamic demands of hybrid cloud and the transformative power of AI. More than just an iteration, Red Hat Enterprise Linux 10 provides a strategic and intelligent backbone for enterprise IT to navigate increasing complexity, accelerate innovation and build a more secure computing foundation for the future.

As enterprise IT grapples with the proliferation of hybrid environments and the imperative to integrate AI workloads, the need for an intelligent, resilient and durable operating system has never been greater. Red Hat Enterprise Linux 10 rises to this challenge, delivering a platform engineered for agility, flexibility and manageability, all while retaining a strong security posture against the software threats of the future.

Intelligent operations for complex environments: Introducing AI-powered Linux management with Lightspeed

According to a Red Hat-sponsored IDC study, “organizations [are] struggling to hire the Linux skill sets they need to operate and support their expanding fleet of distributions, which opens them up to further risk around security, compliance and application downtime. As technology demands continue to evolve and necessitate the use of more of these deployment scenarios and mechanisms, Red Hat is one of the few providers that can feasibly address all of them.”

Addressing this critical skills gap in Linux administration, Red Hat Enterprise Linux 10 introduces Red Hat Enterprise Linux Lightspeed. Integrating generative AI (gen AI) directly within the platform helps provide context-aware guidance and actionable recommendations through a natural language interface. Tapping decades of Red Hat Enterprise Linux-specific knowledge, it assists with tasks from troubleshooting common issues to best practices for managing complex IT estates. This empowers both newer and experienced IT professionals to manage vast Red Hat Enterprise Linux environments with greater efficiency by bringing AI-powered help straight to the command line in Red Hat Enterprise Linux 10.

Enhanced security features for the quantum frontier

Recognizing the long-term security implications of quantum computing, Red Hat Enterprise Linux 10 leads the industry as the first enterprise Linux distribution to integrate National Institute of Standards and Technology (NIST) standards for post-quantum cryptography. This proactive approach equips organizations to better defend against future “harvest now; decrypt later” attacks and meet evolving regulatory requirements. This includes incorporating quantum-resistant algorithms to mitigate the risk of future decryption of currently harvested data and post-quantum signature schemes to validate the integrity and authenticity of software packages and TLS certificates.

Unifying hybrid infrastructure and shifting decision-making left

Red Hat Enterprise Linux 10 delivers a paradigm shift in enterprise operating systems with image mode. This container-native approach unifies the build, deployment and management of both the operating system and applications within a single, streamlined workflow. Customers can now manage their entire IT landscape, from containerized applications to the underlying platform, with the same consistent tools and techniques. This approach significantly minimizes configuration drift by proactively preventing unexpected patch deviations and establishing a unified set of practices for application developers and IT operations teams.

IT organizations frequently need to make critical decisions at build time when it comes to the specific mix of packages in a standard operating environment (SOE). Red Hat Enterprise Linux 10 adds Red Hat Insights image builder package recommendations to help teams make more informed and tailored package decisions for their specific deployment before they impact production. Additionally, Red Hat Insights planning offers a view into the Red Hat Enterprise Linux roadmap and lifecycle, enhancing the platform’s future-readiness.

From cloud-native to AI-ready: Red Hat Enterprise Linux 10 powers what’s next

Red Hat Enterprise Linux’s decades-long legacy as the trusted backbone for production environments extends with Red Hat Enterprise Linux 10, underpinning both current and future technology needs. The latest version of the platform serves as the bedrock for Red Hat AI, Red Hat’s curated and optimized AI solutions that encompass Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI).

Key additions in Red Hat Enterprise Linux 10 include capabilities and innovations to:

Availability

Red Hat Enterprise Linux 10 is now generally available through the Red Hat Customer Portal. Developers can also access Red Hat Enterprise Linux 10 via no-cost Red Hat Developer programs, offering a wealth of resources to get started, including software access, how-to videos, demos and documentation.

Supporting Quotes

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
 “Red Hat Enterprise Linux 10 is engineered to empower enterprise IT and developers to not just manage the present, but to architect the future. With intelligent features using gen AI, unified hybrid cloud management through image mode and a proactive approach to security with post-quantum cryptography, Red Hat Enterprise Linux 10 provides the robust and innovative foundation needed to thrive in the era of hybrid cloud and AI.”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
 “In collaboration with Red Hat, ABB is committed to extending operational consistency for industrial use cases across edge and hybrid cloud environments, transforming process automation and industrial controls for the future. Using image mode for Red Hat Enterprise Linux, ABB is able to simplify the operating system build process to streamline our development lifecycle and implement a standardized installation method. This results in faster product innovations and a more appliance-like workflow for deployments, so customers can spend less time in setup and focus more on putting ABB’s technologies to use to generate business outcomes.”

Ryan Caskey, research manager, IDC
“Due to evolving operational requirements, organizations can accumulate diverse Linux distributions, and the consistent maintenance of these heterogeneous environments can become increasingly challenging. Large-scale and intricate infrastructures, as well as teams that are routinely understaffed, underskilled and underfunded, present problems in need of solutions. Red Hat Enterprise Linux aims to establish a robust, foundational layer for both current and future IT strategic initiatives.”

Anish Bhatt, software architect, Salesforce

“In today’s increasingly complex technology landscape, managing infrastructure at scale can be a challenge. Image mode allows consolidation of our pipelines and build processes, which are increasingly geared towards containerization. It has also brought stability to our environments, reducing configuration drift and enabling a more consistent deployment experience. We can also upgrade between major and minor releases of Red Hat Enterprise Linux with less operational risk due to the ability to quickly roll back changes. Image mode is a meaningful step towards simplifying cloud-native application development and IT operations in a single pipeline.”

1IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024