Agentic AI in the enterprise: An evolution, not a revolution

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

Agentic AI in the enterprise: An evolution, not a revolution

Agentic AI is expected to revolutionize a vast array of workflows through autonomous, AI-driven automation. This may work easiest for a startup without legacy systems, processes, or people to account for. But established enterprises tend to have complex ecosystems built over decades: established processes that verify compliance, legacy systems that handle mission-critical operations, and experienced teams whose institutional knowledge drives business success. For enterprises, the real value lies not in disruption, but in strategic augmentation of existing operations. Think evolution, not revolution.

In this article, we’ll provide specific recommendations on how enterprises can benefit through strategic integration of AI tools and processes rather than rebuilding their business from the ground up.

The adoption of agentic AI presents a new set of strategic considerations. Unlike traditional AI—which is built for a single task—agentic AI can make its own decisions to achieve a specific goal. This shift from simple automation to a system of self-governing agents requires a thoughtful, phased approach. Here are three ways enterprises can benefit from agentic AI.

  1. Experimenting in low-risk areas

Enterprises can more safely explore agentic AI’s potential by starting with contained, low-impact environments where failure won’t compromise mission-critical operations. This experimental approach will help your teams build confidence and expertise while minimizing risk. For example, these could be well-defined repetitive tasks, which are easier for an agent to learn and execute.

Example use cases:

  • Customer service:Conversational agents can handle basic inquiries or support requests, with seamless handoffs to humans for complex issues. These agents can guide a customer through a password reset process, update shipping addresses, or process simple returns by interfacing with existing customer portals and backend systems.
  • Administrative assistant:Agents can summarize meetings, follow up on action items, and summarize and prioritize emails to improve worker productivity.

Applications like these allow workers to focus on higher-value, complex, or sensitive customer issues that truly require human nuance. In addition, this approach demonstrates the value of agents in a controlled environment and helps organizations develop the skills and frameworks needed for larger implementations.

  1. Improving performance of backend operations

Agentic AI can work behind the scenes to help make current operations more efficient and intelligent. This approach uses your existing infrastructure while adding a layer of autonomous decision-making that improves performance without requiring users to change their workflows. In effect, agentic AI acts as a smart abstraction layer that can observe data flowing through your core, often complex, backend operations (ERP, CRM, or supply chain systems) and identify bottlenecks, proactively trigger actions, and even correct minor errors.

Example use cases:

  • Financial watchdog:Agents that monitor expense patterns, flag anomalies for human review, and automatically categorize transactions.
  • Quality inspector:Agents that analyze production data in real-time, identifying potential quality issues and recommending preventive actions.

This approach can deliver immediate value without disrupting established workflows. Your teams continue using familiar systems while benefiting from enhanced intelligence and automation working invisibly in the background.

  1. Trainee managers with human-in-the-loop

For enterprises, the real promise of agentic AI may not be full autonomy but collaborative autonomy. Think of agents as trainee managers or co-pilots that have tiered decision authority. The agents have autonomy for low-risk, routine decisions while escalating complex or high-impact decisions to human managers. The agent performs tasks like data gathering, analysis, and initial recommendation, but a human manager provides the final sign-off, especially for decisions that have significant financial, reputational, or legal implications.

Example use cases:

  • Business loan officer:The agent autonomously gathers data from financial reports, credit bureaus, and market trends. It then processes this information, analyzes risk factors, and even generates a preliminary recommendation (e.g., “Approve with conditions,” “Deny,” or “Requires further review”). A human loan officer reviews, validates, and makes the ultimate decision.
  • Sales manager:A sales manager agent coordinates multiple sub-agents working on a sales proposal. One agent pulls competitive insights, another agent drafts the proposal, and a third agent checks for pricing accuracy. A human sales manager finalizes and approves the proposal before submission.

Think of this approach as hiring a trainee manager who shadows experienced colleagues, gradually taking on more responsibility as they prove their competence. The agent handles routine work that frees up human managers for higher level strategic work while maintaining oversight and control over these AI assistants.

How Red Hat can help enterprises adopt agentic AI

Red Hat, with its deep roots in open source, is uniquely positioned to help enterprises navigate this evolutionary path to agentic AI. Our approach emphasizes control, flexibility, and enterprise-grade support, which are critical for integrating AI into existing, complex environments.

  • Open source foundations for flexibility and control: Red Hat’s portfolio, including Red Hat AI,  provides a robust, open source foundation for building, deploying, and managing AI models and agentic systems.
  • Hybrid cloud consistency:Enterprises often operate across on-premises data centers, multiple public clouds, and edge environments. Red Hat’s platforms are designed for the hybrid cloud, so your agentic AI solutions can be developed, deployed, and managed consistently, no matter where your data resides or your applications run. This consistency simplifies operations and enables for seamless scaling.
  • Operationalizing AI with MLOps and LLMOps: Red Hat OpenShift AIprovides a comprehensive platform for managing the entire AI lifecycle, from data preparation and model training to deployment and monitoring. This includes capabilities for MLOps (Machine Learning Operations) and LLMOps (Large Language Model Operations), which are essential for taking agentic AI from experimentation to reliable production. It helps teams collaborate, automate workflows, and verify that models are performing as expected.

Red Hat provides the enterprise-grade, open source platform that allows businesses to safely experiment, build, and scale agentic AI capabilities within their existing IT landscape.

Agentic AI for the enterprise is not about a disruptive “big bang” that sweeps away your current investments. Instead, it offers a pragmatic, evolutionary path to enhanced efficiency and innovation. By focusing on improving existing backend operations, experimenting in low-risk frontend areas, and thoughtfully integrating agents as “trainee managers” with human oversight, businesses can incrementally unlock significant value over time.

The goal is to augment your organization’s capabilities, empower your people, and make your enterprise more intelligent, agile, and resilient for the future.

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

มีการคาดการณ์ว่า Agentic AI จะเข้ามาปฏิวัติขั้นตอนการทำงานหลายด้านผ่านระบบอัตโนมัติอิสระที่ขับเคลื่อนด้วย AI ธุรกิจที่เป็นสตาร์ทอัพจะได้รับประโยชน์จากแนวทางนี้อย่างมาก เพราะสตาร์ทอัพไม่ต้องกังวลถึงระบบ กระบวนการ และบุคลากรที่มีอยู่เดิม แต่องค์กรใหญ่ ๆ ที่อยู่มานาน มักมีระบบที่มีความซับซ้อนเนื่องจากสร้างขึ้นต่อเนื่องมาหลายทศวรรษ เช่น กระบวนการต่าง ๆ ที่ตั้งขึ้นมาเพื่อตรวจสอบการปฏิบัติตามข้อกำหนด ระบบดั้งเดิมต่าง ๆ ที่ใช้กับการดำเนินงานสำคัญ ๆ และทีมงานที่มีประสบการณ์และมีองค์ความรู้เกี่ยวกับองค์กรที่สะสมมาอย่างยาวนานและเป็นตัวขับเคลื่อนความสำเร็จให้กับธุรกิจ ดังนั้นสำหรับองค์กรขนาดใหญ่แล้ว คุณค่าที่แท้จริงไม่ได้อยู่ที่การเปลี่ยนแปลงแบบหน้ามือเป็นหลังมือ แต่อยู่ที่การเสริมศักยภาพวิธีการดำเนินงานที่ใช้อยู่ในปัจจุบันอย่างมีกลยุทธ์ และนั่นคือ วิวัฒนาการ หรือ การเปลี่ยนแปลงแบบค่อยเป็นค่อยไปอย่างมีระบบ ไม่ใช่การปฏิวัติ หรือ การยกเครื่องใหม่ทั้งหมดอย่างทันทีทันใด

บทความนี้มีคำแนะนำเฉพาะเกี่ยวกับวิธีที่องค์กรสามารถสร้างประโยชน์ ด้วยการบูรณาการเครื่องมือและกระบวนการ AI อย่างมีกลยุทธ์ แทนที่จะต้องสร้างขึ้นมาใหม่ทั้งหมด 

การนำ Agentic AI มาใช้ ทำให้เกิดข้อพิจารณาเชิงกลยุทธ์ชุดใหม่ เนื่องจาก Agentic AI สามารถทำการตัดสินใจต่าง ๆ เพื่อให้บรรลุเป้าหมายเฉพาะที่ตั้งไว้ได้ด้วยตัวเอง ซึ่งต่างจาก AI แบบเดิมที่ออกแบบมาเพื่อทำงานตามคำสั่งเพียงอย่างเดียว การเปลี่ยนจากระบบอัตโนมัติทั่วไป ไปสู่ระบบเอเจนต์ที่กำกับดูแลตัวเองและตัดสินใจได้เองนั้น จำเป็นต้องมีแนวทางที่รัดกุมและดำเนินการเป็นขั้นเป็นตอน ต่อไปนี้คือแนวทางสามประการที่จะช่วยให้องค์กรได้รับประโยชน์จาก Agentic AI 

1.ทดลองใช้กับงานที่มีความเสี่ยงต่ำ 

องค์กรสามารถใช้ศักยภาพของ agentic AI ได้อย่างปลอดภัยมากขึ้น ด้วยการเริ่มใช้กับสภาพแวดล้อมที่มีขอบเขตชัดเจนและมีความเสี่ยงต่ำที่เมื่อเกิดความล้มเหลวแล้วจะไม่กระทบต่อการดำเนินงานสำคัญ ๆ ของธุรกิจ แนวทางเชิงทดลองนี้ช่วยสร้างความมั่นใจและความเชี่ยวชาญให้ทีมไปพร้อม ๆ กับการลดความเสี่ยง เช่น การใช้ agentic AI จัดการงานที่ต้องทำซ้ำ ๆ และมีรูปแบบชัดเจน ซึ่งเอเจนต์สามารถเรียนรู้และดำเนินการได้โดยง่าย 

ตัวอย่างการใช้งาน:

  • การบริการลูกค้า: ตัวแทนการสนทนา (conversational agents) สามารถจัดการกับคำถามพื้นฐานหรือคำขอรับบริการได้ และสามารถส่งต่อไปยังเจ้าหน้าที่ที่เป็นมนุษย์เมื่อเผชิญปัญหาที่ซับซ้อนได้อย่างราบรื่น เอเจนต์เหล่านี้สามารถแนะนำลูกค้าในการรีเซ็ตรหัสผ่าน อัปเดตที่อยู่จัดส่ง หรือดำเนินการคืนสินค้าที่ไม่ซับซ้อนได้ ด้วยการเชื่อมต่อกับพอร์ทัลลูกค้าและระบบหลังบ้านที่มีอยู่ 
  • ผู้ช่วยฝ่ายธุรการ: เอเจนต์สามารถสรุปการประชุม ติดตามงานที่ได้รับมอบหมาย สรุปและจัดลำดับความสำคัญของอีเมล เพื่อช่วยเพิ่มประสิทธิภาพในการทำงาน 

การใช้งานในลักษณะนี้ช่วยให้พนักงานมุ่งเน้นไปที่งานที่ซับซ้อน มีคุณค่าสูงกว่า หรืออ่อนไหวต่อความรู้สึกของลูกค้า ซึ่งต้องอาศัยความเข้าอกเข้าใจของมนุษย์อย่างแท้จริง และยังแสดงให้เห็นถึงคุณค่าของเอเจนต์ในสภาพแวดล้อมที่ควบคุมได้ พร้อมทั้งช่วยให้องค์กรพัฒนาทักษะและกรอบการทำงานที่จำเป็นสำหรับการนำไปใช้ในระดับที่ใหญ่ขึ้น 

  1. เพิ่มประสิทธิภาพการดำเนินงานของระบบหลังบ้าน

Agentic AI สามารถทำงานเบื้องหลังเพื่อช่วยให้การดำเนินงานปัจจุบันมีประสิทธิภาพและชาญฉลาดมากขึ้น แนวทางนี้ใช้โครงสร้างพื้นฐานที่มีอยู่เดิมขององค์กร และเพิ่มความสามารถในการตัดสินใจได้อย่างอิสระ เพื่อเพิ่มประสิทธิภาพการทำงาน โดยผู้ใช้งานไม่จำเป็นต้องเปลี่ยนรูปแบบการทำงาน กล่าวได้ว่า agentic AI ทำหน้าที่เป็นเลเยอร์อัจฉริยะที่สามารถสังเกตข้อมูลที่ไหลผ่านการดำเนินงานเบื้องหลังสำคัญ ๆ ซึ่งมักมีความซับซ้อน เช่น ระบบ ERP, CRM หรือระบบซัพพลายเชน และสามารถตรวจหาคอขวด กระตุ้นการทำงานเชิงรุก ไปจนถึงแก้ไขข้อผิดพลาดเล็กน้อยได้ 

ตัวอย่างการใช้งาน:

  • ผู้ตรวจสอบทางการเงิน: คือเอเจนต์ที่คอยตรวจสอบรูปแบบการใช้จ่าย แจ้งเตือนความผิดปกติให้มนุษย์ตรวจสอบ และจัดหมวดหมู่ธุรกรรมโดยอัตโนมัติ
  • เจ้าหน้าที่ตรวจสอบคุณภาพ: คือเอเจนต์ที่วิเคราะห์ข้อมูลการผลิตแบบเรียลไทม์ ระบุปัญหาคุณภาพที่อาจเกิดขึ้น และแนะนำแนวทางป้องกัน 

แนวทางนี้สามารถสร้างคุณค่าได้ทันทีโดยไม่รบกวนกระบวนการทำงานที่มีอยู่ ทีมงานยังคงใช้ระบบที่คุ้นเคย ในขณะเดียวกันก็ได้รับประโยชน์จากความฉลาดและระบบอัตโนมัติที่ทำงานอย่างเงียบ ๆ อยู่เบื้องหลัง

  1. ผู้จัดการฝึกหัดที่กำกับดูแลโดยมนุษย์

ศักยภาพที่แท้จริงของ agentic AI สำหรับองค์กรนั้น อาจไม่ใช่การทำงานอัตโนมัติเต็มรูปแบบ แต่เป็นการทำงานอัตโนมัติแบบร่วมมือกัน โดยสามารถมองเอเจนต์เสมือนเป็น ‘ผู้จัดการฝึกหัด’ หรือ ‘ผู้ช่วย’ ที่มีอำนาจตัดสินใจเป็นลำดับขั้น โดยเอเจนต์จะตัดสินใจงานประจำต่าง ๆ ที่มีความเสี่ยงต่ำ ขณะที่งานที่ซับซ้อนหรือมีผลกระทบสูงจะถูกส่งต่อให้ผู้จัดการที่เป็นมนุษย์ดูแล เอเจนต์จะดำเนินการงานต่าง ๆ เช่น เก็บรวบรวมข้อมูล วิเคราะห์ และเสนอข้อแนะนำเบื้องต้น ขณะที่ผู้จัดการที่เป็นมนุษย์จะเป็นผู้อนุมัติขั้นสุดท้าย โดยเฉพาะอย่างยิ่งในการตัดสินใจที่มีนัยสำคัญทางการเงิน ชื่อเสียง หรือมีผลกระทบทางกฎหมาย 

ตัวอย่างการใช้งาน:

  • เจ้าหน้าที่สินเชื่อธุรกิจ: เอเจนต์จะรวบรวมข้อมูลจากรายงานการเงินและแหล่งข้อมูลอื่น ๆ จากนั้นจะวิเคราะห์ความเสี่ยง และสร้างคำแนะนำเบื้องต้น เช่น “อนุมัติแบบมีเงื่อนไข”, “ปฏิเสธ”, หรือ “ต้องการการตรวจสอบเพิ่มเติม” ก่อนที่เจ้าหน้าที่สินเชื่อที่เป็นมนุษย์จะเข้ามาพิจารณา ตรวจสอบ และตัดสินใจขั้นสุดท้าย
  • ผู้จัดการฝ่ายขาย: เอเจนต์ผู้จัดการฝ่ายขายจะประสานงานกับตัวแทนย่อยเพื่อจัดทำข้อเสนอการขาย เช่น เอเจนต์หนึ่งดึงข้อมูลคู่แข่ง ในขณะที่อีกเอเจนต์ร่างข้อเสนอ และอีกเอเจนต์ตรวจสอบความถูกต้องของราคา จากนั้นผู้จัดการขายตัวจริงที่เป็นมนุษย์จะเป็นผู้สรุปและอนุมัติข้อเสนอก่อนดำเนินการขั้นต่อไป

แนวทางนี้เหมือนกับการจ้างผู้จัดการฝึกหัดที่เรียนรู้งานจากเพื่อนร่วมงานที่มีประสบการณ์และค่อย ๆ รับผิดชอบงานเพิ่มขึ้นเมื่อได้พิสูจน์ความสามารถแล้ว เอเจนต์ช่วยจัดการงานประจำเพื่อช่วยให้ผู้จัดการที่เป็นมนุษย์มีเวลาไปทำงานเชิงกลยุทธ์ที่สำคัญกว่าโดยยังคงความสามารถในการกำกับดูแลเอเจนต์เหล่านี้ได้อย่างใกล้ชิด

เร้ดแฮทกับการสนับสนุนองค์กรธุรกิจให้ใช้ agentic AI 

เร้ดแฮทมีรากฐานแข็งแกร่งในด้านโอเพ่นซอร์ส และสามารถนำทางองค์กรต่าง ๆ ให้เดินบนเส้นทางวิวัฒนาการไปสู่การใช้ agentic AI แนวทางของเร้ดแฮทเน้นที่การควบคุม ความยืดหยุ่น และให้การสนับสนุนที่มีคุณภาพระดับองค์กร ซึ่งเป็นสิ่งสำคัญมากต่อการบูรณาการ AI เข้ากับสภาพแวดล้อมที่ซับซ้อนที่องค์กรเหล่านั้นใช้อยู่

  • รากฐานโอเพ่นซอร์สเพื่อความยืดหยุ่นและการควบคุม: พอร์ตโฟลิโอของเร้ดแฮท รวมถึง Red Hat AI มอบรากฐานโอเพ่นซอร์สที่แข็งแกร่งสำหรับการสร้าง ติดตั้ง และบริหารจัดการโมเดล AI และระบบ agentic ต่าง ๆ
  • ความสอดคล้องกันของไฮบริดคลาวด์: องค์กรมักทำงานข้ามสภาพแวดล้อมไอทีต่าง ๆ ทั้งที่เป็นดาต้าเซ็นเตอร์ที่อยู่ในองค์กร, พับลิคคลาวด์หลายระบบ, และ edge แพลตฟอร์มของเร้ดแฮท ออกแบบมาเพื่อการใช้ไฮบริดคลาวด์ ดังนั้นองค์กรสามารถพัฒนา ใช้ และบริหารจัดการโซลูชัน agentic AI ได้อย่างสอดคล้องกันไม่ว่าจะเก็บข้อมูลไว้ที่ใด หรือแอปพลิเคชันขององค์กรจะทำงานอยู่บนสภาพแวดล้อมใด ความสอดคล้องคงเส้นคงวานี้ช่วยลดความยุ่งยากในการดำเนินงานและช่วยให้สามารถขยายขนาดการทำงานได้อย่างราบรื่น
  • การใช้งาน AI ด้วย MLOps และ LLMOps: Red Hat OpenShift AI มอบแพลตฟอร์มที่สมบูรณ์แบบสำหรับการบริหารจัดการไลฟ์ไซเคิลของ AI ทั้งหมด ตั้งแต่การเตรียมข้อมูลและการเทรนโมเดล ไปจนถึง การใช้งาน และการติดตามตรวจสอบ ซึ่งรวมถึงความสามารถสำหรับ MLOps (Machine Learning Operations) และ LLMOps (Large Language Model Operations) ที่เป็นสิ่งจำเป็นในการทำให้ agentic AI ที่อยู่ในขั้นทดลองกลายเป็นการใช้งานจริงที่เชื่อถือได้ ทั้งยังช่วยให้ทีมงานต่าง ๆ ทำงานร่วมกัน สร้างเวิร์กโฟลว์อัตโนมัติ และตรวจสอบได้ว่าโมเดลกำลังทำงานตามที่คาดหมายไว้หรือไม่

Red Hat นำเสนอแพลตฟอร์มโอเพ่นซอร์สระดับองค์กรที่ช่วยให้ธุรกิจต่าง ๆ ทดลองใช้ สร้าง และปรับขนาดความสามารถของ agentic AI ได้อย่างปลอดภัย บนแลนด์สเคปไอทีที่องค์กรใช้อยู่

Agentic AI สำหรับองค์กร ไม่ใช่เรื่องการเปลี่ยนแปลงแบบ “บิ๊กแบง” ที่ทำให้การลงทุนในปัจจุบันที่องค์กรได้ลงทุนไปนั้นเสียเปล่า แต่เป็นการนำเสนอเส้นทางวิวัฒนาการที่เน้นความจริงจัง เพื่อเพิ่มประสิทธิภาพและนวัตกรรม การให้ความสำคัญกับการปรับปรุงประสิทธิภาพการดำเนินงานเบื้องหลังที่องค์กรใช้อยู่ การทดลองใช้กับงานที่มีความเสี่ยงต่ำ และการบูรณาการเอเจนต์ต่าง ๆ ในฐานะ “ผู้จัดการฝึกหัด” เข้ากับการควบคุมของมนุษย์อย่างรอบคอบ จะช่วยให้ธุรกิจสามารถค่อย ๆ ปลดล็อกคุณค่าสำคัญเพิ่มขึ้นเรื่อย ๆ

เป้าหมายคือการเพิ่มขีดความสามารถขององค์กร เสริมศักยภาพบุคลากร และทำให้องค์กรเป็นองค์กรที่ชาญฉลาด คล่องตัว และแข็งแกร่งมากขึ้นในอนาคต

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Article by Vincent Caldeira, Chief Technology Officer, APAC at Red Hat

Over the past year, the concept of “Sovereign AI” has evolved from an aspirational idea to a strategic priority for both governments and enterprises seeking to build AI systems that reflect their values, protect their data, and serve their unique societal or business objectives. As artificial intelligence becomes embedded in everything from public services to economic infrastructure, the ability to govern, control, and shape these systems is becoming a key differentiator.

This journey isn’t about isolationism or digital protectionism. Rather, it is about building AI that is trustworthy, performant, and inclusive, which means an AI rooted in local languages, regulatory frameworks, and cultural norms, yet still able to connect to and benefit from a global innovation ecosystem. Let’s explore the recent and major trends shaping the sovereign AI landscape and the growing role open source plays in this transformation.

From Nation-States to Enterprises: Who is Pursuing Sovereign AI?

At its core, sovereign AI is about having control over data, infrastructure, and the development and deployment of AI technologies. This drive toward sovereignty is being seen across both the public and private sectors.

Governments are pursuing sovereign AI to ensure alignment with national regulations such as GDPR, the EU AI Act, Thai PDPA or even the draft Thai AI Law, to mitigate risks to national security, and to reinforce cultural or linguistic relevance in AI systems. From ensuring data does not cross borders, to creating AI that reflects societal norms and democratic values, governments are investing in AI that they can trust and shape.

Enterprises, especially those in regulated industries like finance and healthcare, are also embracing the concept. These organizations are motivated by the desire to reduce dependency on third-party providers, maintain ownership of their proprietary data, and deploy AI in secure and cost-effective environments, often within hybrid or on-premise infrastructures.

Open Source: The Cornerstone of a Sovereign AI Strategy

Open source is emerging as the critical foundation for achieving AI sovereignty. This is not because it enables isolation, but because it grants agency.

With access to “open source” (technically, open weights) models such as LLaMA, Falcon, Qwen, and Mistral, and open source tooling covering the entire spectrum of requirements to build and maintain scalable AI platforms, governments and enterprises can inspect, modify, and fine-tune AI systems to suit their specific needs. Properly implemented, open source AI platforms allow full visibility into the data flows and logic driving AI outputs, and offer the flexibility to innovate faster through collaboration with a global community.

Recent research from the Linux Foundation indicates that 41% of organizations express a preference for open source GenAI technologies, while only 9% lean towards proprietary solutions.

Models of Sovereignty: Centralized, Decentralized, or Collaborative?

In Europe, countries are combining strong regulatory frameworks with investments in open AI infrastructure. Initiatives like the AI Act, the BLOOM language model, and the Gaia-X project reflect a philosophy that emphasizes control, trust, and open collaboration.

The United States is leaning on the strength of its private sector and open-source community contribution, with state-level R&D investments complementing a broader innovation-led approach.

China, in contrast, is pursuing a centralized, state-led model of sovereignty, but this effort is increasingly powered by significant investments from both state-backed research institutions and leading technology firms. Major players like Alibaba, through its Qwen model series, and startups such as DeepSeek are actively developing frontier LLMs that rival global counterparts. These initiatives are aligned with national goals for technological self-reliance, while also adhering to strict content governance policies set by the government. The result is a rapidly advancing ecosystem where public mandates and private innovation converge to build end-to-end AI capabilities tailored to domestic needs and values.

Meanwhile, countries in ASEAN and the Middle East are making bold investments in regional AI capacity. Singapore’s SEA-LION and the UAE’s Falcon projects showcase how open source and regional collaboration can be leveraged to achieve sovereignty, especially in multilingual and culturally specific contexts.

While governance models differ, a shared thread unites these efforts: the ambition to tailor AI to local values, languages, needs, and goals.

The Dimensions of Digital Sovereignty

Sovereign AI doesn’t exist in isolation. It is deeply connected to broader principles of digital sovereignty, which can be broken down into three key dimensions:

  • Technology Sovereignty: As AI systems become increasingly foundational to public services and economic competitiveness, the ability to independently design, build, and operate these systems is critical. Technology sovereignty refers not only to visibility into model architecture, training data, and system behavior, but also to control over the hardware and platforms on which these models run. A key concern is the widespread dependence on foreign-made accelerators, such as GPUs from NVIDIA and AMD, which currently dominate the AI compute landscape. In response, countries and enterprises are investing in alternative supply chains, domestic chip manufacturing, and open hardware initiatives to reduce strategic vulnerabilities. Achieving technology sovereignty means being able to develop and deploy AI models on infrastructure that is both trusted and locally governed, minimizing risks associated with geopolitical tensions, export controls, or external platform dependencies.
  • Operational Sovereignty: This dimension addresses not only where AI systems are deployed—such as on-premises or in a sovereign cloud—but also who has the authority, skills, and access to operate and maintain them. For governments and enterprises seeking greater autonomy, it is not sufficient to own the infrastructure; operational sovereignty means ensuring that AI systems can be managed by locally trusted personnel with the appropriate skills and clearance. This includes building a talent pipeline of AI engineers, MLOps specialists, and cybersecurity professionals, as well as reducing reliance on foreign managed service providers. In many cases, national policies are beginning to mandate that critical digital infrastructure must be supported by staff of specific nationality or within legal jurisdictions to safeguard sensitive data and systems from foreign influence or supply chain risks. Achieving operational sovereignty ensures that AI systems remain functional, secure, and accountable under local control, even in times of global disruption.
  • Data Sovereignty: Data sovereignty pertains to the legal and ethical governance of data—specifically, ensuring that data is collected, stored, and processed within the boundaries of national laws and values. In a world increasingly reliant on AI, data is not just an asset; it is a strategic resource. Sovereign AI systems must operate in compliance with local regulations, including privacy laws, data residency requirements, and consent frameworks. Moreover, data governance must reflect cultural and societal expectations, particularly in areas like biometric data, healthcare, and finance. Countries and enterprises are therefore investing in trusted data infrastructures, federated data platforms, and national datasets to maintain control over critical information assets. The ability to govern who can access, analyze, and share data – especially in multi-cloud or cross-border contexts – is essential to maintaining trust, compliance, and competitive advantage.

Open source enhances each of these pillars. It supports transparency, enables interoperability, and provides a foundation for aligning systems with both national regulations and organizational strategies.

Challenges Ahead: Compute, Data, Skills, and Governance

Despite growing momentum, implementing sovereign AI at scale remains complex. Several challenges persist:

Access to high-performance computing remains a major constraint, with shortages in GPUs and the cost of training large models proving prohibitive for many governments and businesses. The availability of high-quality, localized datasets is also a limiting factor, particularly for underrepresented languages or niche domains.

Workforce development is another pressing issue. There is a global shortage of professionals with the skills to build, deploy, and govern AI systems responsibly. At the same time, the absence of shared technical and ethical standards across jurisdictions can create barriers to cross-border collaboration and model interoperability.

Overcoming these obstacles will require a combination of public investment, private innovation, international cooperation, and sustained support for open source communities.

What’s Next? A Sovereign, Open, and Responsible Future

We are entering a critical phase where the capabilities of AI will help define national competitiveness and organizational resilience. Those that succeed will not necessarily be the ones with the largest models, but rather those with systems that are most aligned with their strategic priorities and stakeholder needs.

Sovereign AI, when grounded in open source principles, provides a powerful pathway forward. It enables localized innovation without duplicating global efforts. It fosters transparency and accountability without compromising on performance. And it supports a more ethical and sustainable AI ecosystem, with governance models that reflect the values of those who build and use it.

Open source is not just a tool for achieving AI sovereignty. In many ways, it is the model of sovereignty itself.

If your organization is exploring its own path toward Sovereign AI – whether in government, industry, or research – this is the time to embrace openness as a lever for control, not a concession. By doing so, we can build an AI future that is not only powerful and intelligent but also inclusive, transparent, and truly our own.

Sovereign AI: กลยุทธ์ใหม่ที่รัฐและธุรกิจต้องมี

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: กลยุทธ์ใหม่ที่รัฐและธุรกิจต้องมี

บทความโดย นายวินเซนต์ คัลเดรา ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีประจำภูมิภาคเอเชียแปซิฟิกของเร้ดแฮท

 ในช่วงปีที่ผ่านมา แนวคิด “Sovereign AI” หรือความมีอิสระในการสร้างและควบคุม AI ได้ด้วยตนเอง ได้พัฒนาจากแนวคิดที่เป็นแรงบันดาลใจ ไปเป็นความสำคัญเชิงยุทธศาสตร์ของภาครัฐและองค์กรธุรกิจต่าง ๆ ที่กำลังแสวงหาวิธีการสร้างระบบ AI ที่สะท้อนถึงคุณค่าขององค์กร ตอบโจทย์ด้านการปกป้องข้อมูล และตอบสนองวัตถุประสงค์ทางธุรกิจหรือทางสังคมที่เป็นเอกลักษณ์เฉพาะของตน

การที่ AI กลายมาเป็นสิ่งที่ฝังอยู่ในทุกสิ่งทุกอย่าง ตั้งแต่บริการสาธารณะ ไปจนถึงโครงสร้างพื้นฐานทางเศรษฐกิจ ทำให้ความสามารถในการควบคุม สั่งการ และกำหนดรูปแบบระบบต่าง ๆ เหล่านี้ กำลังกลายเป็นตัวสร้างความแตกต่างที่สำคัญ

วิถีทางนี้ไม่ใช่การโดดเดี่ยวตัวเองหรือมีนโยบายกีดกันหรือควบคุมทางดิจิทัล แต่เป็นเรื่องเกี่ยวกับการสร้าง AI ที่เชื่อถือได้ มีประสิทธิภาพ และครอบคลุม ซึ่งหมายถึง AI ที่มีรากฐานมาจากภาษาท้องถิ่น เป็นไปตามกรอบการกำกับดูแลและบรรทัดฐานทางวัฒนธรรมของท้องถิ่นนั้น ๆ แต่ยังคงสามารถเชื่อมต่อและได้รับประโยชน์จากระบบนิเวศทางนวัตกรรมจากทั่วโลก

แนวโน้มสำคัญล่าสุดที่เป็นตัวกำหนดภูมิทัศน์ Sovereign AI รวมถึงบทบาทที่เพิ่มขึ้นของโอเพ่นซอร์สที่เกี่ยวกับการเปลี่ยนแปลงดังกล่าวนี้ประกอบด้วย

ตั้งแต่ระดับประเทศไปถึงองค์กรธุรกิจ:  ใครบ้างที่กำลังแสวงหา Sovereign AI

โดยแก่นแท้แล้ว Sovereign AI เป็นเรื่องเกี่ยวกับการมีอำนาจควบคุมข้อมูล โครงสร้างพื้นฐาน การพัฒนาและการใช้เทคโนโลยี AI ซึ่งเป็นความต้องการที่เกิดขึ้นทั้งในภาครัฐและภาคเอกชน

ภาครัฐหลายแห่งกำลังมุ่งสู่การใช้ Sovereign AI เพื่อให้มั่นใจได้ว่าการดำเนินงานด้าน AI จะเป็นไปตามกฎระเบียบของประเทศ เช่น GDPR, EU AI Act รวมถึง PDPA ของไทย และร่างกฎหมาย AI ที่กำลังดำเนินการอยู่ เพื่อลดความเสี่ยงด้านความมั่นคงของประเทศ และเพื่อส่งเสริมความแข็งแกร่งทางวัฒนธรรมและภาษาในระบบ AI ต่าง ๆ ดังนั้นภาครัฐต่างลงทุนด้าน AI ที่ตนไว้ใจและกำหนดรูปแบบได้เอง เพื่อตอบโจทย์เฉพาะของตน ตั้งแต่ทำให้มั่นใจได้ว่าข้อมูลจะไม่ถูกนำออกนอกประเทศ ไปจนถึงการสร้าง AI ที่สะท้อนบรรทัดฐานทางสังคมและคุณค่าของความอิสระที่สามารถควบคุมได้ด้วยตนเอง

องค์กรต่าง ๆ โดยเฉพาะองค์กรที่อยู่ในอุตสาหกรรมที่มีกฎระเบียบควบคุม เช่น การเงิน และ การดูแลสุขภาพ ต่างนำแนวคิดนี้ไปใช้เช่นเดียวกัน เนื่องจากองค์กรเหล่านี้ต้องการลดการพึ่งพาผู้ให้บริการภายนอก คงความเป็นเจ้าของข้อมูลที่เป็นกรรมสิทธิ์ของตน และใช้ AI บนสภาพแวดล้อมที่ปลอดภัยและคุ้มค่าการลงทุน ซึ่งโดยมากมักใช้โครงสร้างพื้นฐานไอทีแบบไฮบริดหรือที่ติดตั้งอยู่ภายในองค์กร (on-premise)

โอเพ่นซอร์ส: เสาหลักของกลยุทธ์ Sovereign AI

โอเพ่นซอร์สกำลังก้าวขึ้นเป็นโครงสร้างพื้นฐานสำคัญที่จะช่วยให้องค์กรประสบความสำเร็จในการควบคุม AI ของตน (AI sovereignty) ซึ่งไม่เพียงเพราะโอเพ่นซอร์สช่วยให้แยกออกมาเป็นเอกเทศได้เท่านั้นแต่ยังให้สิทธิ์ในการควบคุมด้วย

การเข้าถึงโมเดลด้านภาษาขนาดใหญ่ที่เป็นโอเพ่นซอร์ส(ในทางเทคนิค คือโอเพ่นเวท) ต่าง ๆ เช่น LLaMA, Falcon, Qwen, และ Mistral รวมถึงสามารถเข้าถึงเครื่องมือโอเพ่นซอร์สที่ครอบคลุมความต้องการทั้งหมดที่ต้องการใช้ในการสร้างและคงความสามารถในการปรับขนาดของแพลตฟอร์ม AI ต่าง ๆ ได้นั้น จะช่วยให้ภาครัฐและองค์กรธุรกิจสามารถตรวจสอบ ปรับเปลี่ยน และปรับแต่งระบบ AI ให้เหมาะกับความต้องการเฉพาะของตนได้ เมื่อมีการนำแพลตฟอร์ม open source AI ไปใช้อย่างเหมาะสม ผู้ใช้จะสามารถมองเห็นการเคลื่อนไหวหรือกระแสการไหลของข้อมูล และ ตรรกะหรือระบบการใช้เหตุผลที่ใช้ขับเคลื่อนผลลัพธ์ของ AI ทั้งยังมีความยืดหยุ่นในการสร้างสรรค์สิ่งใหม่ได้อย่างรวดเร็วผ่านความร่วมมือกับชุมชนทั่วโลก ทั้งนี้ งานวิจัยล่าสุดจาก Linux Foundation ระบุว่าองค์กร 41% ชื่นชอบเทคโนโลยี open source GenAI ในขณะที่มีเพียง 9% เท่านั้นที่ใช้โซลูชันที่มีกรรมสิทธิ์ 

รูปแบบของอำนาจควบคุม AI ควรเป็นแบบรวมศูนย์ กระจายอำนาจ หรือร่วมมือกัน

ประเทศต่าง ๆ ในยุโรปกำลังผสานกรอบการกำกับดูแลที่แข็งแกร่งเข้ากับการลงทุนโครงสร้างพื้นฐาน open AI เช่น AI Act, โมเดลภาษา BLOOM, และโปรเจกต์ Gaia-X สะท้อนให้เห็นหลักคิดที่เน้นการควบคุม ความไว้วางใจ และการทำงานร่วมกันแบบเปิด

สหรัฐอเมริกากำลังใช้จุดแข็งของภาคเอกชนและการมีส่วนร่วมของชุมชนโอเพ่นซอร์ส ด้วยการลงทุนด้านวิจัยและพัฒนาในระดับรัฐเพื่อส่งเสริมแนวทางที่ใช้นวัตกรรมเป็นตัวนำในวงกว้างมากขึ้น

ในทางตรงกันข้าม จีนกำลังใช้โมเดล sovereignty แบบรวมศูนย์ที่นำโดยภาครัฐ โดยได้รับแรงสนับสนุนจากการลงทุนสำคัญจากทั้งสถาบันวิจัยที่ได้รับการสนับสนุนจากรัฐ และบริษัทเทคโนโลยีชั้นนำต่าง ๆ มากขึ้นเรื่อย ๆ ผู้ให้บริการรายใหญ่เช่นอาลีบาบาที่เป็นเจ้าของชุดโมเดล Qwen และสตาร์ทอัพอย่าง DeepSeek กำลังพัฒนา LLMs ที่มีศักยภาพระดับแนวหน้าที่สามารถแข่งขันกับบริษัทระดับโลกอย่างแข็งขัน การริเริ่มเหล่านี้ สอดคล้องกับเป้าหมายระดับประเทศด้านการพึ่งพาตนเองทางเทคโนโลยี และการปฏิบัติตามนโยบายการกำกับดูแลเนื้อหาที่เข้มงวดที่กำหนดโดยรัฐบาล ผลลัพธ์ที่ได้คือระบบนิเวศที่ก้าวหน้าอย่างรวดเร็วจากการที่นโยบายและกฎเกณฑ์ของรัฐและนวัตกรรมของภาคเอกชนมาบรรจบกัน เพื่อสร้างความสามารถด้าน AI ครบวงจรที่ได้รับการปรับให้เหมาะกับความต้องการและคุณประโยชน์ที่ท้องถิ่นและประเทศต้องการ

ในขณะที่ประเทศในอาเซียนและตะวันออกกลางลงทุนพัฒนาศักยภาพด้าน AI ในระดับภูมิภาคอย่างหนัก โครงการ SEA-LION ของสิงคโปร์ และโครงการ Falcon ของ UAE เป็นตัวอย่างที่แสดงให้เห็นว่าโอเพ่นซอร์สและความร่วมมือระดับภูมิภาคจะช่วยให้บรรลุเป้าหมายการมีอำนาจควบคุมด้วยตนเอง (sovereignty) โดยเฉพาะในบริบทที่มีภาษาและวัฒนธรรมหลากหลายได้อย่างไร

แม้รูปแบบการกำกับดูแลจะต่างกัน แต่มีสิ่งหนึ่งที่เหมือนกัน คือ ความต้องการอย่างแรงกล้าที่จะปรับแต่ง AI ให้เข้ากันกับค่านิยมในท้องถิ่น ภาษา ความต้องการ และเป้าหมาย ของท้องถิ่นนั้น ๆ

มิติของความมีอิสระทางดิจิทัล (Digital Sovereignty)

Sovereign AI ไม่ใช่การโดดเดี่ยวตัวเอง แต่มีความเชื่อมโยงอย่างลึกซึ้งกับหลักการที่กว้างขวางของความมีอิสระทางดิจิทัล (digital sovereignty) ซึ่งแบ่งเป็นสามมิติหลักคือ

  • ความมีอิสระทางเทคโนโลยี (technology sovereignty): การที่ระบบ AI ข้ามาเป็นฐานของบริการสาธารณะต่าง ๆ และเป็นฐานหลักให้กับการแข่งขันทางเศรษฐกิจมากขึ้น ทำให้ความสามารถในการออกแบบ สร้าง และใช้งานระบบเหล่านี้ได้อย่างอิสระเป็นสิ่งสำคัญ 

Technology sovereignty ไม่เพียงหมายถึงความสามารถในการมองเห็นสถาปัตยกรรมของโมเดล ข้อมูลที่ใช้เทรน และพฤติกรรมของระบบเท่านั้น แต่ยังหมายถึงความสามารถในการควบคุมฮาร์ดแวร์และแพลตฟอร์มต่าง ๆ ที่โมเดลเหล่านั้นทำงานด้วย ข้อกังวลสำคัญประการหนึ่งคือ การที่ต้องพึ่งพาฮาร์ดแวร์เร่งความเร็ว (accelerators) จากต่างประเทศอย่างมาก เช่น GPU จาก NVIDIA และ AMD ซึ่งครองอิทธิพลด้านการประมวลผล AI ในปัจจุบัน  

ประเทศและองค์กรต่าง ๆ ตอบสนองต่อความกังวลนี้ด้วยการลงทุนในซัพพลายเชนทางเลือก การผลิตชิปในประเทศ และแนวคิดฮาร์ดแวร์แบบเปิด เพื่อลดช่องโหว่เชิงกลยุทธ์ต่าง ๆ  ทั้งนี้การบรรลุเป้าหมาย technology sovereignty นั้นหมายถึง ต้องสามารถพัฒนาและใช้โมเดล AI บนโครงสร้างพื้นฐานที่เชื่อถือได้และอยู่ภายใต้การควบคุมของท้องถิ่นเอง ต้องสามารถลดความเสี่ยงที่เกี่ยวกับความตึงเครียดทางภูมิรัฐศาสตร์ การควบคุมการส่งออกทางเทคโนโลยี หรือการต้องพึ่งพาแพลตฟอร์มจากภายนอกให้เหลือน้อยที่สุด

  • ความมีอิสระในการปฏิบัติงาน (operational sovereignty): มิตินี้ไม่ได้ดูเพียงว่าใช้ระบบ AI ที่ไหน เช่น ใช้อยู่ภายในองค์กร (on-premises) หรือใช้บนคลาวด์ของตนเอง (sovereign cloud) แต่ยังต้องดูว่าใครมีอำนาจ มีทักษะ และสามารถเข้าถึงระบบเพื่อดำเนินงานและบำรุงรักษาระบบเหล่านั้นด้วย การเป็นเจ้าของโครงสร้างพื้นฐานนั้นไม่เพียงพอสำหรับรัฐและองค์กรธุรกิจที่ต้องการความมีอิสระมากขึ้น operational sovereignty นั้น หมายถึงต้องมั่นใจได้ว่าระบบ AI ต่าง ๆ จะได้รับการบริหารจัดการโดยบุคลากรในท้องถิ่นที่ไว้วางใจได้ มีทักษะและได้รับการอนุญาตอย่างเหมาะสม ซึ่งรวมถึงการสร้างกลุ่มบุคลากรที่มีทักษะรองรับงานด้านนี้ เช่น วิศวกรด้าน AI ผู้เชี่ยวชาญด้าน MLOps และ มืออาชีพด้านความปลอดภัยไซเบอร์ ตลอดจนลดการพึ่งพาผู้ให้บริการ managed service ต่างประเทศ นโยบายระดับชาติของหลายประเทศเริ่มกำหนดว่าโครงสร้างพื้นฐานดิจิทัลสำคัญ ๆ ต้องได้รับการดูแลและสนับสนุนโดยเจ้าหน้าที่ที่มีสัญชาตินั้น ๆ หรือ ภายในเขตอำนาจศาลทางกฎหมายใด ๆ เพื่อปกป้องข้อมูลที่ละเอียดอ่อนและระบบต่าง ๆ จากอิทธิพลจากต่างประเทศ หรือ ความเสี่ยงด้านซัพพลายเชน เมื่อมีอิสระในการปฏิบัติงานแล้ว จะทำให้มั่นใจว่าระบบ AI ต่าง ๆ ยังคงทำงานได้เป็นปกติ ปลอดภัย และเป็นไปตามการควบคุมของท้องถิ่น แม้ในเวลาที่เกิดการเปลี่ยนแปลงในระดับโลกก็ตาม
  • ความมีอิสระด้านข้อมูล (data sovereignty): ความมีอิสระด้านข้อมูลเกี่ยวข้องกับการกำกับดูแลด้านกฎหมายและจริยธรรมของข้อมูล เพื่อให้มั่นใจว่าการรวบรวม การจัดเก็บ และการประมวลผลข้อมูล อยู่ภายในขอบเขตของกฎหมายและค่านิยมของประเทศ ในโลกที่พึ่งพา AI มากขึ้นนั้น ข้อมูลไม่ได้เป็นเพียงทรัพย์สิน แต่เป็นทรัพยากรเชิงกลยุทธ์ ระบบ Sovereign AI ต่าง ๆ ต้องทำงานตามกฎข้อบังคับของท้องถิ่น ซึ่งรวมถึงกฎหมายความเป็นส่วนตัว ข้อกำหนดด้านที่อยู่ของข้อมูล และกรอบการทำงานด้านการให้ความยินยอมต่าง ๆ นอกจากนี้ การกำกับดูแลข้อมูลต้องสะท้อนความคาดหวังด้านวัฒนธรรมและสังคม โดยเฉพาะในลักษณะเช่น ข้อมูลไบโอเมตริกซ์ การดูแลสุขภาพ และ การเงิน ประเทศและองค์กรธุรกิจจึงลงทุนกับโครงสร้างพื้นฐานข้อมูลที่เชื่อถือได้ แพลตฟอร์มข้อมูลแบบรวมศูนย์ และชุดข้อมูลของประเทศ เพื่อคงความสามารถในการควบคุมทรัพย์สินด้านข้อมูลสำคัญไว้ ทั้งนี้ความสามารถในการควบคุมว่าใครเข้าถึงระบบและข้อมูลได้บ้าง ความสามารถในการวิเคราะห์และการแชร์ข้อมูล โดยเฉพาะในบริบทที่ใช้มัลติคลาวด์ หรือ ทำงานข้ามพรมแดน เป็นสิ่งสำคัญต่อการรักษาความไว้วางใจ การปฏิบัติตามกฎระเบียบ และความได้เปรียบทางการแข่งขัน

โอเพ่นซอร์สช่วยเสริมแกร่งให้เสาหลักเหล่านี้ ด้วยคุณสมบัติด้านความโปร่งใส ช่วยให้สามารถทำงานร่วมกันได้ และ เป็นรากฐานของการปรับระบบต่าง ๆ ให้สอดคล้องกับกฎระเบียบของประเทศและกลยุทธ์ขององค์กร

ความท้าทายที่รออยู่: การประมวลผล ข้อมูล ทักษะ และการกำกับดูแล

แม้มีแนวโน้มว่าจะมีการใช้ Sovereign AI เพิ่มขึ้น แต่การนำไปใช้ในวงกว้างยังคงประสบความซับซ้อนจากความท้าทายหลายประการ เช่น

รัฐบาลและธุรกิจหลายแห่งยังติดขัดกับข้อจำกัดที่สำคัญประการหนึ่ง คือความสามารถในการเข้าถึงการประมวลผลประสิทธิภาพสูง อันเนื่องมาจากการขาดแคลน GPU และค่าใช้จ่ายในการเทรนโมเดลขนาดใหญ่ นอกจากนี้ ความพร้อมใช้ของชุดข้อมูลภายในท้องถิ่นที่มีคุณภาพสูงเป็นอีกหนึ่งข้อจำกัด โดยเฉพาะชุดข้อมูลที่เป็นภาษาถิ่นของตนที่มีไม่เพียงพอ หรือชุดข้อมูลเฉพาะทางด้านต่าง ๆ ที่มีอยู่จำกัด

การพัฒนาบุคลากรเป็นอีกหนึ่งประเด็นเร่งด่วน ทั่วโลกขาดแคลนผู้เชี่ยวชาญที่มีทักษะในการสร้าง ปรับใช้ และควบคุมระบบ AI อย่างมีความรับผิดชอบ ในขณะเดียวกัน การขาดมาตรฐานทางเทคนิคและจริยธรรมที่ใช้ร่วมกันในทุกเขตอำนาจศาล อาจสร้างอุปสรรคต่อการทำงานร่วมกันข้ามพรมแดน และการทำงานร่วมกันของโมเดลได้

 อุปสรรคเหล่านี้สามารถหมดไปได้ด้วยการผสานพลังจากการลงทุนของภาครัฐ นวัตกรรมของภาคเอกชน ความร่วมมือระหว่างประเทศ และการสนับสนุนชุมชนโอเพ่นซอร์สอย่างยั่งยืน

อนาคตของความมีอิสระ ความเปิดกว้าง และความรับผิดชอบ

เรากำลังเข้าสู่ช่วงสำคัญที่ความสามารถต่าง ๆ ของ AI จะช่วยกำหนดความสามารถทางการแข่งขันของประเทศ และความแข็งแกร่งขององค์กร ผู้ที่ประสบความสำเร็จไม่จำเป็นต้องเป็นผู้ที่มีโมเดลขนาดใหญ่ที่สุด แต่เป็นผู้ที่มีระบบต่าง ๆ ที่สอดคล้องกับลำดับความสำคัญทางกลยุทธ์และความต้องการของผู้ถือผลประโยชน์ร่วมกันได้มากที่สุด

Sovereign AI ที่มีพื้นฐานมาจากหลักการของโอเพ่นซอร์ส จะมอบเส้นทางข้างหน้าที่ทรงพลัง ช่วยให้เกิดนวัตกรรมในท้องถิ่นโดยไม่ต้องเหมือนกับที่อื่นในโลก ส่งเสริมความโปร่งใสและความรับผิดชอบโดยไม่กระทบต่อประสิทธิภาพการทำงาน และ สนับสนุนระบบนิเวศ AI ที่มีจริยธรรมและยั่งยืนมากขึ้น ด้วยโมเดลการกำกับดูแลต่าง ๆ ที่สะท้อนคุณค่าของผู้สร้างและผู้ใช้

โอเพ่นซอร์สไม่ได้เป็นเพียงเครื่องมือที่จะช่วยให้ประสบความสำเร็จด้าน AI sovereignty แต่เป็นโมเดลที่มีความเป็นอิสระในตัวของมันเอง

หากองค์กรของท่านกำลังมองหาเส้นทางสู่ Sovereign AI ของตนเอง ไม่ว่าท่านจะเป็นภาครัฐ บริษัทในอุตสาหกรรม หรือหน่วยงานวิจัย ถึงเวลาแล้วที่จะต้องใช้ความเปิดกว้างเป็นเครื่องมือในการควบคุมที่ไม่ใช่การยอมรับตามเจ้าของบริการเสียทั้งหมด และเราจะสามารถสร้างอนาคตของ AI ที่ไม่เพียงแต่จะทรงพลังและชาญฉลาดเท่านั้น แต่ยังเป็น AI ที่ครอบคลุม โปร่งใส และเป็นของเราเองอย่างแท้จริง

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

  • Durable foundation for IT innovation fuels more intelligent hybrid cloud operations with AI-powered Linux management
  • Adds security features to help mitigate future quantum-based threats
  • Makes containers the language of the OS and new Red Hat Insights capabilities enable more informed decisions at build time
  • Empowers the next generation of developers with support for emerging architectures and software innovation

Red Hat, the world’s leading provider of open source solutions, today introduced Red Hat Enterprise Linux 10, the evolution of the world’s leading enterprise Linux platform to help meet the dynamic demands of hybrid cloud and the transformative power of AI. More than just an iteration, Red Hat Enterprise Linux 10 provides a strategic and intelligent backbone for enterprise IT to navigate increasing complexity, accelerate innovation and build a more secure computing foundation for the future.

As enterprise IT grapples with the proliferation of hybrid environments and the imperative to integrate AI workloads, the need for an intelligent, resilient and durable operating system has never been greater. Red Hat Enterprise Linux 10 rises to this challenge, delivering a platform engineered for agility, flexibility and manageability, all while retaining a strong security posture against the software threats of the future.

Intelligent operations for complex environments: Introducing AI-powered Linux management with Lightspeed

According to a Red Hat-sponsored IDC study, “organizations [are] struggling to hire the Linux skill sets they need to operate and support their expanding fleet of distributions, which opens them up to further risk around security, compliance and application downtime. As technology demands continue to evolve and necessitate the use of more of these deployment scenarios and mechanisms, Red Hat is one of the few providers that can feasibly address all of them.”

Addressing this critical skills gap in Linux administration, Red Hat Enterprise Linux 10 introduces Red Hat Enterprise Linux Lightspeed. Integrating generative AI (gen AI) directly within the platform helps provide context-aware guidance and actionable recommendations through a natural language interface. Tapping decades of Red Hat Enterprise Linux-specific knowledge, it assists with tasks from troubleshooting common issues to best practices for managing complex IT estates. This empowers both newer and experienced IT professionals to manage vast Red Hat Enterprise Linux environments with greater efficiency by bringing AI-powered help straight to the command line in Red Hat Enterprise Linux 10.

Enhanced security features for the quantum frontier

Recognizing the long-term security implications of quantum computing, Red Hat Enterprise Linux 10 leads the industry as the first enterprise Linux distribution to integrate National Institute of Standards and Technology (NIST) standards for post-quantum cryptography. This proactive approach equips organizations to better defend against future “harvest now; decrypt later” attacks and meet evolving regulatory requirements. This includes incorporating quantum-resistant algorithms to mitigate the risk of future decryption of currently harvested data and post-quantum signature schemes to validate the integrity and authenticity of software packages and TLS certificates.

Unifying hybrid infrastructure and shifting decision-making left

Red Hat Enterprise Linux 10 delivers a paradigm shift in enterprise operating systems with image mode. This container-native approach unifies the build, deployment and management of both the operating system and applications within a single, streamlined workflow. Customers can now manage their entire IT landscape, from containerized applications to the underlying platform, with the same consistent tools and techniques. This approach significantly minimizes configuration drift by proactively preventing unexpected patch deviations and establishing a unified set of practices for application developers and IT operations teams.

IT organizations frequently need to make critical decisions at build time when it comes to the specific mix of packages in a standard operating environment (SOE). Red Hat Enterprise Linux 10 adds Red Hat Insights image builder package recommendations to help teams make more informed and tailored package decisions for their specific deployment before they impact production. Additionally, Red Hat Insights planning offers a view into the Red Hat Enterprise Linux roadmap and lifecycle, enhancing the platform’s future-readiness.

From cloud-native to AI-ready: Red Hat Enterprise Linux 10 powers what’s next

Red Hat Enterprise Linux’s decades-long legacy as the trusted backbone for production environments extends with Red Hat Enterprise Linux 10, underpinning both current and future technology needs. The latest version of the platform serves as the bedrock for Red Hat AI, Red Hat’s curated and optimized AI solutions that encompass Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI).

Key additions in Red Hat Enterprise Linux 10 include capabilities and innovations to:

Availability

Red Hat Enterprise Linux 10 is now generally available through the Red Hat Customer Portal. Developers can also access Red Hat Enterprise Linux 10 via no-cost Red Hat Developer programs, offering a wealth of resources to get started, including software access, how-to videos, demos and documentation.

Supporting Quotes

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
 “Red Hat Enterprise Linux 10 is engineered to empower enterprise IT and developers to not just manage the present, but to architect the future. With intelligent features using gen AI, unified hybrid cloud management through image mode and a proactive approach to security with post-quantum cryptography, Red Hat Enterprise Linux 10 provides the robust and innovative foundation needed to thrive in the era of hybrid cloud and AI.”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
 “In collaboration with Red Hat, ABB is committed to extending operational consistency for industrial use cases across edge and hybrid cloud environments, transforming process automation and industrial controls for the future. Using image mode for Red Hat Enterprise Linux, ABB is able to simplify the operating system build process to streamline our development lifecycle and implement a standardized installation method. This results in faster product innovations and a more appliance-like workflow for deployments, so customers can spend less time in setup and focus more on putting ABB’s technologies to use to generate business outcomes.”

Ryan Caskey, research manager, IDC
“Due to evolving operational requirements, organizations can accumulate diverse Linux distributions, and the consistent maintenance of these heterogeneous environments can become increasingly challenging. Large-scale and intricate infrastructures, as well as teams that are routinely understaffed, underskilled and underfunded, present problems in need of solutions. Red Hat Enterprise Linux aims to establish a robust, foundational layer for both current and future IT strategic initiatives.”

Anish Bhatt, software architect, Salesforce

“In today’s increasingly complex technology landscape, managing infrastructure at scale can be a challenge. Image mode allows consolidation of our pipelines and build processes, which are increasingly geared towards containerization. It has also brought stability to our environments, reducing configuration drift and enabling a more consistent deployment experience. We can also upgrade between major and minor releases of Red Hat Enterprise Linux with less operational risk due to the ability to quickly roll back changes. Image mode is a meaningful step towards simplifying cloud-native application development and IT operations in a single pipeline.”

1IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024