เร้ดแฮทประกาศ ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร และ ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) คว้าชัยความเป็นเลิศด้านโอเพ่นซอร์ส Red Hat APAC Innovation Awards 2025

เร้ดแฮทประกาศ ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร และ ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) คว้าชัยความเป็นเลิศด้านโอเพ่นซอร์ส Red Hat APAC Innovation Awards 2025

เร้ดแฮทประกาศ ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร และ ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) คว้าชัยความเป็นเลิศด้านโอเพ่นซอร์ส Red Hat APAC Innovation Awards 2025

ธนาคารทั้งสองแห่งได้รับรางวัลจากการใช้เทคโนโลยีโอเพ่นซอร์สของเร้ดแฮทเพื่อสร้างนวัตกรรมส่งเสริมการปรับเปลี่ยนองค์กร และสร้างมูลค่าทางธุรกิจอย่างยั่งยืน

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศรายชื่อลูกค้าไทยผู้ได้รับรางวัล Red Hat APAC Innovation Awards 2025 ได้แก่ ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร (ธ.ก.ส.) และธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) (LH Bank) ในฐานะองค์กรที่มีวิสัยทัศน์ก้าวไกลในการใช้โอเพ่นซอร์สเป็นกลไกขับเคลื่อนนวัตกรรม เปลี่ยนผ่านองค์กรและสร้างผลลัพธ์ที่ทรงคุณค่าในทุกมิติขององค์กร

ภายใต้แนวคิดหลักของปีนี้ “ปลดล็อกอนาคต – Unlock what’s next” รางวัล Red Hat APAC Innovation Awards 2025 มอบแก่ลูกค้าที่สามารถเปลี่ยนเทรนด์ต่าง ๆ ให้เป็นผลลัพธ์ที่จับต้องได้ รางวัลในปีนี้มอบให้แก่ผู้ชนะ 30 รายทั่วภูมิภาคที่ใช้เทคโนโลยีโอเพ่นซอร์สของเร้ดแฮทอย่างสร้างสรรค์ ก่อให้เกิดนวัตกรรม เพิ่มขีดความสามารถในการแข่งขัน และมอบคุณค่าที่ยั่งยืนให้แก่อุตสาหกรรม ลูกค้า และพนักงาน องค์กรที่ได้รับรางวัลทั้งหมดนี้ได้แสดงให้เห็นวิธีการที่โอเพ่นซอร์ช่วยให้พวกเขามุ่งมั่นจินตนาการถึงความเป็นไปได้ใหม่ ๆ จัดการความซับซ้อน และคว้าโอกาสใหม่ ๆ ท่ามกลางสภาพแวดล้อมที่เปลี่ยนแปลงไม่หยุดนิ่ง เพื่อกำหนดขีดความสามารถทางการแข่งขันในอนาคต

รางวัลแบ่งเป็นห้าสาขา ได้แก่ การเปลี่ยนผ่านทางดิจิทัล (Digital Transformation), โครงสร้างพื้นฐานไฮบริดคลาวด์ (Hybrid Cloud Infrastructure), การพัฒนาแบบคลาวด์-เนทีฟ (Cloud-native Development), ระบบอัตโนมัติ (Automation) และสาขาใหม่ที่เพิ่มเข้ามาคือ สาขา AI และเทคโนโลยีเกิดใหม่ (AI and Emerging Tech)

สาขา Digital Transformation และ สาขา Hybrid Cloud Infrastructure

ผู้ได้รับรางวัล: ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร

ธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร (ธ.ก.ส.) เป็นธนาคารของรัฐที่มีพันธกิจหลักในการสนับสนุนเกษตรกรและชุมชนชนบท และเพื่อให้การดำเนิงานมีประสิทธิภาพตอบสนองพันธกิจดังกล่าว ธนาคารฯ ได้เริ่มต้นกระบวนการเปลี่ยนผ่านสู่ดิจิทัลครั้งใหญ่ เพื่อปรับปรุงระบบสำคัญหลักทั้งหลายให้ทันสมัยและเสริมสร้างความสามารถในการแข่งขัน ธนาคารฯ เล็งเห็นความจำเป็นในการวางรากฐานนวัตกรรมที่มั่นคง ปลอดภัย และมีความยืดหยุ่นสูง ท่ามกลางความท้าทายด้านประสิทธิภาพที่เกิดจากโครงสร้างพื้นฐานที่กระจัดกระจายไม่เชื่อมโยงกัน รวมถึงข้อกำหนดด้านกฎระเบียบที่เข้มงวดขึ้นอย่างต่อเนื่อง 

ธ.ก.ส. เลือกใช้ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มที่แข็งแกร่งยืดหยุ่นสูงและเตรียมพร้อมสำหรับอนาคต โดยแทนที่ระบบเดิมด้วยโซลูชันรวมศูนย์สำหรับคอนเทนเนอร์และเวอร์ชวลแมชชีน โครงสร้างพื้นฐานไฮบริดคลาวด์ใหม่นี้ช่วยให้ธนาคารฯ ลดการพึ่งพาระบบเดิม ลดค่าใช้จ่าย และเสริมความแข็งแกร่งด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบ ทั้งยังช่วยให้ธนาคารฯ เปิดตัวบริการใหม่ ๆ ออกสู่ตลาดได้อย่างรวดเร็ว การปรับปรุงเหล่านี้ช่วยให้ ธ.ก.ส. แข็งแกร่ง มีแพลตฟอร์มที่ยืดหยุ่น และดำเนินงานได้อย่างมีประสิทธิภาพมากขึ้นตามต้องการ เพื่อสนับสนุนเกษตรกรและชุมชนชนบทของประเทศให้ได้รับประโยชน์จากบริการทางการเงินที่มีเสถียรภาพ เปี่ยมด้วยนวัตกรรม และเข้าถึงได้ง่ายมากขึ้น

Red Hat Celebrates Bank for Agriculture and Agricultural Cooperatives and Land and Houses Bank Public for Driving Open Source Excellence at the Red Hat APAC Innovation Awards 2025 for Thailand

สาขา Digital Transformation

ผู้ได้รับรางวัล: ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน)

ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) รับรางวัล Red Hat APAC Innovation Award 2025 สาขา Digital Transformation จากซ้ายไปขวา: คุณอัลเบิร์ต ไช ผู้จัดการทั่วไปประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ ยกเว้นสิงคโปร์ (RoSEA) ของเร้ดแฮท,

คุณคุณสุชาติ เกียรติธนะบำรุง, First Senior Vice President Digital Banking Application Development – LH Bank, คุณเอกภพ ออกบัว, First Senior Vice President, Information Technology Infrastructure – LH Bank, คุณเปรม ปาวัน รองประธานและผู้จัดการทั่วไปประจำภูมิภาคเอเชียตะวันออกเฉียงใต้และเกาหลี (SEAK) ของเร้ดแฮท

ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน) หรือ LH Bank หนึ่งในสถาบันการเงินชั้นนำของไทยที่ให้บริการลูกค้ารายย่อย ลูกค้าองค์กร และธุรกิจขนาดกลางและขนาดย่อม (SME) ด้วยวิสัยทัศน์ในการเป็นธนาคารที่ทันสมัยที่มุ่งเน้นลูกค้าเป็นศูนย์กลาง LH Bank จึงมุ่งมั่นเร่งพัฒนาแอปพลิเคชัน ปรับปรุงประสบการณ์ดิจิทัล และขยายไปสู่กลุ่มธุรกิจใหม่ ๆ ท่ามกลางข้อจำกัดด้านทรัพยากรไอที และระบบเดิมที่ซับซ้อน ธนาคารจึงต้องการพันธมิตรด้านเทคโนโลยีที่เชื่อถือได้เพื่อช่วยปรับปรุงแอปพลิเคชันและเสริมความแข็งแกร่งของโครงสร้างพื้นฐาน

LH Bank พลิกโฉมวิธีการออกแบบและการนำเสนอบริการให้ลูกค้า ด้วยการใช้ Red Hat OpenShift ปรับปรุง Profita และ LHB You ซึ่งเป็นโมบายแอปพลิเคชันสำคัญของธนาคารฯ ให้ทันสมัยมากขึ้น ใช้งานง่ายขึ้น มีฟีเจอร์ครบครัน และรองรับการขยายตัวได้อย่างมีประสิทธิภาพ นอกจากนี้ธนาคารฯ ยังได้ขยายขอบเขตการใช้ OpenShift ไปยังระบบภายในของธนาคารฯ ซึ่งช่วยส่งเสริมการพัฒนาที่คล่องตัว และเพิ่มประสิทธิภาพของการใช้ทรัพยากร พร้อมกับมั่นใจได้ในเรื่องของความปลอดภัยและความเชื่อถือได้ขององค์กร แนวทางแบบองค์รวมนี้ ส่งผลลัพธ์ที่ชัดเจน ด้วยประสิทธิภาพการทำงานที่สูงขึ้น ลดระยะเวลาในการส่งผลิตภัณฑ์ออกสู่ตลาด และ ตอกย้ำศักยภาพในการนำเสนอประสบการณ์ดิจิทัลที่ปลอดภัยล้ำสมัยของ LH Bank ซึ่งล้วนเป็นปัจจัยสำคัญต่อการขับเคลื่อนการเติบโต และตอบสนองความต้องการที่เปลี่ยนแปลงอย่างต่อเนื่องของลูกค้าทั่วประเทศ

คำกล่าวสนับสนุน

มาร์เจ็ต แอนดรีซ รองประธานอาวุโสและผู้จัดการทั่วไป เร้ดแฮท เอเชียแปซิฟิก
“การเปลี่ยนแปลงในภูมิภาคเอเชียแปซิฟิก (APAC) ยังคงดำเนินไปอย่างรวดเร็วและไม่หยุดยั้ง โดยเฉพาะเมื่อปัญญาประดิษฐ์ (AI) ได้กลายเป็นแรงขับเคลื่อนสำคัญของการเปลี่ยนผ่านทางธุรกิจ แม้จะต้องเผชิญกับความท้าทายเหล่านี้ แต่ลูกค้าของเรายังคงสร้างผลลัพธ์ที่น่าทึ่ง สะท้อนให้เห็นว่านวัตกรรมพัฒนาได้อย่างเต็มศักยภาพเมื่ออยู่บนพื้นฐานของโอเพนซอร์ส รางวัล Red Hat APAC Innovation Awards 2025 จึงเป็นโอกาสอันดีในการยกย่องและเฉลิมฉลองความสำเร็จเหล่านี้ เพื่อตอกย้ำว่าลูกค้าของเรากำลัง “ปลดล็อกอนาคต” และร่วมกันสร้างโลกแห่งอนาคตที่ขับเคลื่อนด้วยความคิดสร้างสรรค์ ความยืดหยุ่น และคุณค่าที่แท้จริง” 

นายทองคำ เกตุโชติ  รองผู้จัดการธนาคารเพื่อการเกษตรและสหกรณ์การเกษตร (ธ.ก.ส.)
“สำหรับ ธ.ก.ส. เทคโนโลยีคือกุญแจสำคัญในการยกระดับทั้งกระบวนการทำงานภายในและการให้บริการแก่เกษตรกรและชุมชนในชนบท ด้วยโซลูชันระดับองค์กรจาก Red Hat เราสามารถปรับระบบไอทีให้เรียบง่ายขึ้นจนกลายเป็นแพลตฟอร์มเดียวที่ทรงพลัง ซึ่งช่วยเร่งการพัฒนาแอปพลิเคชันและลดระยะเวลาการเปิดตัวบริการใหม่ โครงการนี้ไม่เพียงช่วยเสริมความสามารถในการแข่งขันของธนาคาร แต่ยังเป็นต้นแบบให้กับอุตสาหกรรม แสดงให้เห็นถึงศักยภาพของโอเพนซอร์ส ในฐานะผู้ริเริ่มใช้งานเราให้ความสำคัญกับเทคโนโลยีแบบเปิดที่มอบความยืดหยุ่นโดยไม่ผูกมัดกับผู้ให้บริการรายใดรายหนึ่ง ทำให้เรามั่นใจว่าจะสามารถสร้างสรรค์สิ่งใหม่ ๆ และเติบโตได้อย่างมั่นคง”

นายเอกภพ ออกบัว, First Senior Vice President, Information Technology Infrastructure ธนาคารแลนด์ แอนด์ เฮ้าส์ จำกัด (มหาชน)
“การปรับปรุงแอปพลิเคชันหลักของเราด้วย Red Hat OpenShift ช่วยให้เราส่งมอบบริการดิจิทัลที่รวดเร็ว ปลอดภัย และมีความน่าเชื่อถือยิ่งขึ้นให้กับลูกค้า ด้วยเทคโนโลยีโอเพนซอร์สระดับองค์กรและความเชี่ยวชาญจาก Red Hat เรามีความคล่องตัวและประสิทธิภาพสูงขึ้น สามารถสร้างนวัตกรรมได้อย่างรวดเร็ว และสนับสนุนการเติบโตของธนาคารได้อย่างต่อเนื่อง ความร่วมมือครั้งนี้เป็นเครื่องยืนยันว่าโอเพนซอร์สมีบทบาทสำคัญในการเสริมศักยภาพการแข่งขัน และขยายโอกาสทางการเงินให้เข้าถึงผู้คนและภาคธุรกิจทั่วประเทศไทยได้ดียิ่งขึ้น”

Red Hat AI 3 มอบศักยภาพ Distributed AI Inference เสริมแกร่งการนำ AI Workloads ไปใช้งานจริง

Red Hat AI 3 มอบศักยภาพ Distributed AI Inference เสริมแกร่งการนำ AI Workloads ไปใช้งานจริง

Red Hat AI 3 มอบศักยภาพ Distributed AI Inference เสริมแกร่งการนำ AI Workloads ไปใช้งานจริง

พลตฟอร์ม AI แบบไฮบริดคลาวด์เนทีฟของ Red Hat ช่วยเพิ่มประสิทธิภาพเวิร์กโฟลว์ AI มอบความสามารถในการอนุมานแบบใหม่ที่ทรงพลัง สร้างรากฐานให้กับ agentic AI ในวงกว้าง เสริมศักยภาพให้ทีมไอทีและวิศวกร AI สร้างสรรค์นวัตกรรมได้รวดเร็วและมีประสิทธิภาพมากขึ้น

เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI 3 ซึ่งเป็นก้าวสำคัญของแพลตฟอร์ม AI ระดับองค์กร ที่ผสานรวมนวัตกรรมล่าสุดของ Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI เข้าด้วยกัน เพื่อลดความซับซ้อนของการอนุมาน AI ประสิทธิภาพสูงในการปรับใช้ในระบบขนาดใหญ่(high-performance AI inference) ช่วยให้องค์กรต่าง ๆ สามารถนำเวิร์กโหลดที่อยู่ในขั้นตอนการทดลอง (proofs-of-concept) ไปสู่การใช้งานจริง (production) ได้ง่ายขึ้น และช่วยให้สามารถพัฒนาแอปพลิเคชันที่ใช้ AI ร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น

ในขณะที่องค์กรธุรกิจต่าง ๆ ก้าวผ่านขั้นตอนการทดลองใช้ AI องค์กรเหล่านั้นต้องเผชิญกับอุปสรรคสำคัญหลายประการ ไม่ว่าจะเป็น ความเป็นส่วนตัวของข้อมูล การควบคุมต้นทุน และการจัดการโมเดลที่หลากหลาย รายงาน “The GenAI Divide: State of AI in Business” จากโครงการ NANDA ของสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ย้ำให้เห็นความเป็นจริงของการนำ AI มาใช้งานจริง โดยองค์กรประมาณ 95% ไม่เห็นผลตอบแทนทางการเงินที่วัดผลได้จากการใช้จ่ายขององค์กรประมาณ 40,000 ล้านเหรียญสหรัฐฯ

Red Hat AI 3 มุ่งแก้ไขความท้าทายเหล่านี้ ด้วยการมอบประสบการณ์ที่สอดคล้องและเป็นเอกภาพมากขึ้นให้แก่ผู้บริหารฝ่ายสารสนเทศ (CIO) และผู้นำด้านไอที เพื่อให้ได้ประโยชน์สูงสุดจากการลงทุนในเทคโนโลยีการประมวลผลแบบเร่งความเร็ว (accelerated computing) แพลตฟอร์มนี้ช่วยให้ปรับขนาดและกระจาย AI workloads ไปยังสภาพแวดล้อมไฮบริดที่มีผู้ให้บริการหลายรายได้อย่างรวดเร็ว ในขณะเดียวกันก็ช่วยเพิ่มประสิทธิภาพการทำงานร่วมกันข้ามสายงานที่เกี่ยวกับ AI workloads รุ่นใหม่ ๆ เช่น agent ต่าง ๆ และทั้งหมดนี้ทำงานอยู่บนแพลตฟอร์มหลักเดียวกัน การที่ Red Hat AI 3 มีรากฐานที่สร้างขึ้นบนมาตรฐานแบบ open standards จึงสามารถตอบโจทย์ทุกขั้นตอนของเส้นทางการนำ AI มาใช้ขององค์กร สามารถรองรับโมเดลทุกประเภทที่ทำงานอยู่บน hardware accelerator ใดก็ได้ ตั้งแต่ดาต้าเซ็นเตอร์ ไปจนถึงพับลิคคลาวด์ และสภาพแวดล้อม sovereign AI หรือแม้แต่ edge ที่อยู่ห่างไกล

จาก “การเทรน” สู่ “การนำไปใช้จริง” : การเปลี่ยนผ่านสู่การอนุมาน AI ในระดับองค์กร

เมื่อองค์กรต่าง ๆ เริ่มนำโครงการ AI ต่าง ๆ ไปใช้งานจริง ความสำคัญจึงเปลี่ยนจากการเทรนและปรับแต่งโมเดลไปสู่การอนุมาน (inference) ซึ่งเป็นขั้นตอนของ “การนำไปใช้จริง” AI ในระดับองค์กร Red Hat AI 3 ให้ความสำคัญกับการอนุมานที่สามารถปรับขนาดได้และคุ้มค่าการลงทุน โดยพัฒนาต่อยอดจาก vLLM และ llm-d ซึ่งเป็น community โปรเจกต์ที่ประสบความสำเร็จสูง ควบคู่ไปกับศักยภาพในการเพิ่มประสิทธิภาพโมเดลของ Red Hat เพื่อให้บริการโมเดลภาษาขนาดใหญ่ (LLMs) ในระดับที่พร้อมใช้งานจริง

Red Hat OpenShift AI 3.0 เปิดให้ใช้ llm-d ซึ่งเป็นเวอร์ชันพร้อมใช้งานทั่วไปที่พลิกโฉมวิธีการทำงานของ LLM บน Kubernetes โดยเฉพาะ เพื่อช่วยให้ผู้บริหารฝ่ายสารสนเทศใช้งานการเร่งความเร็วด้วยฮาร์ดแวร์ที่มีมูลค่าสูงได้อย่างเต็มประสิทธิภาพ llm-d ช่วยให้เกิดการอนุมานแบบกระจายอัจฉริยะ (intelligent distributed inference) โดยใช้คุุณประโยชน์จากระบบการผสานการทำงานของ Kubernetes และประสิทธิภาพของ vLLM ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ผสมผสานกับเทคโนโลยีโอเพ่นซอร์สสำคัญอื่น ๆ เช่น Kubernetes Gateway API Inference Extension, NVIDIA Dynamo (NIXL) KV Transfer Library, และ DeepEP Mixture of Experts (MoE) communication library, ซึ่งช่วยให้องค์กรสามารถ

  • ลดต้นทุนและปรับปรุงเวลาในการตอบสนอง ด้วยระบบจัดตารางรันโมเดลแบบ Inference-aware ที่ชาญฉลาด พร้อมระบบให้บริการแบบแยกส่วน (disaggregated serving)
  • มอบความเรียบง่ายในการดำเนินงานและความน่าเชื่อถือสูงสุด ด้วยแนวทางที่ชัดเจนและมีมาตรฐาน (Well-lit Paths) ที่ช่วยปรับปรุงขั้นตอนการนำโมเดลไปใช้งานบน Kubernetes ได้อย่างเต็มรูปแบบ
  • เพิ่มความยืดหยุ่นสูงสุด ด้วยการรองรับการทำงานข้ามแพลตฟอร์ม (cross-platform support) เพื่อปรับใช้การอนุมาน LLM (LLM inference) กับ hardware accelerators ที่หลากหลาย รวมถึง NVIDIA และ AMD

llm-d สร้างบนพื้นฐานของ vLLM โดยพัฒนาจากเอ็นจิ้นการอนุมานที่มีประสิทธิภาพสูงเริ่มตั้งแต่แบบโหนดเดียว (single-node) ไปจนถึงระบบการให้บริการแบบกระจายศูนย์ (distributed) มีความเสถียร และปรับขนาดได้ ระบบนี้ได้รับการผสานการทำงานกับ Kubernetes อย่างมั่นคง เพื่อมอบประสิทธิภาพที่คาดการณ์ได้ วัดผลตอบแทนจากการลงทุนได้ และการวางแผนโครงสร้างพื้นฐานที่มีประสิทธิภาพ การเพิ่มประสิทธิภาพทั้งหมดนี้ตอบโจทย์การจัดการ LLM workloads ที่มีความผันผวนสูง และการให้บริการโมเดลขนาดใหญ่ เช่น โมเดล Mixture-of-Experts (MoE)

แพลตฟอร์มแบบรวมศูนย์เพื่อการทำงานด้าน AI ร่วมกัน

Red Hat AI 3 มอบประสบการณ์ที่ครบวงจรและยืดหยุ่น ตอบโจทย์ความต้องการด้านการทำงานร่วมกันในการพัฒนาโซลูชัน Generative AI ที่พร้อมใช้งานจริง แพลตฟอร์มนี้ถูกออกแบบมาให้ช่วยส่งเสริมการร่วมมือและการเชื่อมโยงเวิร์กโฟลว์ของทุกทีมไว้ด้วยกันบนแพลตฟอร์มเดียว เพื่อให้วิศวกรแพลตฟอร์ม และวิศวกร AI ขับเคลื่อนกลยุทธ์ด้าน AI อย่างมีประสิทธิภาพ ความสามารถใหม่ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความคล่องตัวในการขยายจากขั้นตอนทดลองแนวคิด (Proof-of-Concept) ไปสู่การใช้งานจริงในระดับองค์กร (Production) ประกอบด้วยความสามารถต่าง ๆ ดังนี้

  • Model as a Service (MaaS) ต่อยอดจากเทคโนโลยี distributed inference เพื่อให้องค์กรสามารถเป็นผู้ให้บริการโมเดลของตนเองได้ (self-managed MaaS) โดยให้ทีม IT สามารถให้บริการ โมเดลกลาง (shared models) แก่ทีมพัฒนา AI และแอปพลิเคชันต่าง ๆ ได้แบบ on-demand ผ่านโครงสร้างพื้นฐานภายในองค์กร แนวทางนี้ช่วย บริหารต้นทุนได้ดียิ่งขึ้น และรองรับกรณีการใช้งานที่ ไม่สามารถใช้บริการ AI สาธารณะได้ เนื่องจากข้อจำกัดด้าน ความเป็นส่วนตัวและความปลอดภัยของข้อมูล
  • AI hub ช่วยให้วิศวกรแพลตฟอร์มสามารถสำรวจ ติดตั้งใช้งาน และจัดการสินทรัพย์ AI พื้นฐานได้ โดยมีศูนย์กลางที่รวบรวมแคตตาล็อกโมเดลต่าง ๆ ที่คัดสรรให้เลือกใช้ภายในองค์กรซึ่งรวมถึงโมเดล Gen AI ที่ผ่านการปรับแต่งอย่างเหมาะสม, ระบบ Registry เพื่อจัดการไลฟ์ไซเคิลของโมเดล และสภาพแวดล้อมสำหรับการติดตั้งและติดตาม เพื่อกำหนดค่าและตรวจสอบสินทรัพย์ AI ทั้งหมดที่ทำงานอยู่บน OpenShift AI
  • Gen AI studio มอบสภาพแวดล้อมที่ให้วิศวกร AI ได้ลงมือปฏิบัติจริงในการโต้ตอบกับโมเดลและสร้างต้นแบบแอปพลิเคชัน Gen AI ใหม่ได้อย่างรวดเร็ว วิศวกรสามารถค้นพบและเรียกใช้งานโมเดลและเซิฟเวอร์ MCP ที่มีอยู่ได้ง่ายขึ้นด้วยคุณสมบัติ AI assets endpoint ซึ่งช่วยให้การเชื่อมต่อระหว่างโมเดลกับเครื่องมือภายนอกระบบเป็นไปอย่างราบรื่น อีกทั้งยังมี playground ในตัวที่เป็นสภาพแวดล้อมเชิงโต้ตอบแบบไร้สถานะ (stateless) เพื่อทดลองโมเดล ทดสอบคำสั่ง (prompts) และปรับแต่งพารามิเตอร์ให้เหมาะสมกับกรณีใช้งาน เช่น chat และการสร้างคำตอบจากข้อมูลที่ดึงมา (Retrieval-Augmented Generation: RAG)
  • การพัฒนาทำได้ง่ายขึ้นด้วยโมเดลใหม่ที่ได้รับการตรวจสอบและปรับแต่งจาก Red Hat โดยมีการคัดสรรโมเดลโอเพ่นซอร์สยอดนิยม เช่น gpt-oss ของ OpenAI, DeepSeek-R1 และโมเดลเฉพาะทาง เช่น Whisper สำหรับการแปลงเสียงเป็นข้อความ (speech-to-text) และ Voxtral Mini สำหรับ agents ที่สั่งงานด้วยเสียง (voice-enabled agents)

สร้างรากฐานให้กับ AI agents รุ่นต่อไป

AI agents กำลังจะพลิกโฉมวิธีการสร้างแอปพลิเคชัน และเวิร์กโฟลว์ที่อิสระและซับซ้อนจะสร้างความต้องการสูงต่อความสามารถในการอนุมาน Red Hat OpenShift AI 3.0 วางรากฐานสำหรับระบบ agentic AI ที่สามารถขยายขนาดได้อย่างต่อเนื่อง ซึ่งไม่เพียงแต่ยกระดับความสามารถการอนุมานเท่านั้น แต่ยังมาพร้อมคุณสมบัติและการปรับปรุงใหม่ ๆ ที่เน้นไปที่การจัดการ agent 

Red Hat นำเสนอ Unified API layer (เลเยอร์ API แบบรวมศูนย์ ) ที่พัฒนาบน Llama Stack เพื่อเร่งกระบวนการสร้างและปรับใช้ agent ซึ่งช่วยให้การพัฒนาสอดคล้องกับมาตรฐานอุตสาหกรรมต่าง ๆ เช่น โปรโตคอลอินเทอร์เฟซ LLM ที่รองรับกับ OpenAI นอกจากนี้เพื่อส่งเสริมระบบนิเวศที่เปิดกว้างและทำงานร่วมกันได้อย่างยืดหยุ่น Red Hat ยังเป็นหนึ่งในผู้บุกเบิกการใช้งาน Model Context Protocal (MCP) ซึ่งเป็นมาตรฐานใหม่ที่ทรงพลังและกำลังเป็นที่ยอมรับ ช่วยให้การให้การสื่อสารระหว่างโมเดล AI และเครื่องมือภายนอกเป็นไปอย่างมีประสิทธิภาพ ซึ่งเป็นคุณสมบัติพื้นฐานสำหรับ AI agents ที่ทันสมัย

Red Hat AI 3 ยังแนะนำชุดเครื่องมือใหม่สำหรับการปรับแต่งโมเดล ที่ออกแบบให้มีลักษณะเป็นโมดูลาร์และสามารถขยายต่อได้ (modular and extensible toolkit) พัฒนาต่อยอดจากความสามารถของ InstructLab ที่มีอยู่เดิม มาพร้อมไลบราลี Python เฉพาะทางที่ช่วยให้นักพัฒนาสามารถควบคุมและปรับแต่งการทำงานของโมเดลได้อย่างยืดหยุ่นมากขึ้น ชุดเครื่องมือนี้ขับเคลื่อนด้วยโปรเจกต์โอเพ่นซอร์ส เช่น Docling สำหรับการประมวลผลข้อมูล ซึ่งช่วยแปลงและจัดการเอกสารแบบไม่มีโครงสร้าง (unstructured documents) ให้อยู่ในรูปแบบที่ AI สามารถอ่านและประมวลผลได้อย่างคล่องตัว นอกจากนี้ยังมีเฟรมเวิร์กที่ยืดหยุ่นสำหรับการสร้างช้อมูลสังเคราะห์ และ training hub สำหรับการปรับแต่ง LLM (fine-tuning) นอกจากนี้ยังมีการรวม evaluation hub เข้ามาในระบบ เพื่อช่วยให้วิศวกร AI สามารถติดตามและตรวจสอบความถูกต้องของผลลัพธ์ได้อย่างมีประสิทธิภาพ ทำให้สามารถใช้ข้อมูลกรรมสิทธิ์ (proprietary data) ของตนเองได้อย่างมั่นใจ เพื่อให้ได้ผลลัพธ์ AI ที่แม่นยำและตรงความต้องการมากขึ้น

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

เมื่อองค์กรขยายการใช้งาน AI จากขั้นตอนการทดลองไปสู่การใช้งานจริง องค์กรต้องเผชิญกับความซับซ้อน ต้นทุน และความท้าทายใหม่ ๆ ด้านการควบคุม Red Hat ได้ออกแบบ Red Hat AI 3 ให้เป็นโอเพ่นซอร์สระดับองค์กรที่ช่วยลดอุปสรรคเหล่านี้ โดยนำเสนอความสามารถใหม่ เช่น ระบบการอนุมานแบบกระจาย (distributed inference) ผ่าน llm-d และรากฐานสำหรับ agentic AI เพื่อช่วยให้ทีมไอทีสามารถใช้งาน AI รุ่นถัดไปได้อย่างมั่นใจ บนโครงสร้างพื้นฐานรูปแบบใดก็ได้ ตามแนวทางขององค์กร”

Dan McNamara, senior vice president and general manager, Server and Enterprise AI, AMD

เมื่อ Red Hat นำการอนุมาน AI แบบกระจายเข้าสู่การใช้งานจริง AMD มีความภูมิใจที่ได้เป็นรากฐานประสิทธิภาพสูงที่อยู่เบื้องหลังความสำเร็จนี้ เราได้ผนวกรวมประสิทธิภาพของ AMD EPYC™ processors,  ศักยภาพการขยายขนาดของ AMD Instinct™ GPUs, และความเปิดกว้างของซอฟต์แวร์สแตก AMD ROCm™ เข้าไว้ด้วยกัน เพื่อช่วยให้องค์กรก้าวข้ามขีดจำกัดของการทดลองไปสู่การใช้งาน AI เจนเนเรชันใหม่ได้จริง เปลี่ยนประสิทธิภาพและความสามารถในการปรับขนาดให้กลายเป็นผลลัพธ์ทางธุรกิจที่จับต้องได้ทั้งในสภาพแวดล้อมแบบ on-premise, cloud และ edge”

Mariano Greco, chief executive officer, ARSAT

“ARSAT ในฐานะผู้ให้บริการโครงสร้างพื้นฐานการเชื่อมต่อของประเทศอาร์เจนตินา เราต้องจัดการกับปริมาณข้อมูลลูกค้าและข้อมูลที่ละเอียดอ่อนจำนวนมหาศาล เราต้องการโซลูชันที่จะนำพาเราก้าวข้ามระบบอัตโนมัติแบบง่าย ๆ ไปสู่ ‘Augmented Intelligence’ พร้อมกับมอบอำนาจอธิปไตยทางข้อมูลสูงสุดให้กับลูกค้า ด้วยการสร้างแพลตฟอร์ม agentic AI บน Red Hat OpenShift AI เราจึงสามารถระบุความต้องการไปสู่การใช้งานจริงได้ภายในเวลาเพียง 45 วัน  Red Hat OpenShift AI ไม่เพียงแต่ช่วยให้เราปรับปรุงบริการและลดเวลาที่วิศวกรต้องใช้ไปกับการแก้ไขปัญหาด้านการสนับสนุน แต่ยังช่วยให้พวกเขามีเวลาไปมุ่งเน้นด้านนวัตกรรมและการพัฒนาสิ่งใหม่ ๆ ได้มากขึ้นอีกด้วย”

Rick Villars, group vice president, Worldwide Research, IDC

ปีหน้าจะเป็นจุดเปลี่ยนสำคัญ ที่องค์กรจะยกระดับจากการเริ่มต้นการเปลี่ยนแปลงด้าน AI ไปสู่ผลลัพธ์ทางธุรกิจที่สามารถวัดผลและทำซ้ำได้จากการลงทุนใน AI แม้ว่าโครงการเริ่มต้นจะมุ่งเน้นไปที่การเทรนและการทดสอบโมเดล แต่คุณค่าและความท้าทายที่แท้จริงคือการนำข้อมูลเชิงลึกที่ได้มาจากโมเดลไปใช้งานจริงด้วยการอนุมานที่มีประสิทธิภาพ ปลอดภัยและคุ้มค่าใช้จ่าย ซึ่งต้องอาศัยโครงสร้างพื้นฐานยุคใหม่ ข้อมูล และสภาพแวดล้อมการปรับใช้แอปพลิเคชันที่ทันสมัยมากขึ้น พร้อมด้วยความสามารถในการอนุมานระดับการใช้งานจริงที่พร้อมใช้งาน ซึ่งสามารถรับมือกับขนาดและความซับซ้อนในความเป็นจริงได้ โดยเฉพาะอย่างยิ่งเมื่อ agentic AI เพิ่มปริมาณการอนุมาน บริษัทที่ประสบความสำเร็จในการกลายเป็นธุรกิจที่ขับเคลื่อนด้วย AI คือองค์กรที่สามารถสร้างแพลตฟอร์มแบบรวมศูนย์เพื่อจัดการเวิร์กโหลดที่ซับซ้อนมากขึ้นเรื่อย ๆ บนสภาพแวดล้อมไฮบริดคลาวด์ได้อย่างมีประสิทธิภาพ ไม่ใช่เพียงแค่ในโดเมนที่แยกส่วนเท่านั้น”

Ujval Kapasi, vice president, Engineering AI Frameworks, NVIDIA

“การอนุมานที่มีประสิทธิภาพสูงและมีความสามารถในการปรับขนาดได้ถือเป็นกุญแจสำคัญสำหรับ generative และ agentic AI ด้วยการรองรับเทคโนโลยีโอเพนซอร์ส NVIDIA Dynamo และ NIXL Red Hat AI 3 จึงกลายเป็นแพลตฟอร์มแบบรวมศูนย์ที่ช่วยให้ทีมงานสามารถก้าวจากขั้นตอนทดลองไปสู่การรัน AI workloads ขั้นสูง และ agents ในวงกว้างได้อย่างรวดเร็ว”

Agentic AI in the enterprise: An evolution, not a revolution

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

Agentic AI in the enterprise: An evolution, not a revolution

Agentic AI is expected to revolutionize a vast array of workflows through autonomous, AI-driven automation. This may work easiest for a startup without legacy systems, processes, or people to account for. But established enterprises tend to have complex ecosystems built over decades: established processes that verify compliance, legacy systems that handle mission-critical operations, and experienced teams whose institutional knowledge drives business success. For enterprises, the real value lies not in disruption, but in strategic augmentation of existing operations. Think evolution, not revolution.

In this article, we’ll provide specific recommendations on how enterprises can benefit through strategic integration of AI tools and processes rather than rebuilding their business from the ground up.

The adoption of agentic AI presents a new set of strategic considerations. Unlike traditional AI—which is built for a single task—agentic AI can make its own decisions to achieve a specific goal. This shift from simple automation to a system of self-governing agents requires a thoughtful, phased approach. Here are three ways enterprises can benefit from agentic AI.

  1. Experimenting in low-risk areas

Enterprises can more safely explore agentic AI’s potential by starting with contained, low-impact environments where failure won’t compromise mission-critical operations. This experimental approach will help your teams build confidence and expertise while minimizing risk. For example, these could be well-defined repetitive tasks, which are easier for an agent to learn and execute.

Example use cases:

  • Customer service:Conversational agents can handle basic inquiries or support requests, with seamless handoffs to humans for complex issues. These agents can guide a customer through a password reset process, update shipping addresses, or process simple returns by interfacing with existing customer portals and backend systems.
  • Administrative assistant:Agents can summarize meetings, follow up on action items, and summarize and prioritize emails to improve worker productivity.

Applications like these allow workers to focus on higher-value, complex, or sensitive customer issues that truly require human nuance. In addition, this approach demonstrates the value of agents in a controlled environment and helps organizations develop the skills and frameworks needed for larger implementations.

  1. Improving performance of backend operations

Agentic AI can work behind the scenes to help make current operations more efficient and intelligent. This approach uses your existing infrastructure while adding a layer of autonomous decision-making that improves performance without requiring users to change their workflows. In effect, agentic AI acts as a smart abstraction layer that can observe data flowing through your core, often complex, backend operations (ERP, CRM, or supply chain systems) and identify bottlenecks, proactively trigger actions, and even correct minor errors.

Example use cases:

  • Financial watchdog:Agents that monitor expense patterns, flag anomalies for human review, and automatically categorize transactions.
  • Quality inspector:Agents that analyze production data in real-time, identifying potential quality issues and recommending preventive actions.

This approach can deliver immediate value without disrupting established workflows. Your teams continue using familiar systems while benefiting from enhanced intelligence and automation working invisibly in the background.

  1. Trainee managers with human-in-the-loop

For enterprises, the real promise of agentic AI may not be full autonomy but collaborative autonomy. Think of agents as trainee managers or co-pilots that have tiered decision authority. The agents have autonomy for low-risk, routine decisions while escalating complex or high-impact decisions to human managers. The agent performs tasks like data gathering, analysis, and initial recommendation, but a human manager provides the final sign-off, especially for decisions that have significant financial, reputational, or legal implications.

Example use cases:

  • Business loan officer:The agent autonomously gathers data from financial reports, credit bureaus, and market trends. It then processes this information, analyzes risk factors, and even generates a preliminary recommendation (e.g., “Approve with conditions,” “Deny,” or “Requires further review”). A human loan officer reviews, validates, and makes the ultimate decision.
  • Sales manager:A sales manager agent coordinates multiple sub-agents working on a sales proposal. One agent pulls competitive insights, another agent drafts the proposal, and a third agent checks for pricing accuracy. A human sales manager finalizes and approves the proposal before submission.

Think of this approach as hiring a trainee manager who shadows experienced colleagues, gradually taking on more responsibility as they prove their competence. The agent handles routine work that frees up human managers for higher level strategic work while maintaining oversight and control over these AI assistants.

How Red Hat can help enterprises adopt agentic AI

Red Hat, with its deep roots in open source, is uniquely positioned to help enterprises navigate this evolutionary path to agentic AI. Our approach emphasizes control, flexibility, and enterprise-grade support, which are critical for integrating AI into existing, complex environments.

  • Open source foundations for flexibility and control: Red Hat’s portfolio, including Red Hat AI,  provides a robust, open source foundation for building, deploying, and managing AI models and agentic systems.
  • Hybrid cloud consistency:Enterprises often operate across on-premises data centers, multiple public clouds, and edge environments. Red Hat’s platforms are designed for the hybrid cloud, so your agentic AI solutions can be developed, deployed, and managed consistently, no matter where your data resides or your applications run. This consistency simplifies operations and enables for seamless scaling.
  • Operationalizing AI with MLOps and LLMOps: Red Hat OpenShift AIprovides a comprehensive platform for managing the entire AI lifecycle, from data preparation and model training to deployment and monitoring. This includes capabilities for MLOps (Machine Learning Operations) and LLMOps (Large Language Model Operations), which are essential for taking agentic AI from experimentation to reliable production. It helps teams collaborate, automate workflows, and verify that models are performing as expected.

Red Hat provides the enterprise-grade, open source platform that allows businesses to safely experiment, build, and scale agentic AI capabilities within their existing IT landscape.

Agentic AI for the enterprise is not about a disruptive “big bang” that sweeps away your current investments. Instead, it offers a pragmatic, evolutionary path to enhanced efficiency and innovation. By focusing on improving existing backend operations, experimenting in low-risk frontend areas, and thoughtfully integrating agents as “trainee managers” with human oversight, businesses can incrementally unlock significant value over time.

The goal is to augment your organization’s capabilities, empower your people, and make your enterprise more intelligent, agile, and resilient for the future.

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

การใช้ Agentic AI ในองค์กร คือการเปลี่ยนผ่านเชิงวิวัฒนาการ

มีการคาดการณ์ว่า Agentic AI จะเข้ามาปฏิวัติขั้นตอนการทำงานหลายด้านผ่านระบบอัตโนมัติอิสระที่ขับเคลื่อนด้วย AI ธุรกิจที่เป็นสตาร์ทอัพจะได้รับประโยชน์จากแนวทางนี้อย่างมาก เพราะสตาร์ทอัพไม่ต้องกังวลถึงระบบ กระบวนการ และบุคลากรที่มีอยู่เดิม แต่องค์กรใหญ่ ๆ ที่อยู่มานาน มักมีระบบที่มีความซับซ้อนเนื่องจากสร้างขึ้นต่อเนื่องมาหลายทศวรรษ เช่น กระบวนการต่าง ๆ ที่ตั้งขึ้นมาเพื่อตรวจสอบการปฏิบัติตามข้อกำหนด ระบบดั้งเดิมต่าง ๆ ที่ใช้กับการดำเนินงานสำคัญ ๆ และทีมงานที่มีประสบการณ์และมีองค์ความรู้เกี่ยวกับองค์กรที่สะสมมาอย่างยาวนานและเป็นตัวขับเคลื่อนความสำเร็จให้กับธุรกิจ ดังนั้นสำหรับองค์กรขนาดใหญ่แล้ว คุณค่าที่แท้จริงไม่ได้อยู่ที่การเปลี่ยนแปลงแบบหน้ามือเป็นหลังมือ แต่อยู่ที่การเสริมศักยภาพวิธีการดำเนินงานที่ใช้อยู่ในปัจจุบันอย่างมีกลยุทธ์ และนั่นคือ วิวัฒนาการ หรือ การเปลี่ยนแปลงแบบค่อยเป็นค่อยไปอย่างมีระบบ ไม่ใช่การปฏิวัติ หรือ การยกเครื่องใหม่ทั้งหมดอย่างทันทีทันใด

บทความนี้มีคำแนะนำเฉพาะเกี่ยวกับวิธีที่องค์กรสามารถสร้างประโยชน์ ด้วยการบูรณาการเครื่องมือและกระบวนการ AI อย่างมีกลยุทธ์ แทนที่จะต้องสร้างขึ้นมาใหม่ทั้งหมด 

การนำ Agentic AI มาใช้ ทำให้เกิดข้อพิจารณาเชิงกลยุทธ์ชุดใหม่ เนื่องจาก Agentic AI สามารถทำการตัดสินใจต่าง ๆ เพื่อให้บรรลุเป้าหมายเฉพาะที่ตั้งไว้ได้ด้วยตัวเอง ซึ่งต่างจาก AI แบบเดิมที่ออกแบบมาเพื่อทำงานตามคำสั่งเพียงอย่างเดียว การเปลี่ยนจากระบบอัตโนมัติทั่วไป ไปสู่ระบบเอเจนต์ที่กำกับดูแลตัวเองและตัดสินใจได้เองนั้น จำเป็นต้องมีแนวทางที่รัดกุมและดำเนินการเป็นขั้นเป็นตอน ต่อไปนี้คือแนวทางสามประการที่จะช่วยให้องค์กรได้รับประโยชน์จาก Agentic AI 

1.ทดลองใช้กับงานที่มีความเสี่ยงต่ำ 

องค์กรสามารถใช้ศักยภาพของ agentic AI ได้อย่างปลอดภัยมากขึ้น ด้วยการเริ่มใช้กับสภาพแวดล้อมที่มีขอบเขตชัดเจนและมีความเสี่ยงต่ำที่เมื่อเกิดความล้มเหลวแล้วจะไม่กระทบต่อการดำเนินงานสำคัญ ๆ ของธุรกิจ แนวทางเชิงทดลองนี้ช่วยสร้างความมั่นใจและความเชี่ยวชาญให้ทีมไปพร้อม ๆ กับการลดความเสี่ยง เช่น การใช้ agentic AI จัดการงานที่ต้องทำซ้ำ ๆ และมีรูปแบบชัดเจน ซึ่งเอเจนต์สามารถเรียนรู้และดำเนินการได้โดยง่าย 

ตัวอย่างการใช้งาน:

  • การบริการลูกค้า: ตัวแทนการสนทนา (conversational agents) สามารถจัดการกับคำถามพื้นฐานหรือคำขอรับบริการได้ และสามารถส่งต่อไปยังเจ้าหน้าที่ที่เป็นมนุษย์เมื่อเผชิญปัญหาที่ซับซ้อนได้อย่างราบรื่น เอเจนต์เหล่านี้สามารถแนะนำลูกค้าในการรีเซ็ตรหัสผ่าน อัปเดตที่อยู่จัดส่ง หรือดำเนินการคืนสินค้าที่ไม่ซับซ้อนได้ ด้วยการเชื่อมต่อกับพอร์ทัลลูกค้าและระบบหลังบ้านที่มีอยู่ 
  • ผู้ช่วยฝ่ายธุรการ: เอเจนต์สามารถสรุปการประชุม ติดตามงานที่ได้รับมอบหมาย สรุปและจัดลำดับความสำคัญของอีเมล เพื่อช่วยเพิ่มประสิทธิภาพในการทำงาน 

การใช้งานในลักษณะนี้ช่วยให้พนักงานมุ่งเน้นไปที่งานที่ซับซ้อน มีคุณค่าสูงกว่า หรืออ่อนไหวต่อความรู้สึกของลูกค้า ซึ่งต้องอาศัยความเข้าอกเข้าใจของมนุษย์อย่างแท้จริง และยังแสดงให้เห็นถึงคุณค่าของเอเจนต์ในสภาพแวดล้อมที่ควบคุมได้ พร้อมทั้งช่วยให้องค์กรพัฒนาทักษะและกรอบการทำงานที่จำเป็นสำหรับการนำไปใช้ในระดับที่ใหญ่ขึ้น 

  1. เพิ่มประสิทธิภาพการดำเนินงานของระบบหลังบ้าน

Agentic AI สามารถทำงานเบื้องหลังเพื่อช่วยให้การดำเนินงานปัจจุบันมีประสิทธิภาพและชาญฉลาดมากขึ้น แนวทางนี้ใช้โครงสร้างพื้นฐานที่มีอยู่เดิมขององค์กร และเพิ่มความสามารถในการตัดสินใจได้อย่างอิสระ เพื่อเพิ่มประสิทธิภาพการทำงาน โดยผู้ใช้งานไม่จำเป็นต้องเปลี่ยนรูปแบบการทำงาน กล่าวได้ว่า agentic AI ทำหน้าที่เป็นเลเยอร์อัจฉริยะที่สามารถสังเกตข้อมูลที่ไหลผ่านการดำเนินงานเบื้องหลังสำคัญ ๆ ซึ่งมักมีความซับซ้อน เช่น ระบบ ERP, CRM หรือระบบซัพพลายเชน และสามารถตรวจหาคอขวด กระตุ้นการทำงานเชิงรุก ไปจนถึงแก้ไขข้อผิดพลาดเล็กน้อยได้ 

ตัวอย่างการใช้งาน:

  • ผู้ตรวจสอบทางการเงิน: คือเอเจนต์ที่คอยตรวจสอบรูปแบบการใช้จ่าย แจ้งเตือนความผิดปกติให้มนุษย์ตรวจสอบ และจัดหมวดหมู่ธุรกรรมโดยอัตโนมัติ
  • เจ้าหน้าที่ตรวจสอบคุณภาพ: คือเอเจนต์ที่วิเคราะห์ข้อมูลการผลิตแบบเรียลไทม์ ระบุปัญหาคุณภาพที่อาจเกิดขึ้น และแนะนำแนวทางป้องกัน 

แนวทางนี้สามารถสร้างคุณค่าได้ทันทีโดยไม่รบกวนกระบวนการทำงานที่มีอยู่ ทีมงานยังคงใช้ระบบที่คุ้นเคย ในขณะเดียวกันก็ได้รับประโยชน์จากความฉลาดและระบบอัตโนมัติที่ทำงานอย่างเงียบ ๆ อยู่เบื้องหลัง

  1. ผู้จัดการฝึกหัดที่กำกับดูแลโดยมนุษย์

ศักยภาพที่แท้จริงของ agentic AI สำหรับองค์กรนั้น อาจไม่ใช่การทำงานอัตโนมัติเต็มรูปแบบ แต่เป็นการทำงานอัตโนมัติแบบร่วมมือกัน โดยสามารถมองเอเจนต์เสมือนเป็น ‘ผู้จัดการฝึกหัด’ หรือ ‘ผู้ช่วย’ ที่มีอำนาจตัดสินใจเป็นลำดับขั้น โดยเอเจนต์จะตัดสินใจงานประจำต่าง ๆ ที่มีความเสี่ยงต่ำ ขณะที่งานที่ซับซ้อนหรือมีผลกระทบสูงจะถูกส่งต่อให้ผู้จัดการที่เป็นมนุษย์ดูแล เอเจนต์จะดำเนินการงานต่าง ๆ เช่น เก็บรวบรวมข้อมูล วิเคราะห์ และเสนอข้อแนะนำเบื้องต้น ขณะที่ผู้จัดการที่เป็นมนุษย์จะเป็นผู้อนุมัติขั้นสุดท้าย โดยเฉพาะอย่างยิ่งในการตัดสินใจที่มีนัยสำคัญทางการเงิน ชื่อเสียง หรือมีผลกระทบทางกฎหมาย 

ตัวอย่างการใช้งาน:

  • เจ้าหน้าที่สินเชื่อธุรกิจ: เอเจนต์จะรวบรวมข้อมูลจากรายงานการเงินและแหล่งข้อมูลอื่น ๆ จากนั้นจะวิเคราะห์ความเสี่ยง และสร้างคำแนะนำเบื้องต้น เช่น “อนุมัติแบบมีเงื่อนไข”, “ปฏิเสธ”, หรือ “ต้องการการตรวจสอบเพิ่มเติม” ก่อนที่เจ้าหน้าที่สินเชื่อที่เป็นมนุษย์จะเข้ามาพิจารณา ตรวจสอบ และตัดสินใจขั้นสุดท้าย
  • ผู้จัดการฝ่ายขาย: เอเจนต์ผู้จัดการฝ่ายขายจะประสานงานกับตัวแทนย่อยเพื่อจัดทำข้อเสนอการขาย เช่น เอเจนต์หนึ่งดึงข้อมูลคู่แข่ง ในขณะที่อีกเอเจนต์ร่างข้อเสนอ และอีกเอเจนต์ตรวจสอบความถูกต้องของราคา จากนั้นผู้จัดการขายตัวจริงที่เป็นมนุษย์จะเป็นผู้สรุปและอนุมัติข้อเสนอก่อนดำเนินการขั้นต่อไป

แนวทางนี้เหมือนกับการจ้างผู้จัดการฝึกหัดที่เรียนรู้งานจากเพื่อนร่วมงานที่มีประสบการณ์และค่อย ๆ รับผิดชอบงานเพิ่มขึ้นเมื่อได้พิสูจน์ความสามารถแล้ว เอเจนต์ช่วยจัดการงานประจำเพื่อช่วยให้ผู้จัดการที่เป็นมนุษย์มีเวลาไปทำงานเชิงกลยุทธ์ที่สำคัญกว่าโดยยังคงความสามารถในการกำกับดูแลเอเจนต์เหล่านี้ได้อย่างใกล้ชิด

เร้ดแฮทกับการสนับสนุนองค์กรธุรกิจให้ใช้ agentic AI 

เร้ดแฮทมีรากฐานแข็งแกร่งในด้านโอเพ่นซอร์ส และสามารถนำทางองค์กรต่าง ๆ ให้เดินบนเส้นทางวิวัฒนาการไปสู่การใช้ agentic AI แนวทางของเร้ดแฮทเน้นที่การควบคุม ความยืดหยุ่น และให้การสนับสนุนที่มีคุณภาพระดับองค์กร ซึ่งเป็นสิ่งสำคัญมากต่อการบูรณาการ AI เข้ากับสภาพแวดล้อมที่ซับซ้อนที่องค์กรเหล่านั้นใช้อยู่

  • รากฐานโอเพ่นซอร์สเพื่อความยืดหยุ่นและการควบคุม: พอร์ตโฟลิโอของเร้ดแฮท รวมถึง Red Hat AI มอบรากฐานโอเพ่นซอร์สที่แข็งแกร่งสำหรับการสร้าง ติดตั้ง และบริหารจัดการโมเดล AI และระบบ agentic ต่าง ๆ
  • ความสอดคล้องกันของไฮบริดคลาวด์: องค์กรมักทำงานข้ามสภาพแวดล้อมไอทีต่าง ๆ ทั้งที่เป็นดาต้าเซ็นเตอร์ที่อยู่ในองค์กร, พับลิคคลาวด์หลายระบบ, และ edge แพลตฟอร์มของเร้ดแฮท ออกแบบมาเพื่อการใช้ไฮบริดคลาวด์ ดังนั้นองค์กรสามารถพัฒนา ใช้ และบริหารจัดการโซลูชัน agentic AI ได้อย่างสอดคล้องกันไม่ว่าจะเก็บข้อมูลไว้ที่ใด หรือแอปพลิเคชันขององค์กรจะทำงานอยู่บนสภาพแวดล้อมใด ความสอดคล้องคงเส้นคงวานี้ช่วยลดความยุ่งยากในการดำเนินงานและช่วยให้สามารถขยายขนาดการทำงานได้อย่างราบรื่น
  • การใช้งาน AI ด้วย MLOps และ LLMOps: Red Hat OpenShift AI มอบแพลตฟอร์มที่สมบูรณ์แบบสำหรับการบริหารจัดการไลฟ์ไซเคิลของ AI ทั้งหมด ตั้งแต่การเตรียมข้อมูลและการเทรนโมเดล ไปจนถึง การใช้งาน และการติดตามตรวจสอบ ซึ่งรวมถึงความสามารถสำหรับ MLOps (Machine Learning Operations) และ LLMOps (Large Language Model Operations) ที่เป็นสิ่งจำเป็นในการทำให้ agentic AI ที่อยู่ในขั้นทดลองกลายเป็นการใช้งานจริงที่เชื่อถือได้ ทั้งยังช่วยให้ทีมงานต่าง ๆ ทำงานร่วมกัน สร้างเวิร์กโฟลว์อัตโนมัติ และตรวจสอบได้ว่าโมเดลกำลังทำงานตามที่คาดหมายไว้หรือไม่

Red Hat นำเสนอแพลตฟอร์มโอเพ่นซอร์สระดับองค์กรที่ช่วยให้ธุรกิจต่าง ๆ ทดลองใช้ สร้าง และปรับขนาดความสามารถของ agentic AI ได้อย่างปลอดภัย บนแลนด์สเคปไอทีที่องค์กรใช้อยู่

Agentic AI สำหรับองค์กร ไม่ใช่เรื่องการเปลี่ยนแปลงแบบ “บิ๊กแบง” ที่ทำให้การลงทุนในปัจจุบันที่องค์กรได้ลงทุนไปนั้นเสียเปล่า แต่เป็นการนำเสนอเส้นทางวิวัฒนาการที่เน้นความจริงจัง เพื่อเพิ่มประสิทธิภาพและนวัตกรรม การให้ความสำคัญกับการปรับปรุงประสิทธิภาพการดำเนินงานเบื้องหลังที่องค์กรใช้อยู่ การทดลองใช้กับงานที่มีความเสี่ยงต่ำ และการบูรณาการเอเจนต์ต่าง ๆ ในฐานะ “ผู้จัดการฝึกหัด” เข้ากับการควบคุมของมนุษย์อย่างรอบคอบ จะช่วยให้ธุรกิจสามารถค่อย ๆ ปลดล็อกคุณค่าสำคัญเพิ่มขึ้นเรื่อย ๆ

เป้าหมายคือการเพิ่มขีดความสามารถขององค์กร เสริมศักยภาพบุคลากร และทำให้องค์กรเป็นองค์กรที่ชาญฉลาด คล่องตัว และแข็งแกร่งมากขึ้นในอนาคต

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Article by Vincent Caldeira, Chief Technology Officer, APAC at Red Hat

Over the past year, the concept of “Sovereign AI” has evolved from an aspirational idea to a strategic priority for both governments and enterprises seeking to build AI systems that reflect their values, protect their data, and serve their unique societal or business objectives. As artificial intelligence becomes embedded in everything from public services to economic infrastructure, the ability to govern, control, and shape these systems is becoming a key differentiator.

This journey isn’t about isolationism or digital protectionism. Rather, it is about building AI that is trustworthy, performant, and inclusive, which means an AI rooted in local languages, regulatory frameworks, and cultural norms, yet still able to connect to and benefit from a global innovation ecosystem. Let’s explore the recent and major trends shaping the sovereign AI landscape and the growing role open source plays in this transformation.

From Nation-States to Enterprises: Who is Pursuing Sovereign AI?

At its core, sovereign AI is about having control over data, infrastructure, and the development and deployment of AI technologies. This drive toward sovereignty is being seen across both the public and private sectors.

Governments are pursuing sovereign AI to ensure alignment with national regulations such as GDPR, the EU AI Act, Thai PDPA or even the draft Thai AI Law, to mitigate risks to national security, and to reinforce cultural or linguistic relevance in AI systems. From ensuring data does not cross borders, to creating AI that reflects societal norms and democratic values, governments are investing in AI that they can trust and shape.

Enterprises, especially those in regulated industries like finance and healthcare, are also embracing the concept. These organizations are motivated by the desire to reduce dependency on third-party providers, maintain ownership of their proprietary data, and deploy AI in secure and cost-effective environments, often within hybrid or on-premise infrastructures.

Open Source: The Cornerstone of a Sovereign AI Strategy

Open source is emerging as the critical foundation for achieving AI sovereignty. This is not because it enables isolation, but because it grants agency.

With access to “open source” (technically, open weights) models such as LLaMA, Falcon, Qwen, and Mistral, and open source tooling covering the entire spectrum of requirements to build and maintain scalable AI platforms, governments and enterprises can inspect, modify, and fine-tune AI systems to suit their specific needs. Properly implemented, open source AI platforms allow full visibility into the data flows and logic driving AI outputs, and offer the flexibility to innovate faster through collaboration with a global community.

Recent research from the Linux Foundation indicates that 41% of organizations express a preference for open source GenAI technologies, while only 9% lean towards proprietary solutions.

Models of Sovereignty: Centralized, Decentralized, or Collaborative?

In Europe, countries are combining strong regulatory frameworks with investments in open AI infrastructure. Initiatives like the AI Act, the BLOOM language model, and the Gaia-X project reflect a philosophy that emphasizes control, trust, and open collaboration.

The United States is leaning on the strength of its private sector and open-source community contribution, with state-level R&D investments complementing a broader innovation-led approach.

China, in contrast, is pursuing a centralized, state-led model of sovereignty, but this effort is increasingly powered by significant investments from both state-backed research institutions and leading technology firms. Major players like Alibaba, through its Qwen model series, and startups such as DeepSeek are actively developing frontier LLMs that rival global counterparts. These initiatives are aligned with national goals for technological self-reliance, while also adhering to strict content governance policies set by the government. The result is a rapidly advancing ecosystem where public mandates and private innovation converge to build end-to-end AI capabilities tailored to domestic needs and values.

Meanwhile, countries in ASEAN and the Middle East are making bold investments in regional AI capacity. Singapore’s SEA-LION and the UAE’s Falcon projects showcase how open source and regional collaboration can be leveraged to achieve sovereignty, especially in multilingual and culturally specific contexts.

While governance models differ, a shared thread unites these efforts: the ambition to tailor AI to local values, languages, needs, and goals.

The Dimensions of Digital Sovereignty

Sovereign AI doesn’t exist in isolation. It is deeply connected to broader principles of digital sovereignty, which can be broken down into three key dimensions:

  • Technology Sovereignty: As AI systems become increasingly foundational to public services and economic competitiveness, the ability to independently design, build, and operate these systems is critical. Technology sovereignty refers not only to visibility into model architecture, training data, and system behavior, but also to control over the hardware and platforms on which these models run. A key concern is the widespread dependence on foreign-made accelerators, such as GPUs from NVIDIA and AMD, which currently dominate the AI compute landscape. In response, countries and enterprises are investing in alternative supply chains, domestic chip manufacturing, and open hardware initiatives to reduce strategic vulnerabilities. Achieving technology sovereignty means being able to develop and deploy AI models on infrastructure that is both trusted and locally governed, minimizing risks associated with geopolitical tensions, export controls, or external platform dependencies.
  • Operational Sovereignty: This dimension addresses not only where AI systems are deployed—such as on-premises or in a sovereign cloud—but also who has the authority, skills, and access to operate and maintain them. For governments and enterprises seeking greater autonomy, it is not sufficient to own the infrastructure; operational sovereignty means ensuring that AI systems can be managed by locally trusted personnel with the appropriate skills and clearance. This includes building a talent pipeline of AI engineers, MLOps specialists, and cybersecurity professionals, as well as reducing reliance on foreign managed service providers. In many cases, national policies are beginning to mandate that critical digital infrastructure must be supported by staff of specific nationality or within legal jurisdictions to safeguard sensitive data and systems from foreign influence or supply chain risks. Achieving operational sovereignty ensures that AI systems remain functional, secure, and accountable under local control, even in times of global disruption.
  • Data Sovereignty: Data sovereignty pertains to the legal and ethical governance of data—specifically, ensuring that data is collected, stored, and processed within the boundaries of national laws and values. In a world increasingly reliant on AI, data is not just an asset; it is a strategic resource. Sovereign AI systems must operate in compliance with local regulations, including privacy laws, data residency requirements, and consent frameworks. Moreover, data governance must reflect cultural and societal expectations, particularly in areas like biometric data, healthcare, and finance. Countries and enterprises are therefore investing in trusted data infrastructures, federated data platforms, and national datasets to maintain control over critical information assets. The ability to govern who can access, analyze, and share data – especially in multi-cloud or cross-border contexts – is essential to maintaining trust, compliance, and competitive advantage.

Open source enhances each of these pillars. It supports transparency, enables interoperability, and provides a foundation for aligning systems with both national regulations and organizational strategies.

Challenges Ahead: Compute, Data, Skills, and Governance

Despite growing momentum, implementing sovereign AI at scale remains complex. Several challenges persist:

Access to high-performance computing remains a major constraint, with shortages in GPUs and the cost of training large models proving prohibitive for many governments and businesses. The availability of high-quality, localized datasets is also a limiting factor, particularly for underrepresented languages or niche domains.

Workforce development is another pressing issue. There is a global shortage of professionals with the skills to build, deploy, and govern AI systems responsibly. At the same time, the absence of shared technical and ethical standards across jurisdictions can create barriers to cross-border collaboration and model interoperability.

Overcoming these obstacles will require a combination of public investment, private innovation, international cooperation, and sustained support for open source communities.

What’s Next? A Sovereign, Open, and Responsible Future

We are entering a critical phase where the capabilities of AI will help define national competitiveness and organizational resilience. Those that succeed will not necessarily be the ones with the largest models, but rather those with systems that are most aligned with their strategic priorities and stakeholder needs.

Sovereign AI, when grounded in open source principles, provides a powerful pathway forward. It enables localized innovation without duplicating global efforts. It fosters transparency and accountability without compromising on performance. And it supports a more ethical and sustainable AI ecosystem, with governance models that reflect the values of those who build and use it.

Open source is not just a tool for achieving AI sovereignty. In many ways, it is the model of sovereignty itself.

If your organization is exploring its own path toward Sovereign AI – whether in government, industry, or research – this is the time to embrace openness as a lever for control, not a concession. By doing so, we can build an AI future that is not only powerful and intelligent but also inclusive, transparent, and truly our own.