Sovereign AI: กลยุทธ์ใหม่ที่รัฐและธุรกิจต้องมี

Sovereign AI: The New Strategic Imperative for Governments and Enterprises

Sovereign AI: กลยุทธ์ใหม่ที่รัฐและธุรกิจต้องมี

บทความโดย นายวินเซนต์ คัลเดรา ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีประจำภูมิภาคเอเชียแปซิฟิกของเร้ดแฮท

 ในช่วงปีที่ผ่านมา แนวคิด “Sovereign AI” หรือความมีอิสระในการสร้างและควบคุม AI ได้ด้วยตนเอง ได้พัฒนาจากแนวคิดที่เป็นแรงบันดาลใจ ไปเป็นความสำคัญเชิงยุทธศาสตร์ของภาครัฐและองค์กรธุรกิจต่าง ๆ ที่กำลังแสวงหาวิธีการสร้างระบบ AI ที่สะท้อนถึงคุณค่าขององค์กร ตอบโจทย์ด้านการปกป้องข้อมูล และตอบสนองวัตถุประสงค์ทางธุรกิจหรือทางสังคมที่เป็นเอกลักษณ์เฉพาะของตน

การที่ AI กลายมาเป็นสิ่งที่ฝังอยู่ในทุกสิ่งทุกอย่าง ตั้งแต่บริการสาธารณะ ไปจนถึงโครงสร้างพื้นฐานทางเศรษฐกิจ ทำให้ความสามารถในการควบคุม สั่งการ และกำหนดรูปแบบระบบต่าง ๆ เหล่านี้ กำลังกลายเป็นตัวสร้างความแตกต่างที่สำคัญ

วิถีทางนี้ไม่ใช่การโดดเดี่ยวตัวเองหรือมีนโยบายกีดกันหรือควบคุมทางดิจิทัล แต่เป็นเรื่องเกี่ยวกับการสร้าง AI ที่เชื่อถือได้ มีประสิทธิภาพ และครอบคลุม ซึ่งหมายถึง AI ที่มีรากฐานมาจากภาษาท้องถิ่น เป็นไปตามกรอบการกำกับดูแลและบรรทัดฐานทางวัฒนธรรมของท้องถิ่นนั้น ๆ แต่ยังคงสามารถเชื่อมต่อและได้รับประโยชน์จากระบบนิเวศทางนวัตกรรมจากทั่วโลก

แนวโน้มสำคัญล่าสุดที่เป็นตัวกำหนดภูมิทัศน์ Sovereign AI รวมถึงบทบาทที่เพิ่มขึ้นของโอเพ่นซอร์สที่เกี่ยวกับการเปลี่ยนแปลงดังกล่าวนี้ประกอบด้วย

ตั้งแต่ระดับประเทศไปถึงองค์กรธุรกิจ:  ใครบ้างที่กำลังแสวงหา Sovereign AI

โดยแก่นแท้แล้ว Sovereign AI เป็นเรื่องเกี่ยวกับการมีอำนาจควบคุมข้อมูล โครงสร้างพื้นฐาน การพัฒนาและการใช้เทคโนโลยี AI ซึ่งเป็นความต้องการที่เกิดขึ้นทั้งในภาครัฐและภาคเอกชน

ภาครัฐหลายแห่งกำลังมุ่งสู่การใช้ Sovereign AI เพื่อให้มั่นใจได้ว่าการดำเนินงานด้าน AI จะเป็นไปตามกฎระเบียบของประเทศ เช่น GDPR, EU AI Act รวมถึง PDPA ของไทย และร่างกฎหมาย AI ที่กำลังดำเนินการอยู่ เพื่อลดความเสี่ยงด้านความมั่นคงของประเทศ และเพื่อส่งเสริมความแข็งแกร่งทางวัฒนธรรมและภาษาในระบบ AI ต่าง ๆ ดังนั้นภาครัฐต่างลงทุนด้าน AI ที่ตนไว้ใจและกำหนดรูปแบบได้เอง เพื่อตอบโจทย์เฉพาะของตน ตั้งแต่ทำให้มั่นใจได้ว่าข้อมูลจะไม่ถูกนำออกนอกประเทศ ไปจนถึงการสร้าง AI ที่สะท้อนบรรทัดฐานทางสังคมและคุณค่าของความอิสระที่สามารถควบคุมได้ด้วยตนเอง

องค์กรต่าง ๆ โดยเฉพาะองค์กรที่อยู่ในอุตสาหกรรมที่มีกฎระเบียบควบคุม เช่น การเงิน และ การดูแลสุขภาพ ต่างนำแนวคิดนี้ไปใช้เช่นเดียวกัน เนื่องจากองค์กรเหล่านี้ต้องการลดการพึ่งพาผู้ให้บริการภายนอก คงความเป็นเจ้าของข้อมูลที่เป็นกรรมสิทธิ์ของตน และใช้ AI บนสภาพแวดล้อมที่ปลอดภัยและคุ้มค่าการลงทุน ซึ่งโดยมากมักใช้โครงสร้างพื้นฐานไอทีแบบไฮบริดหรือที่ติดตั้งอยู่ภายในองค์กร (on-premise)

โอเพ่นซอร์ส: เสาหลักของกลยุทธ์ Sovereign AI

โอเพ่นซอร์สกำลังก้าวขึ้นเป็นโครงสร้างพื้นฐานสำคัญที่จะช่วยให้องค์กรประสบความสำเร็จในการควบคุม AI ของตน (AI sovereignty) ซึ่งไม่เพียงเพราะโอเพ่นซอร์สช่วยให้แยกออกมาเป็นเอกเทศได้เท่านั้นแต่ยังให้สิทธิ์ในการควบคุมด้วย

การเข้าถึงโมเดลด้านภาษาขนาดใหญ่ที่เป็นโอเพ่นซอร์ส(ในทางเทคนิค คือโอเพ่นเวท) ต่าง ๆ เช่น LLaMA, Falcon, Qwen, และ Mistral รวมถึงสามารถเข้าถึงเครื่องมือโอเพ่นซอร์สที่ครอบคลุมความต้องการทั้งหมดที่ต้องการใช้ในการสร้างและคงความสามารถในการปรับขนาดของแพลตฟอร์ม AI ต่าง ๆ ได้นั้น จะช่วยให้ภาครัฐและองค์กรธุรกิจสามารถตรวจสอบ ปรับเปลี่ยน และปรับแต่งระบบ AI ให้เหมาะกับความต้องการเฉพาะของตนได้ เมื่อมีการนำแพลตฟอร์ม open source AI ไปใช้อย่างเหมาะสม ผู้ใช้จะสามารถมองเห็นการเคลื่อนไหวหรือกระแสการไหลของข้อมูล และ ตรรกะหรือระบบการใช้เหตุผลที่ใช้ขับเคลื่อนผลลัพธ์ของ AI ทั้งยังมีความยืดหยุ่นในการสร้างสรรค์สิ่งใหม่ได้อย่างรวดเร็วผ่านความร่วมมือกับชุมชนทั่วโลก ทั้งนี้ งานวิจัยล่าสุดจาก Linux Foundation ระบุว่าองค์กร 41% ชื่นชอบเทคโนโลยี open source GenAI ในขณะที่มีเพียง 9% เท่านั้นที่ใช้โซลูชันที่มีกรรมสิทธิ์ 

รูปแบบของอำนาจควบคุม AI ควรเป็นแบบรวมศูนย์ กระจายอำนาจ หรือร่วมมือกัน

ประเทศต่าง ๆ ในยุโรปกำลังผสานกรอบการกำกับดูแลที่แข็งแกร่งเข้ากับการลงทุนโครงสร้างพื้นฐาน open AI เช่น AI Act, โมเดลภาษา BLOOM, และโปรเจกต์ Gaia-X สะท้อนให้เห็นหลักคิดที่เน้นการควบคุม ความไว้วางใจ และการทำงานร่วมกันแบบเปิด

สหรัฐอเมริกากำลังใช้จุดแข็งของภาคเอกชนและการมีส่วนร่วมของชุมชนโอเพ่นซอร์ส ด้วยการลงทุนด้านวิจัยและพัฒนาในระดับรัฐเพื่อส่งเสริมแนวทางที่ใช้นวัตกรรมเป็นตัวนำในวงกว้างมากขึ้น

ในทางตรงกันข้าม จีนกำลังใช้โมเดล sovereignty แบบรวมศูนย์ที่นำโดยภาครัฐ โดยได้รับแรงสนับสนุนจากการลงทุนสำคัญจากทั้งสถาบันวิจัยที่ได้รับการสนับสนุนจากรัฐ และบริษัทเทคโนโลยีชั้นนำต่าง ๆ มากขึ้นเรื่อย ๆ ผู้ให้บริการรายใหญ่เช่นอาลีบาบาที่เป็นเจ้าของชุดโมเดล Qwen และสตาร์ทอัพอย่าง DeepSeek กำลังพัฒนา LLMs ที่มีศักยภาพระดับแนวหน้าที่สามารถแข่งขันกับบริษัทระดับโลกอย่างแข็งขัน การริเริ่มเหล่านี้ สอดคล้องกับเป้าหมายระดับประเทศด้านการพึ่งพาตนเองทางเทคโนโลยี และการปฏิบัติตามนโยบายการกำกับดูแลเนื้อหาที่เข้มงวดที่กำหนดโดยรัฐบาล ผลลัพธ์ที่ได้คือระบบนิเวศที่ก้าวหน้าอย่างรวดเร็วจากการที่นโยบายและกฎเกณฑ์ของรัฐและนวัตกรรมของภาคเอกชนมาบรรจบกัน เพื่อสร้างความสามารถด้าน AI ครบวงจรที่ได้รับการปรับให้เหมาะกับความต้องการและคุณประโยชน์ที่ท้องถิ่นและประเทศต้องการ

ในขณะที่ประเทศในอาเซียนและตะวันออกกลางลงทุนพัฒนาศักยภาพด้าน AI ในระดับภูมิภาคอย่างหนัก โครงการ SEA-LION ของสิงคโปร์ และโครงการ Falcon ของ UAE เป็นตัวอย่างที่แสดงให้เห็นว่าโอเพ่นซอร์สและความร่วมมือระดับภูมิภาคจะช่วยให้บรรลุเป้าหมายการมีอำนาจควบคุมด้วยตนเอง (sovereignty) โดยเฉพาะในบริบทที่มีภาษาและวัฒนธรรมหลากหลายได้อย่างไร

แม้รูปแบบการกำกับดูแลจะต่างกัน แต่มีสิ่งหนึ่งที่เหมือนกัน คือ ความต้องการอย่างแรงกล้าที่จะปรับแต่ง AI ให้เข้ากันกับค่านิยมในท้องถิ่น ภาษา ความต้องการ และเป้าหมาย ของท้องถิ่นนั้น ๆ

มิติของความมีอิสระทางดิจิทัล (Digital Sovereignty)

Sovereign AI ไม่ใช่การโดดเดี่ยวตัวเอง แต่มีความเชื่อมโยงอย่างลึกซึ้งกับหลักการที่กว้างขวางของความมีอิสระทางดิจิทัล (digital sovereignty) ซึ่งแบ่งเป็นสามมิติหลักคือ

  • ความมีอิสระทางเทคโนโลยี (technology sovereignty): การที่ระบบ AI ข้ามาเป็นฐานของบริการสาธารณะต่าง ๆ และเป็นฐานหลักให้กับการแข่งขันทางเศรษฐกิจมากขึ้น ทำให้ความสามารถในการออกแบบ สร้าง และใช้งานระบบเหล่านี้ได้อย่างอิสระเป็นสิ่งสำคัญ 

Technology sovereignty ไม่เพียงหมายถึงความสามารถในการมองเห็นสถาปัตยกรรมของโมเดล ข้อมูลที่ใช้เทรน และพฤติกรรมของระบบเท่านั้น แต่ยังหมายถึงความสามารถในการควบคุมฮาร์ดแวร์และแพลตฟอร์มต่าง ๆ ที่โมเดลเหล่านั้นทำงานด้วย ข้อกังวลสำคัญประการหนึ่งคือ การที่ต้องพึ่งพาฮาร์ดแวร์เร่งความเร็ว (accelerators) จากต่างประเทศอย่างมาก เช่น GPU จาก NVIDIA และ AMD ซึ่งครองอิทธิพลด้านการประมวลผล AI ในปัจจุบัน  

ประเทศและองค์กรต่าง ๆ ตอบสนองต่อความกังวลนี้ด้วยการลงทุนในซัพพลายเชนทางเลือก การผลิตชิปในประเทศ และแนวคิดฮาร์ดแวร์แบบเปิด เพื่อลดช่องโหว่เชิงกลยุทธ์ต่าง ๆ  ทั้งนี้การบรรลุเป้าหมาย technology sovereignty นั้นหมายถึง ต้องสามารถพัฒนาและใช้โมเดล AI บนโครงสร้างพื้นฐานที่เชื่อถือได้และอยู่ภายใต้การควบคุมของท้องถิ่นเอง ต้องสามารถลดความเสี่ยงที่เกี่ยวกับความตึงเครียดทางภูมิรัฐศาสตร์ การควบคุมการส่งออกทางเทคโนโลยี หรือการต้องพึ่งพาแพลตฟอร์มจากภายนอกให้เหลือน้อยที่สุด

  • ความมีอิสระในการปฏิบัติงาน (operational sovereignty): มิตินี้ไม่ได้ดูเพียงว่าใช้ระบบ AI ที่ไหน เช่น ใช้อยู่ภายในองค์กร (on-premises) หรือใช้บนคลาวด์ของตนเอง (sovereign cloud) แต่ยังต้องดูว่าใครมีอำนาจ มีทักษะ และสามารถเข้าถึงระบบเพื่อดำเนินงานและบำรุงรักษาระบบเหล่านั้นด้วย การเป็นเจ้าของโครงสร้างพื้นฐานนั้นไม่เพียงพอสำหรับรัฐและองค์กรธุรกิจที่ต้องการความมีอิสระมากขึ้น operational sovereignty นั้น หมายถึงต้องมั่นใจได้ว่าระบบ AI ต่าง ๆ จะได้รับการบริหารจัดการโดยบุคลากรในท้องถิ่นที่ไว้วางใจได้ มีทักษะและได้รับการอนุญาตอย่างเหมาะสม ซึ่งรวมถึงการสร้างกลุ่มบุคลากรที่มีทักษะรองรับงานด้านนี้ เช่น วิศวกรด้าน AI ผู้เชี่ยวชาญด้าน MLOps และ มืออาชีพด้านความปลอดภัยไซเบอร์ ตลอดจนลดการพึ่งพาผู้ให้บริการ managed service ต่างประเทศ นโยบายระดับชาติของหลายประเทศเริ่มกำหนดว่าโครงสร้างพื้นฐานดิจิทัลสำคัญ ๆ ต้องได้รับการดูแลและสนับสนุนโดยเจ้าหน้าที่ที่มีสัญชาตินั้น ๆ หรือ ภายในเขตอำนาจศาลทางกฎหมายใด ๆ เพื่อปกป้องข้อมูลที่ละเอียดอ่อนและระบบต่าง ๆ จากอิทธิพลจากต่างประเทศ หรือ ความเสี่ยงด้านซัพพลายเชน เมื่อมีอิสระในการปฏิบัติงานแล้ว จะทำให้มั่นใจว่าระบบ AI ต่าง ๆ ยังคงทำงานได้เป็นปกติ ปลอดภัย และเป็นไปตามการควบคุมของท้องถิ่น แม้ในเวลาที่เกิดการเปลี่ยนแปลงในระดับโลกก็ตาม
  • ความมีอิสระด้านข้อมูล (data sovereignty): ความมีอิสระด้านข้อมูลเกี่ยวข้องกับการกำกับดูแลด้านกฎหมายและจริยธรรมของข้อมูล เพื่อให้มั่นใจว่าการรวบรวม การจัดเก็บ และการประมวลผลข้อมูล อยู่ภายในขอบเขตของกฎหมายและค่านิยมของประเทศ ในโลกที่พึ่งพา AI มากขึ้นนั้น ข้อมูลไม่ได้เป็นเพียงทรัพย์สิน แต่เป็นทรัพยากรเชิงกลยุทธ์ ระบบ Sovereign AI ต่าง ๆ ต้องทำงานตามกฎข้อบังคับของท้องถิ่น ซึ่งรวมถึงกฎหมายความเป็นส่วนตัว ข้อกำหนดด้านที่อยู่ของข้อมูล และกรอบการทำงานด้านการให้ความยินยอมต่าง ๆ นอกจากนี้ การกำกับดูแลข้อมูลต้องสะท้อนความคาดหวังด้านวัฒนธรรมและสังคม โดยเฉพาะในลักษณะเช่น ข้อมูลไบโอเมตริกซ์ การดูแลสุขภาพ และ การเงิน ประเทศและองค์กรธุรกิจจึงลงทุนกับโครงสร้างพื้นฐานข้อมูลที่เชื่อถือได้ แพลตฟอร์มข้อมูลแบบรวมศูนย์ และชุดข้อมูลของประเทศ เพื่อคงความสามารถในการควบคุมทรัพย์สินด้านข้อมูลสำคัญไว้ ทั้งนี้ความสามารถในการควบคุมว่าใครเข้าถึงระบบและข้อมูลได้บ้าง ความสามารถในการวิเคราะห์และการแชร์ข้อมูล โดยเฉพาะในบริบทที่ใช้มัลติคลาวด์ หรือ ทำงานข้ามพรมแดน เป็นสิ่งสำคัญต่อการรักษาความไว้วางใจ การปฏิบัติตามกฎระเบียบ และความได้เปรียบทางการแข่งขัน

โอเพ่นซอร์สช่วยเสริมแกร่งให้เสาหลักเหล่านี้ ด้วยคุณสมบัติด้านความโปร่งใส ช่วยให้สามารถทำงานร่วมกันได้ และ เป็นรากฐานของการปรับระบบต่าง ๆ ให้สอดคล้องกับกฎระเบียบของประเทศและกลยุทธ์ขององค์กร

ความท้าทายที่รออยู่: การประมวลผล ข้อมูล ทักษะ และการกำกับดูแล

แม้มีแนวโน้มว่าจะมีการใช้ Sovereign AI เพิ่มขึ้น แต่การนำไปใช้ในวงกว้างยังคงประสบความซับซ้อนจากความท้าทายหลายประการ เช่น

รัฐบาลและธุรกิจหลายแห่งยังติดขัดกับข้อจำกัดที่สำคัญประการหนึ่ง คือความสามารถในการเข้าถึงการประมวลผลประสิทธิภาพสูง อันเนื่องมาจากการขาดแคลน GPU และค่าใช้จ่ายในการเทรนโมเดลขนาดใหญ่ นอกจากนี้ ความพร้อมใช้ของชุดข้อมูลภายในท้องถิ่นที่มีคุณภาพสูงเป็นอีกหนึ่งข้อจำกัด โดยเฉพาะชุดข้อมูลที่เป็นภาษาถิ่นของตนที่มีไม่เพียงพอ หรือชุดข้อมูลเฉพาะทางด้านต่าง ๆ ที่มีอยู่จำกัด

การพัฒนาบุคลากรเป็นอีกหนึ่งประเด็นเร่งด่วน ทั่วโลกขาดแคลนผู้เชี่ยวชาญที่มีทักษะในการสร้าง ปรับใช้ และควบคุมระบบ AI อย่างมีความรับผิดชอบ ในขณะเดียวกัน การขาดมาตรฐานทางเทคนิคและจริยธรรมที่ใช้ร่วมกันในทุกเขตอำนาจศาล อาจสร้างอุปสรรคต่อการทำงานร่วมกันข้ามพรมแดน และการทำงานร่วมกันของโมเดลได้

 อุปสรรคเหล่านี้สามารถหมดไปได้ด้วยการผสานพลังจากการลงทุนของภาครัฐ นวัตกรรมของภาคเอกชน ความร่วมมือระหว่างประเทศ และการสนับสนุนชุมชนโอเพ่นซอร์สอย่างยั่งยืน

อนาคตของความมีอิสระ ความเปิดกว้าง และความรับผิดชอบ

เรากำลังเข้าสู่ช่วงสำคัญที่ความสามารถต่าง ๆ ของ AI จะช่วยกำหนดความสามารถทางการแข่งขันของประเทศ และความแข็งแกร่งขององค์กร ผู้ที่ประสบความสำเร็จไม่จำเป็นต้องเป็นผู้ที่มีโมเดลขนาดใหญ่ที่สุด แต่เป็นผู้ที่มีระบบต่าง ๆ ที่สอดคล้องกับลำดับความสำคัญทางกลยุทธ์และความต้องการของผู้ถือผลประโยชน์ร่วมกันได้มากที่สุด

Sovereign AI ที่มีพื้นฐานมาจากหลักการของโอเพ่นซอร์ส จะมอบเส้นทางข้างหน้าที่ทรงพลัง ช่วยให้เกิดนวัตกรรมในท้องถิ่นโดยไม่ต้องเหมือนกับที่อื่นในโลก ส่งเสริมความโปร่งใสและความรับผิดชอบโดยไม่กระทบต่อประสิทธิภาพการทำงาน และ สนับสนุนระบบนิเวศ AI ที่มีจริยธรรมและยั่งยืนมากขึ้น ด้วยโมเดลการกำกับดูแลต่าง ๆ ที่สะท้อนคุณค่าของผู้สร้างและผู้ใช้

โอเพ่นซอร์สไม่ได้เป็นเพียงเครื่องมือที่จะช่วยให้ประสบความสำเร็จด้าน AI sovereignty แต่เป็นโมเดลที่มีความเป็นอิสระในตัวของมันเอง

หากองค์กรของท่านกำลังมองหาเส้นทางสู่ Sovereign AI ของตนเอง ไม่ว่าท่านจะเป็นภาครัฐ บริษัทในอุตสาหกรรม หรือหน่วยงานวิจัย ถึงเวลาแล้วที่จะต้องใช้ความเปิดกว้างเป็นเครื่องมือในการควบคุมที่ไม่ใช่การยอมรับตามเจ้าของบริการเสียทั้งหมด และเราจะสามารถสร้างอนาคตของ AI ที่ไม่เพียงแต่จะทรงพลังและชาญฉลาดเท่านั้น แต่ยังเป็น AI ที่ครอบคลุม โปร่งใส และเป็นของเราเองอย่างแท้จริง

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

  • Durable foundation for IT innovation fuels more intelligent hybrid cloud operations with AI-powered Linux management
  • Adds security features to help mitigate future quantum-based threats
  • Makes containers the language of the OS and new Red Hat Insights capabilities enable more informed decisions at build time
  • Empowers the next generation of developers with support for emerging architectures and software innovation

Red Hat, the world’s leading provider of open source solutions, today introduced Red Hat Enterprise Linux 10, the evolution of the world’s leading enterprise Linux platform to help meet the dynamic demands of hybrid cloud and the transformative power of AI. More than just an iteration, Red Hat Enterprise Linux 10 provides a strategic and intelligent backbone for enterprise IT to navigate increasing complexity, accelerate innovation and build a more secure computing foundation for the future.

As enterprise IT grapples with the proliferation of hybrid environments and the imperative to integrate AI workloads, the need for an intelligent, resilient and durable operating system has never been greater. Red Hat Enterprise Linux 10 rises to this challenge, delivering a platform engineered for agility, flexibility and manageability, all while retaining a strong security posture against the software threats of the future.

Intelligent operations for complex environments: Introducing AI-powered Linux management with Lightspeed

According to a Red Hat-sponsored IDC study, “organizations [are] struggling to hire the Linux skill sets they need to operate and support their expanding fleet of distributions, which opens them up to further risk around security, compliance and application downtime. As technology demands continue to evolve and necessitate the use of more of these deployment scenarios and mechanisms, Red Hat is one of the few providers that can feasibly address all of them.”

Addressing this critical skills gap in Linux administration, Red Hat Enterprise Linux 10 introduces Red Hat Enterprise Linux Lightspeed. Integrating generative AI (gen AI) directly within the platform helps provide context-aware guidance and actionable recommendations through a natural language interface. Tapping decades of Red Hat Enterprise Linux-specific knowledge, it assists with tasks from troubleshooting common issues to best practices for managing complex IT estates. This empowers both newer and experienced IT professionals to manage vast Red Hat Enterprise Linux environments with greater efficiency by bringing AI-powered help straight to the command line in Red Hat Enterprise Linux 10.

Enhanced security features for the quantum frontier

Recognizing the long-term security implications of quantum computing, Red Hat Enterprise Linux 10 leads the industry as the first enterprise Linux distribution to integrate National Institute of Standards and Technology (NIST) standards for post-quantum cryptography. This proactive approach equips organizations to better defend against future “harvest now; decrypt later” attacks and meet evolving regulatory requirements. This includes incorporating quantum-resistant algorithms to mitigate the risk of future decryption of currently harvested data and post-quantum signature schemes to validate the integrity and authenticity of software packages and TLS certificates.

Unifying hybrid infrastructure and shifting decision-making left

Red Hat Enterprise Linux 10 delivers a paradigm shift in enterprise operating systems with image mode. This container-native approach unifies the build, deployment and management of both the operating system and applications within a single, streamlined workflow. Customers can now manage their entire IT landscape, from containerized applications to the underlying platform, with the same consistent tools and techniques. This approach significantly minimizes configuration drift by proactively preventing unexpected patch deviations and establishing a unified set of practices for application developers and IT operations teams.

IT organizations frequently need to make critical decisions at build time when it comes to the specific mix of packages in a standard operating environment (SOE). Red Hat Enterprise Linux 10 adds Red Hat Insights image builder package recommendations to help teams make more informed and tailored package decisions for their specific deployment before they impact production. Additionally, Red Hat Insights planning offers a view into the Red Hat Enterprise Linux roadmap and lifecycle, enhancing the platform’s future-readiness.

From cloud-native to AI-ready: Red Hat Enterprise Linux 10 powers what’s next

Red Hat Enterprise Linux’s decades-long legacy as the trusted backbone for production environments extends with Red Hat Enterprise Linux 10, underpinning both current and future technology needs. The latest version of the platform serves as the bedrock for Red Hat AI, Red Hat’s curated and optimized AI solutions that encompass Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI).

Key additions in Red Hat Enterprise Linux 10 include capabilities and innovations to:

Availability

Red Hat Enterprise Linux 10 is now generally available through the Red Hat Customer Portal. Developers can also access Red Hat Enterprise Linux 10 via no-cost Red Hat Developer programs, offering a wealth of resources to get started, including software access, how-to videos, demos and documentation.

Supporting Quotes

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
 “Red Hat Enterprise Linux 10 is engineered to empower enterprise IT and developers to not just manage the present, but to architect the future. With intelligent features using gen AI, unified hybrid cloud management through image mode and a proactive approach to security with post-quantum cryptography, Red Hat Enterprise Linux 10 provides the robust and innovative foundation needed to thrive in the era of hybrid cloud and AI.”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
 “In collaboration with Red Hat, ABB is committed to extending operational consistency for industrial use cases across edge and hybrid cloud environments, transforming process automation and industrial controls for the future. Using image mode for Red Hat Enterprise Linux, ABB is able to simplify the operating system build process to streamline our development lifecycle and implement a standardized installation method. This results in faster product innovations and a more appliance-like workflow for deployments, so customers can spend less time in setup and focus more on putting ABB’s technologies to use to generate business outcomes.”

Ryan Caskey, research manager, IDC
“Due to evolving operational requirements, organizations can accumulate diverse Linux distributions, and the consistent maintenance of these heterogeneous environments can become increasingly challenging. Large-scale and intricate infrastructures, as well as teams that are routinely understaffed, underskilled and underfunded, present problems in need of solutions. Red Hat Enterprise Linux aims to establish a robust, foundational layer for both current and future IT strategic initiatives.”

Anish Bhatt, software architect, Salesforce

“In today’s increasingly complex technology landscape, managing infrastructure at scale can be a challenge. Image mode allows consolidation of our pipelines and build processes, which are increasingly geared towards containerization. It has also brought stability to our environments, reducing configuration drift and enabling a more consistent deployment experience. We can also upgrade between major and minor releases of Red Hat Enterprise Linux with less operational risk due to the ability to quickly roll back changes. Image mode is a meaningful step towards simplifying cloud-native application development and IT operations in a single pipeline.”

1IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

  • เป็นรากฐานที่แข็งแกร่งให้กับนวัตกรรมด้านไอที ช่วยเสริมการดำเนินงานบนไฮบริดคลาวด์ให้ชาญฉลาดมากขึ้นด้วยการใช้ AI เป็นพลังขับเคลื่อนการบริหารจัดการ Linux 
  • เพิ่มฟีเจอร์ด้านความปลอดภัยเพื่อช่วยบรรเทาภัยคุกคามจากควอนตัมคอมพิวติ้ง
  • บริหารจัดการระบบปฏิบัติการในรูปแบบเดียวกับคอนเทนเนอร์ มาพร้อมความสามารถใหม่ของ Red Hat Insights ที่ช่วยให้มีข้อมูลประกอบการตัดสินใจมากขึ้นตั้งแต่เริ่มสร้างแอปพลิเคชันหรือโซลูชัน
  • เสริมศักยภาพให้นักพัฒนาซอฟต์แวร์รุ่นต่อไป ด้วยการสนับสนุนและรองรับสถาปัตยกรรมเกิดใหม่ และนวัตกรรมทางซอฟต์แวร์

เร้ดแฮท ผู้ให้บริการด้านโซลูชันโอเพ่นซอร์สระดับโลกเปิดตัว Red Hat Enterprise Linux 10 ซึ่งเป็นความก้าวหน้าของแพลตฟอร์ม Linux ระดับองค์กรคุณภาพชั้นนำของโลก เพื่อตอบสนองความต้องการด้านไฮบริดคลาวด์และรองรับพลังแห่งการเปลี่ยนแปลงที่เกิดจาก AI ที่มีความเคลื่อนไหวตลอดเวลา Red Hat Enterprise Linux 10 ไม่ได้เป็นเพียงการปรับปรุงเวอร์ชันตามรอบเวลาเท่านั้น แต่ยังมอบกลยุทธ์และโครงสร้างหลักที่ชาญฉลาดให้แก่ฝ่ายไอทีองค์กร เพื่อจัดการกับความซับซ้อนที่เพิ่มขึ้น เร่งให้เกิดนวัตกรรม และสร้างโครงสร้างการประมวลผลที่ปลอดภัยมากขึ้นสำหรับอนาคต

การที่ฝ่ายไอทีขององค์กรต้องรับมือกับสภาพแวดล้อมไฮบริดที่เพิ่มขึ้นอย่างรวดเร็ว และความจำเป็นที่ต้องบูรณาการเวิร์กโหลด AI ต่าง ๆ ทำให้พวกเขาต้องการระบบปฏิบัติการที่ฉลาด ยืดหยุ่น และแข็งแกร่งอย่างมากอย่างไม่เคยเกิดขึ้นมาก่อน Red Hat Enterprise Linux 10 ช่วยให้องค์กรก้าวข้ามความท้าทายนี้ ด้วยการมอบแพลตฟอร์มที่ได้รับการออกแบบทางวิศวกรรมให้มีความคล่องตัว ยืดหยุ่น และบริหารจัดการได้ ในขณะที่ยังคงรักษาระดับความปลอดภัยต่อภัยคุกคามซอฟต์แวร์ในอนาคตได้อย่างรัดกุม

การทำงานอัจฉริยะบนสภาพแวดล้อมที่ซับซ้อน: Lightspeed คือการใช้พลังของ AI บริหารจัดการ Linux 

ข้อมูลจากการศึกษาของ IDC ที่เร้ดแฮทให้การสนับสนุนพบว่า องค์กรต่าง ๆ ใช้ความพยายามอย่างมากเพื่อนำชุดทักษะด้าน Linux ที่จำเป็นต้องใช้ในการบริหารจัดการ Linux Distribution ที่มีความหลากหลายเพิ่มขึ้นเรื่อย ๆ ซึ่งทำให้ต้องพบกับความเสี่ยงด้านความปลอดภัย การต้องปฏิบัติตามข้อกำหนด (compliance) ต่าง ๆ และการหยุดทำงานของแอปพลิเคชันมากขึ้น เร้ดแฮทเป็นผู้ให้บริการหนึ่งในไม่กี่รายที่สามารถตอบสนองความต้องการทางเทคโนโลยีที่ยังคงพัฒนาอย่างไม่หยุดยั้ง ตอบสนองต่อความจำเป็นในการใช้งาน รวมถึงกลไกต่าง ๆ ที่เพิ่มมากขึ้นเหล่านี้ได้ทั้งหมด

Red Hat Enterprise Linux 10 นำเสนอ Red Hat Enterprise Linux Lightspeed เพื่อแก้ปัญหาช่องว่างด้านทักษะสำคัญที่ต้องใช้ในการดูแลระบบ Linux โดยนำ generative AI (gen AI) ผสานรวมไว้ภายในแพลตฟอร์ม เพื่อแนะแนวทางที่เข้าใจบริบท และให้คำแนะนำที่สามารถปฏิบัติได้จริง ผ่านอินเทอร์เฟซภาษาธรรมชาติ (natural language interface) เร้ดแฮทมีความรู้เฉพาะด้าน Linux ระดับองค์กรมาหลายทศวรรษ และนำความเชี่ยวชาญเหล่านี้ช่วยทำงานต่าง ๆ ตั้งแต่การแก้ปัญหาปกติทั่วไป ไปจนถึงแนวทางปฏิบัติที่ดีที่สุดในการจัดการทรัพย์สินและทรัพยากรด้านไอทีทั้งหมดซึ่งเต็มไปด้วยความซับซ้อน ช่วยให้ผู้รับผิดชอบงานด้านไอทีทั้งที่เป็นคนใหม่และคนที่มีประสบการณ์อยู่แล้วสามารถจัดการสภาพแวดล้อมขนาดใหญ่ของ Red Hat Enterprise Linux ได้มีประสิทธิภาพมากขึ้น ด้วยการนำความช่วยเหลือที่ใช้ความสามารถของ AI ส่งตรงไปยัง command line ใน Red Hat Enterprise Linux 10

ฟีเจอร์ความปลอดภัยประสิทธิภาพสูง รองรับการมาถึงของควอนตัม

เร้ดแฮทตระหนักถึงผลกระทบด้านความปลอดภัยในระยะยาวของควอนตัมคอมพิวติ้ง และ Red Hat Enterprise Linux 10 เป็นผู้นำรายแรกในอุตสาหกรรมที่นำ enterprise Linux distribution บูรณาการกับมาตรฐานต่าง ๆ ของ National Institute of Standards and Technology (NIST) เพื่อรองรับการเข้ารหัสหลังควอนตัม (post-quantum cryptography) แนวทางเชิงรุกนี้เสริมแกร่งให้องค์กรสามารถป้องกันการโจมตีในอนาคต ในลักษณะ harvest now; decrypt later หรือการที่อาชญากรไซเบอร์เก็บข้อมูลหรือเป้าหมายไว้ก่อนแล้วถอดรหัสภายหลังเมื่อเทคโนโลยีเอื้ออำนวย ทั้งยังช่วยให้สามารถทำตามกฎระเบียบที่เปลี่ยนแปลงไปได้ แนวทางนี้รวมถึงการผสมผสานอัลกอริธึม quantum-resistant ต่าง ๆ เพื่อลดความเสี่ยงของการถอดรหัสข้อมูลที่เก็บไว้ปัจจุบันในอนาคต และ post-quantum signature schemes เพื่อตรวจสอบความสมบูรณ์และความถูกต้องของชุดซอฟต์แวร์และใบรับรอง TLS

โครงสร้างพื้นฐานไฮบริดที่รวมเป็นหนึ่งเดียว และการตัดสินใจเมื่อเริ่มออกแบบโซลูชัน

Red Hat Enterprise Linux 10 นำเสนอการเปลี่ยนกระบวนทัศน์ (paradigm shift) ระบบปฏิบัติการขององค์กร ในรูปแบบอิมเมจโหมด (image mode) ซึ่งเป็นคอนเทนเนอร์-เนทีฟ ที่รวมการสร้าง การใช้งาน และการจัดการระบบปฏิบัติการและแอปพลิเคชัน ไว้ในเวิร์กโฟลว์หนึ่งเดียวที่ทรงประสิทธิภาพ ปัจจุบันลูกค้าสามารถบริหารจัดการแลนด์สเคปด้านไอทีทั้งหมด ไม่ว่าจะเป็นคอนเทนเนอร์ไลซ์แอปพลิเคชัน ไปจนถึงแพลตฟอร์มพื้นฐาน ด้วยเครื่องมือและเทคนิคที่สอดคล้องเป็นแบบเดียวกัน ซึ่งช่วยลดความคลาดเคลื่อนของการกำหนดค่า (configuration) ได้อย่างมาก สามารถป้องกันความคลาดเคลื่อนของการแพตช์ได้ในเชิงรุก และสร้างชุดแนวทางปฏิบัติชุดเดียวที่ใช้ได้ทั้งกับนักพัฒนาแอปพลิเคชันและทีมปฏิบัติการด้านไอที

องค์กรด้านไอทีมักต้องทำการตัดสินใจสำคัญในเรื่องของการผสมผสานแพ็คเกจเฉพาะทางในสภาพแวดล้อมการทำงานมาตรฐาน (SOE) ในขณะที่กำลังสร้างโซลูชันต่าง ๆ เร้ดแฮทได้เพิ่มคำแนะนำแพ็คเกจตัวสร้างอิมเมจ Red Hat Insights ไว้ใน Red Hat Enterprise Linux 10 เพื่อช่วยให้ทีมทำงานมีข้อมูลมากขึ้นในการตัดสินใจเกี่ยวกับแพ็คเกจที่ปรับให้เหมาะกับตนก่อนที่จะนำไปใช้งานจริง นอกจากนี้ Red Hat Insights planning ยังนำเสนอมุมมองเกี่ยวกับโรดแมปและไลฟ์ไซเคิลของ Red Hat Enterprise Linux ซึ่งเป็นการเพิ่มประสิทธิภาพให้แพลตฟอร์มมีความพร้อมใช้ในอนาคต

จากคลาวด์-เนทีฟ สู่ AI-ready: Red Hat Enterprise Linux 10 เป็นพลังรองรับอนาคต

Enterprise Linux 10 รองรับความต้องการทางเทคโนโลยีทั้งในปัจจุบันและอนาคต และเป็นเวอร์ชันที่เข้ามาเพิ่มเติมประวัติความเป็นมาของ Red Hat Enterprise Linux ที่มีมานานหลายทศวรรษในฐานะเทคโนโลยีหลักที่เชื่อถือได้ว่าสามารถนำไปใช้งานได้จริงตามวัตถุประสงค์ด้านต่าง ๆ แพลตฟอร์มเวอร์ชันล่าสุดนี้ทำหน้าที่เป็นฐานให้กับ Red Hat AI ซึ่งเป็นโซลูชันด้าน AI ของเร้ดแฮทที่ได้รับการจัดการและปรับแต่งให้เหมาะสม ครอบคลุมถึง Red Hat AI Inference Server, Red Hat OpenShift AI และ Red Hat Enterprise Linux AI (RHEL AI)

ความสามารถและนวัตกรรมสำคัญที่เพิ่มเติมอยู่ใน Red Hat Enterprise Linux 10 ประกอบด้วย

  • เตรียมพร้อมสำหรับไฮบริดคลาวด์ตั้งแต่วันนี้ ด้วย Red Hat Enterprise Linux images บน AWS, Google Cloud และ Microsoft Azure ที่ได้รับการปรับแต่งล่วงหน้า มีการซัพพอร์ตอย่างเต็มที่ และพร้อมใช้
  • ชุดเครื่องมือไอทีมากขึ้น ด้วยซอฟต์แวร์ที่ได้รับการสนับสนุนจากชุมชน เช่น Podman Desktop ผ่าน Red Hat Enterprise Linux extensions repository ที่มาพร้อมความสะดวกและปลอดภัยมากขึ้น
  • สร้างนวัตกรรมด้วยความมั่นใจ ด้วยประโยชน์จาก partner-validated solutions ที่สร้างบนฮาร์ดแวร์สำหรับ AI ที่ล้ำสมัย และเวิร์กโหลดหนัก ๆ อื่น ๆ นับเป็นการขับเคลื่อนขอบเขตสิ่งที่เป็นไปได้ด้วยทางเลือกในการใช้งานที่มากขึ้น
  • สำรวจสถาปัตยกรรมใหม่ ๆ และเริ่มต้นพัฒนาก่อนใครสำหรับ RISC-V platform with a Red Hat Enterprise Linux 10 developer preview โดยร่วมมือกับ SiFive นำเสนอการเข้าถึงแพลตฟอร์มที่ปลอดภัยและเชื่อถือได้มากขึ้นสำหรับสถาปัตยกรรม HiFive P550 RISC-V 
  • ปรับแต่งกลยุทธ์ด้านความปลอดภัย ด้วยทางเลือกที่มากขึ้นและรักษาความปลอดภัย Linux ได้อย่างง่ายดาย ผ่าน Red Hat Enterprise Linux Security Select Add-On ที่กำลังจะมีให้บริการ ซึ่งมอบความสามารถในการ request fixes ให้กับ Common Vulnerabilities and Exposures (CVEs) ที่เจาะจงได้มากถึง 10 รายการต่อปี 

การวางจำหน่าย

Red Hat Enterprise Linux 10 เปิดวางตลาด (generally available: GA) แล้ว ผ่าน Red Hat Customer Portal นักพัฒนาซอฟต์แวร์ยังสามารถเข้าใช้ Red Hat Enterprise Linux 10 ผ่านโปรแกรม Red Hat Developer โดยไม่มีค่าใช้จ่าย ซึ่งจะได้พบกับทรัพยากรมากมายที่จะใช้เริ่มต้นทำงาน รวมถึงการให้เข้าถึงซอฟต์แวร์ วิดีโอสอนวิธีการต่าง ๆ การสาธิตการใช้งาน และเอกสารประกอบ 

คำกล่าวสนับสนุน

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
“Red Hat Enterprise Linux 10 ได้รับการออกแบบโครงสร้างมาเพื่อเสริมประสิทธิภาพด้านการบริหารจัดการทั้งในปัจจุบันและอนาคตให้กับฝ่ายไอทีองค์กรและนักพัฒนาซอฟต์แวร์ Red Hat Enterprise Linux 10 เป็นฐานที่แข็งแกร่งและเป็นนวัตกรรมที่จำเป็นต่อการเติบโตในยุคไฮบริดคลาวด์และ AI โดยมอบฟีเจอร์ที่ชาญฉลาดที่ใช้ gen AI มอบการบริหารจัดการไฮบริดคลาวด์อย่างเป็นหนึ่งเดียวผ่านอิมเมจโหมด และมอบวิธีการด้านความปลอดภัยเชิงรุกผ่านการเข้ารหัสหลังควอนตัม (post-quantum cryptography)”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
“ความร่วมมือกับเร้ดแฮทครั้งนี้ จะช่วยให้ ABB เพิ่มประสิทธิภาพการปฏิบัติงานของกรณีใช้งานในอุตสาหกรรมให้สอดคล้องกันทั้งบนสภาพแวดล้อมไฮบริดคลาวด์ และ edge เป็นการปรับเปลี่ยนกระบวนการอัตโนมัติและการควบคุมทางอุตสาหกรรมเพื่ออนาคต อิมเมจโหมดของ Red Hat Enterprise Linux ช่วย ABB ลดความซับซ้อนของกระบวนการสร้างระบบปฏิบ้ติงาน เพื่อเพิ่มประสิทธิภาพไลฟ์ไซเคิลด้านการพัฒนาซอฟต์แวร์และสามารถใช้วิธีการติดตั้งที่เป็นมาตรฐาน ซึ่งส่งผลให้สามารถสร้างผลิตภัณฑ์ใหม่ ๆ ได้เร็วขึ้น และมี workflow ที่ง่ายและตรงไปตรงมาเหมือนกับการใช้เครื่องใช้ไฟฟ้าทั่วไป สำหรับการพัฒนาต่าง ๆ มากขึ้น ดังนั้นลูกค้าสามารถใช้เวลาในการติดตั้งน้อยลง และมุ่งเน้นไปที่การนำเทคโนโลยีของ ABB ไปในสร้างผลลัพธ์ทางธุรกิจได้มากขึ้น”

Ryan Caskey, research manager, IDC

“องค์กรสามารถรวบรวม Linux distributions ที่หลากหลาย เนื่องจากความต้องการด้านการปฏิบัติงานเปลี่ยนแปลงอยู่เสมอ การบำรุงรักษาสภาพแวดล้อมที่ต่างกันเหล่านี้อย่างสม่ำเสมออาจกลายเป็นความท้าทายมากขึ้นเรื่อย ๆ โครงสร้างพื้นฐานขนาดใหญ่และซับซ้อน รวมถึงทีมงานที่มักขาดคน ขาดทักษะ และมีงบประมาณสนับสนุนไม่เพียงพอ เป็นปัญหาในปัจจุบันที่ต้องการการแก้ไข Red Hat Enterprise Linux ตอบสนองความต้องการนี้ ด้วยความมุ่งมั่นในการสร้างเลเยอร์พื้นฐานที่แข็งแกร่ง รองรับการดำเนินการเชิงกลยุทธ์ด้านไอทีทั้งในปัจจุบันและอนาคต”

Anish Bhatt, software architect, Salesforce
“แลนด์สเคปทางเทคโนโลยีมีความซับซ้อนมากขึ้นเรื่อย ๆ ในปัจจุบัน ทำให้การบริหารจัดการโครงสร้างพื้นฐานขนาดใหญ่อาจเป็นเรื่องท้าทาย อิมเมจโหมดช่วยให้สามารถผสานรวมไปป์ไลน์ของเรา และสร้างกระบวนการต่าง ๆ ที่มุ่งไปในทิศทางของคอนเทนเนอร์ไลซ์เซชันมากขึ้น ทั้งยังช่วยให้สภาพแวดล้อมไอทีมีความเสถียร ลดความคลาดเคลื่อนของการกำหนดค่า (Configuration Drift) และทำให้การกำหนดค่าของระบบสอดคล้องเป็นไปในทิศทางเดียวกัน เรายังสามารถอัปเกรดระหว่าง Red Hat Enterprise Linux major และ minor releases ด้วยความเสี่ยงในการทำงานที่น้อยลง เพื่อให้สามารถ roll back ได้อย่างรวดเร็ว อิมเมจโหมดเป็นก้าวที่มีความหมายต่อการใช้คลาวด์-เนทีฟแอปพลิเคชันและการปฏิบัติงานด้านไอทีที่ง่ายขึ้นด้วยการเชื่อมโยง (pipeline) หนึ่งเดียว”

IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024

แหล่งข้อมูลเพิ่มเติม

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

Red Hat AI Inference Server, powered by vLLM and enhanced with Neural Magic technologies, delivers faster, higher-performing and more cost-efficient AI inference across the hybrid cloud

Red Hat, the world’s leading provider of open source solutions, today announced Red Hat AI Inference Server, a significant step towards democratizing generative AI (gen AI) across the hybrid cloud. A new offering within Red Hat AI, the enterprise-grade inference server is born from the powerful vLLM community project and enhanced by Red Hat’s integration of Neural Magic technologies, offering greater speed, accelerator-efficiency and cost-effectiveness to help deliver Red Hat’s vision of running any gen AI model on any AI accelerator in any cloud environment. Whether deployed standalone or as an integrated component of Red Hat Enterprise Linux AI (RHEL AI) and Red Hat OpenShift AI, this breakthrough platform empowers organizations to more confidently deploy and scale gen AI in production.

Inference is the critical execution engine of AI, where pre-trained models translate data into real-world impact. It’s the pivotal point of user interaction, demanding swift and accurate responses. As gen AI models explode in complexity and production deployments scale, inference can become a significant bottleneck, devouring hardware resources and threatening to cripple responsiveness and inflate operational costs. Robust inference servers are no longer a luxury but a necessity for unlocking the true potential of AI at scale, navigating underlying complexities with greater ease.

Red Hat directly addresses these challenges with Red Hat AI Inference Server – an open inference solution engineered for high performance and equipped with leading model compression and optimization tools. This innovation empowers organizations to fully tap into the transformative power of gen AI by delivering dramatically more responsive user experiences and unparalleled freedom in their choice of AI accelerators, models, and IT environments.

vLLM: Extending inference innovation

Red Hat AI Inference Server builds on the industry-leading vLLM project, which was started by UC Berkeley in mid-2023. The community project delivers high-throughput gen AI inference, support for large input context, multi-GPU model acceleration, support for continuous batching, and more.

vLLM’s broad support for publicly available models – coupled with its day zero integration of leading frontier models including DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi and others, as well as open, enterprise-grade reasoning models like Llama Nemotron – positions it as a de facto standard for future AI inference innovation. Leading frontier model providers are increasingly embracing vLLM, solidifying its critical role in shaping gen AI’s future.

Introducing Red Hat AI Inference Server

Red Hat AI Inference Server packages the leading innovation of vLLM and forges it into the enterprise-grade capabilities of Red Hat AI Inference Server. Red Hat AI Inference Server is available as a standalone containerized offering or as part of both RHEL AI and Red Hat OpenShift AI.

Across any deployment environment, Red Hat  Inference Server provides users with a hardened, supported distribution of vLLM along with:

  • Intelligent LLM compression tools for dramatically reducing the size of both foundational and fine-tuned AI models, minimizing compute consumption while preserving and potentially enhancing model accuracy.
  • Optimized model repository, hosted in the Red Hat AI organization on Hugging Face, offers instant access to a validated and optimized collection of leading AI models ready for inference deployment, helping to accelerate efficiency by 2-4x without compromising model accuracy.
  • Red Hat’s enterprise support and decades of expertise in bringing community projects to production environments.
  • Third-party support for even greater deployment flexibility, enabling Red Hat AI Inference Server to be deployed on non-Red Hat Linux and Kubernetes platforms pursuant to Red Hat’s 3rd Party Support Policy.

Red Hat’s vision: Any model, any accelerator, any cloud.

The future of AI must be defined by limitless opportunity, not constrained by infrastructure silos. Red Hat sees a horizon where organizations can deploy any model, on any accelerator, across any cloud, delivering an exceptional, more consistent user experience without exorbitant costs. To unlock the true potential of gen AI investments, enterprises require a universal inference platform – a standard for more seamless, high-performance AI innovation, both today and in the years to come.

Just as Red Hat pioneered the open enterprise by transforming Linux into the bedrock of modern IT, the company is now poised to architect the future of AI inference. vLLM’s potential is that of a linchpin for standardized gen AI inference, and Red Hat is committed to building a thriving ecosystem around not just the vLLM community but also llm-d for distributed inference at scale. The vision is clear: regardless of the AI model, the underlying accelerator or the deployment environment, Red Hat intends to make vLLM the definitive open standard for inference across the new hybrid cloud.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“Inference is where the real promise of gen AI is delivered, where user interactions are met with fast, accurate responses delivered by a given model, but it must be delivered in an effective and cost-efficient way. Red Hat AI Inference Server is intended to meet the demand for high-performing, responsive inference at scale while keeping resource demands low, providing a common inference layer that supports any model, running on any accelerator in any environment.”

Ramine Roane, corporate vice president, AI Product Management, AMD

“In collaboration with Red Hat, AMD delivers out-of-the-box solutions to drive efficient generative AI in the enterprise. Red Hat AI Inference Server enabled on AMD Instinct™ GPUs equips organizations with enterprise-grade, community-driven AI inference capabilities backed by fully validated hardware accelerators.”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads need speed, consistency, and flexibility, which is exactly what the Red Hat AI Inference Server is designed to deliver. This innovation offers Cisco and Red Hat opportunities to continue to collaborate on new ways to make AI deployments more accessible, efficient and scalable—helping organizations prepare for what’s next.”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“Intel is excited to collaborate with Red Hat to enable Red Hat AI Inference Server on Intel® Gaudi® accelerators. This integration will provide our customers with an optimized solution to streamline and scale AI inference, delivering advanced performance and efficiency for a wide range of enterprise AI applications.”

John Fanelli, vice president, Enterprise Software, NVIDIA

“High-performance inference enables models and AI agents not just to answer, but to reason and adapt in real time. With open, full-stack NVIDIA accelerated computing and Red Hat AI Inference Server, developers can run efficient reasoning at scale across hybrid clouds, and deploy with confidence using Red Hat Inference Server with the new NVIDIA Enterprise AI validated design.”

 

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat AI Inference Server ขับเคลื่อนโดย vLLM เพิ่มประสิทธิภาพด้วยเทคโนโลยีของ Neural Magic มอบการอนุมาน AI ที่เร็วขึ้น มีประสิทธิภาพสูง และคุ้มค่าใช้จ่าย ทำงานได้กับทุกไฮบริดคลาวด์

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI Inference Server ก้าวสำคัญที่จะทำให้ generative AI (gen AI) กลายเป็นเทคโนโลยีที่ใครก็ใช้ได้บนไฮบริดคลาวด์ทุกแห่ง โซลูชันใหม่นี้นำเสนออยู่ใน Red Hat AI เป็นเซิร์ฟเวอร์อนุมานระดับองค์กรที่เกิดจากโปรเจกต์จาก vLLM community อันทรงพลัง และเร้ดแฮทเพิ่มประสิทธิภาพด้วยการผสานรวมเข้ากับเทคโนโลยี Neural Magic ทำให้มีความเร็วมากขึ้น ช่วยเพิ่มประสิทธิภาพให้ accelerator และคุ้มค่าใช้จ่าย เป็นการตอบวิสัยทัศน์ของเร้ดแฮทในการมอบการใช้งานโมเดล gen AI ใด ๆ บน AI accelerator ใด ๆ ก็ได้ บนทุกสภาพแวดล้อมคลาวด์ แพลตฟอร์มที่ล้ำหน้านี้ช่วยให้องค์กรต่าง ๆ ใช้และสเกล gen AI สู่การทำงานเป็นรูปธรรมได้อย่างมั่นใจมากขึ้น ไม่ว่าจะใช้งานแบบสแตนด์อโลน หรือผสานเป็นส่วนประกอบของ Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI ก็ตาม

การอนุมานเป็นเครื่องมือทำงานที่สำคัญของ AI โดยโมเดลที่ผ่านการเทรนล่วงหน้าจะแปลงข้อมูลให้เป็นการใช้งานในสถานการณ์จริง ซึ่งเป็นจุดสำคัญของการปฏิสัมพันธ์กับผู้ใช้ ที่ต้องการการตอบสนองอย่างฉับไวและแม่นยำ การที่โมเดล gen AI ทั้งหลายขยายตัวอย่างรวดเร็วตามขนาดการใช้งานจริงและมีความซับซ้อน ทำให้การอนุมาน (inference) อาจกลายเป็นคอขวดที่เป็นอุปสรรคสำคัญ สิ้นเปลืองทรัพยากรฮาร์ดแวร์ และเป็นเหตุให้การตอบสนองไม่มีประสิทธิภาพ ทั้งยังทำให้ค่าใช้จ่ายในการดำเนินงานเพิ่มขึ้น ดังนั้น เซิร์ฟเวอร์การอนุมานที่มีประสิทธิภาพแข็งแกร่งไม่ใช่สิ่งฟุ่มเฟือยอีกต่อไป แต่เป็นสิ่งจำเป็นที่จะช่วยปลดล็อกให้ได้ใช้ศักยภาพที่แท้จริงของ AI ในวงกว้าง และการใช้งานที่ง่ายขึ้นอย่างมากจะช่วยขจัดความซับซ้อนที่ซ่อนอยู่ได้

เร้ดแฮทเจาะจงจัดการความท้าทายเหล่านี้ด้วย Red Hat AI Inference Server ซึ่งเป็นโซลูชันการอนุมานแบบโอเพ่นที่ออกแบบมาเพื่อมอบประสิทธิภาพที่สูง มีเครื่องมือบีบอัดและเพิ่มประสิทธิภาพโมเดลที่มีประสิทธิภาพชั้นนำติดตั้งมาพร้อม นวัตกรรมนี้ช่วยเสริมให้องค์กรใช้สมรรถนะของ gen AI ได้อย่างเต็มที่ด้วยการมอบประสบการณ์การตอบสนองที่ดีขึ้นอย่างมากให้กับผู้ใช้ และผู้ใช้มีอิสระในการเลือกใช้ AI accelerators เลือกใช้โมเดลและสภาพแวดล้อมไอทีได้ตามต้องการ

vLLM: การขยายนวัตกรรมด้านการอนุมาน

Red Hat AI Inference Server สร้างจากโปรเจกต์ vLLM ชั้นนำในวงการที่เริ่มต้นพัฒนาโดย University of California, Berkeley เมื่อกลางปี พ.ศ. 2566 โปรเจกต์ของคอมมิวนิตี้นี้ มอบการอนุมาน gen AI ที่มีปริมาณงานในช่วงเวลาหนึ่ง ๆ ที่สูง (high-throughput gen AI inference) รองรับอินพุตขนาดใหญ่, multi-GPU model acceleration, การแบทช์ต่อเนื่อง และอื่น ๆ อีกมาก

vLLM สนับสนุนการใช้งานในวงกว้างกับโมเดลต่าง ๆ ที่เปิดเป็นสาธารณะ ควบคู่กับการบูรณาการเข้ากับโมเดลชั้นนำต่าง ๆ ตั้งแต่ day zero ซึ่งรวมถึง DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi และอื่น ๆ รวมถึงโมเดลการใช้เหตุผลระดับองค์กรแบบเปิด เช่น Llama Nemotron นับได้ว่าเป็นมาตรฐานที่ได้รับการยอมรับและใช้กันโดยทั่วไปสำหรับนวัตกรรมการอนุมาน AI ในอนาคต การที่ผู้ให้บริการโมเดลระดับแนวหน้าต่างใช้ vLLM มากขึ้น ทำให้ vLLM มีบทบาทสำคัญต่ออนาคตของ gen AI

การเปิดตัว Red Hat AI Inference Server

Red Hat AI Inference Server มัดรวมนวัตกรรมชั้นนำของ vLLM และหลอมรวมเข้ากับความสามารถระดับองค์กรของ Red Hat AI Inference Server มีให้บริการทั้งแบบสแตนด์อโลนในรูปแบบคอนเทนเนอร์ หรือ ให้บริการเป็นส่วนหนึ่งของ RHEL AI และ Red Hat OpenShift AI

Red Hat AI Inference Server มอบการกระจาย vLLM ที่แข็งแกร่ง และใช้ได้กับสภาพแวดล้อมการใช้งานทุกแบบให้แก่ผู้ใช้ ซึ่งมาพร้อมด้วย:

  • Intelligent LLM compression tools เพื่อลดขนาดของโครงสร้างพื้นฐาน และปรับแต่งโมเดล AI อย่างละเอียด ลดการใช้การประมวลผลให้เหลือน้อยที่สุด ในขณะที่ยังคงรักษาและเพิ่มความแม่นยำของโมเดลได้
  • พื้นที่เก็บข้อมูลโมเดลที่ปรับให้เหมาะสม ซึ่งโฮสต์อยู่ใน Red Hat AI organization บน Hugging Face ช่วยให้เข้าถึงคอลเลกชันของโมเดล AI ชั้นนำที่ได้รับการตรวจสอบและปรับให้เหมาะสม และพร้อมสำหรับใช้ในการอนุมานได้ทันที ซึ่งช่วยเร่งประสิทธิภาพความเร็วได้ 2-4 เท่า โดยไม่กระทบต่อความแม่นยำของโมเดล
  • การสนับสนุนระดับองค์กรของเร้ดแฮท และความเชี่ยวชาญที่สั่งสมหลายทศวรรษในการนำโปรเจกต์ต่าง ๆ จากคอมมิวนิตี้มาสู่การผลิตใช้งานจริง
  • การสนับสนุนจากบุคคลภายนอก (third-party) เพื่อให้เกิดความยืดหยุ่นในการใช้ Red Hat AI Inference Server ได้บน non-Red Hat Linux และ แพลตฟอร์ม Kubernetes ต่าง ๆ ซึ่งเป็นไปตามนโยบายสนับสนุน third-party ของเร้ดแฮท

วิสัยทัศน์ของเร้ดแฮท: โมเดลใดก็ได้, accelerator ใดก็ได้, คลาวด์ใดก็ได้

อนาคตของ AI ต้องถูกกำหนดโดยโอกาสที่ไร้ขีดจำกัด และไม่ถูกจำกัดด้วยโครงสร้างพื้นฐานที่เป็นไซโล เร้ดแฮทมองเห็นแนวทางที่องค์กรต่าง ๆ จะสามารถใช้โมเดลใดก็ได้ กับ accelerator ใดก็ได้ บนคลาวด์ใด ๆ ก็ได้ และมอบประสบการณ์ที่ยอดเยี่ยมและสม่ำเสมอให้กับผู้ใช้งานด้วยค่าใช้จ่ายที่เหมาะสม องค์กรต่างต้องการแพลตฟอร์มการอนุมานที่เป็นสากล เป็นมาตรฐานให้กับนวัตกรรม AI ประสิทธิภาพสูงได้อย่างไม่ติดขัด ทั้งในวันนี้และอีกหลาย ๆ ปีที่จะตามมา เพื่อปลดล็อกศักยภาพที่แท้จริงจากการลงทุนด้าน gen AI

เร้ดแฮทพร้อมที่จะวางฐานรากสถาปัตยกรรมเพื่อเป็นฐานอนาคตของการอนุมาน AI เช่นเดียวกับการที่บริษัทฯ เคยบุกเบิกองค์กรแบบเปิดด้วยการทรานส์ฟอร์ม Linux ให้เป็นฐานของไอทียุคใหม่ ศักยภาพของ vLLM เป็นสิ่งสำคัญต่อการอนุมาน gen AI ที่เป็นมาตรฐาน เร้ดแฮทมุ่งมั่นสร้างระบบนิเวศที่ครบครันให้กับไม่เพียง vLLM community เท่านั้น แต่ยังรวมถึง llm-d สำหรับการอนุมานแบบกระจาย (distributed inference) อีกด้วย ด้วยวิสัยทัศน์ที่ชัดเจน ไม่ว่าจะเป็นโมเดล AI, underlying accelerator หรือสภาพแวดล้อมการใช้งานจะเป็นเช่นไร เร้ดแฮทตั้งใจทำให้ vLLM เป็นมาตรฐานเปิดที่สมบูรณ์แบบที่สุดสำหรับการอนุมานบนไฮบริดคลาวด์

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“การอนุมานเป็นการบอกว่าได้มีการใช้ประโยชน์อย่างแท้จริงจาก gen AI  โดยการปฏิสัมพันธ์ของผู้ใช้จะได้รับการตอบสนองที่รวดเร็วและแม่นยำจากโมเดลที่กำหนด แต่จะต้องได้รับการส่งมอบให้ใช้ด้วยวิธีการที่มีประสิทธิภาพและคุ้มค่าใช้จ่าย วัตถุประสงค์ของ Red Hat AI Inference Server คือการตอบสนองความต้องการด้านการอนุมานที่มีประสิทธิภาพสูงและมีปฏิสัมพันธ์ได้ตามต้องการ ในขณะเดียวกัน ก็รักษาความต้องการใช้ทรัพยากรให้อยู่ในระดับต่ำ จัดให้มีเลเยอร์การอนุมานทั่วไปที่รองรับโมเดลใดก็ได้ รันบน accelerator ใดก็ได้ บนทุกสภาพแวดล้อม”

Ramine Roane, corporate vice president, AI Product Management, AMD

“ความร่วมมือกับเร้ดแฮทช่วยให้ AMD นำเสนอโซลูชันล้ำสมัยเพื่อขับเคลื่อนให้องค์กรใช้ generative AI ได้อย่างมีประสิทธิภาพ Red Hat AI Inference Server ที่ใช้ขุมพลังกราฟิกการ์ด AMD Instinct™ ช่วยให้องค์กรต่าง ๆ มีขีดความสามารถในการอนุมานด้าน AI ที่ขับเคลื่อนโดยคอมมิวนิตี้ระดับองค์กร ซึ่งได้รับการสนับสนุนเบื้องหลังด้วย hardware accelerators ที่ผ่านการตรวจสอบอย่างครบถ้วน”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads ต้องการความเร็ว ความสม่ำเสมอ และความยืดหยุ่น ซึ่งเป็นสิ่งที่ Red Hat AI Inference Server มี นวัตกรรมนี้เปิดแนวทางความร่วมมือใหม่ ๆ ระหว่างซิสโก้และเร้ดแฮท เพื่อทำให้การใช้ AI เข้าถึงได้มากขึ้น มีประสิทธิภาพและปรับขนาดได้ ซึ่งเป็นการช่วยให้องค์กรเตรียมพร้อมรับสิ่งที่จะเกิดขึ้นในอนาคต”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“อินเทลรู้สึกตื่นเต้นที่ได้ร่วมมือกับเร้ดแฮท เพื่อใช้ Red Hat AI Inference Server กับ Intel® Gaudi® accelerators การบูรณาการนี้จะช่วยให้ลูกค้าของเรามีโซลูชันที่ได้รับการปรับให้เหมาะสม เพื่อเพิ่มประสิทธิภาพและปรับขนาดการอนุมาน AI และมอบสมรรถนะและประสิทธิภาพล้ำหน้าให้กับแอปพลิเคชัน AI ระดับองค์กรในวงกว้าง”

John Fanelli, vice president, Enterprise Software, NVIDIA

“การอนุมานประสิทธิภาพสูงไม่เพียงแต่ช่วยให้โมเดลและ AI agents ต่าง ๆ สามารถตอบคำถามได้เท่านั้น แต่ยังสามารถให้หรือใช้เหตุผลและปรับตัวได้แบบเรียลไทม์ โดย NVIDIA accelerated computing และ Red Hat AI Inference Server แบบฟูลสแตก (full-stack) และเป็นแบบเปิด จะช่วยให้นักพัฒนาสามารถเรียกใช้งานการทำงานเชิงให้เหตุผลบนไฮบริดคลาวด์ได้อย่างมีประสิทธิภาพในวงกว้างและปรับใช้ได้อย่างมั่นใจ โดยใช้ Red Hat Inference Server กับการออกแบบที่ผ่านการตรวจสอบใหม่ของ NVIDIA Enterprise AI”