ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้

บทความโดย Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge, เร้ดแฮท

กระแสของปัญญาประดิษฐ์ (AI) ในปัจจุบัน มีเรื่องที่ต้องทำความเข้าใจหลายแง่มุม ในแต่ละวันจะมีผลิตภัณฑ์และบริการใหม่ โมเดลใหม่ การสร้างเนื้อหาหรือโซลูชันที่ขับเคลื่อนด้วย AI อื่น ๆ เกิดขึ้นมากมาย เมื่อพูดถึงการทำงานเกี่ยวกับโมเดล AI/machine learning (ML) ตั้งแต่การเทรนโมเดลไปจนถึงการนำไปใช้งานที่ edge นั้น ไม่ใช่เรื่องง่ายเลย เพราะเป็นเรื่องที่ต้องข้องเกี่ยวกับบทบาทหน้าที่ของทีมงานด้านต่าง ๆ กระบวนการ และเครื่องมือมากมาย รวมถึงองค์กรจะต้องมีโครงสร้างการทำงานที่ดี และโมเดลเหล่านั้นจะต้องโฮสต์อยู่บนแพลตฟอร์มไอทีที่แข็งแกร่ง

โมเดล AI ได้รับความนิยมทุกแห่งหน คำถามคือจะมีโมเดลใดบ้างที่เป็นโซลูชันที่ใช้งานได้จริงที่ได้รับการเทรนมาอย่างดี, มีการทำ versioning และมีวิธีการ deploy ที่เหมาะสมมีประสิทธิภาพ

ต้องใช้เวลานานเท่าใดจึงจะใช้งานได้

คำถามนี้ไม่ใช่เรื่องใหม่ จากการสำรวจล่าสุดของการ์ทเนอร์ องค์กรอาจใช้เวลาในการศึกษาค้นคว้า AI/ML จากแนวคิดไปสู่การใช้งานจริง ประมาณ 7-12 เดือน ซึ่งจะต้องจัดการกับความท้าทายต่าง ๆ เช่น หนี้ทางเทคนิค ค่าบำรุงรักษา และความเสี่ยงของระบบ ฯลฯ ตลอดกระบวนการทำงาน

ความท้าทายใหญ่ ๆ ในการทำงานด้าน AI/ML

การนำโมเดล AI/ML ไปใช้จริง นับจากขั้นตอนการพิสูจน์แนวคิด ไปจนถึงกลายเป็นโซลูชันทางอุตสาหกรรมนั้นเต็มไปด้วยความท้าทาย การทำงานนี้คล้ายกับการสร้างผลิตภัณฑ์อุตสาหกรรมคุณภาพสูง และจำเป็นต้องสร้างซัพพลายเชนที่เชื่อถือได้ เพื่อสร้างโซลูชันที่ไว้ใจได้และมีคุณภาพสูง

TH_Challenges

คุณภาพของข้อมูล

การสร้างโมเดล AI ที่ทรงประสิทธิภาพจะต้องมีข้อมูลที่ถูกต้องเหมาะสมและเกี่ยวข้องกัน เพื่อใช้ในการเทรนและทดสอบ หัวใจหลักที่เป็นสิ่งสำคัญพื้นฐาน คือการกำกับดูแลข้อมูลที่รัดกุม เช่น ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และปฏิบัติตามกฎระเบียบที่เกี่ยวข้องทั้งหมด ซึ่งอาจเพิ่มความซับซ้อนได้อย่างมหาศาล รวมถึงความต้องการด้าน infrastructure จะเพิ่มขึ้นอย่างมาก

การนำไปใช้และการบูรณาการโมเดล

การบูรณาการโมเดล AI/ML เข้ากับระบบและเวิร์กโฟลว์ที่ใช้อยู่ เป็นความท้าทายทางเทคนิค เนื่องจากซอฟต์แวร์รุ่นใหม่ ๆ พึ่งพาแนวทางการพัฒนาซอฟต์แวร์อย่างต่อเนื่อง เช่นการทำ continuous integration และ continuous deployment (CI/CD) ดังนั้นการใช้ไปป์ไลน์สำหรับโมเดล AI ที่มีระบบอัตโนมัติและการตรวจสอบที่ครอบคลุมจึงเป็นเรื่องสำคัญ

Infrastructure ที่สเกลได้ ติดตามตรวจสอบได้ และมีสมรรถนะ

ความมั่นใจว่าโมเดล AI/ML ทั้งหลายได้รับการเทรนให้สามารถปรับขนาดเพื่อรับมือกับข้อมูลปริมาณมากและสตรีมข้อมูลด้วยความเร็วสูงได้นั้นเป็นเรื่องสำคัญมาก ดังนั้นสถาปัตยกรรมหนึ่ง ๆ ที่นักวิทยาศาสตร์ข้อมูล (data scientist) และคนทำงานด้านไอทีสามารถมอนิเตอร์และดูแลได้นั้น จะหมายถึงแพลตฟอร์มที่สามารถแก้ไขหรืออัปเกรดได้เมื่อจำเป็น ซึ่งรวมถึงเครื่องมือที่ใช้ในการสร้างและดูแล infrastructure ที่จำเป็น (เช่น ทรัพยากรที่ใช้ในการคำนวณ พื้นที่จัดเก็บข้อมูล และแพลตฟอร์ม ML ต่าง ๆ) การเลือกและบูรณาการเครื่องมือต่าง ๆ ที่เหมาะสมทั้งกับการประมวลผลข้อมูล การพัฒนาโมเดล การใช้และการมอนิเตอร์

ช่องว่างทางทักษะและการทำงานร่วมกัน

การปิดช่องว่างทางทักษะและการทำงานร่วมกันระหว่าง data scientists วิศวกร (engineers) และผู้มีส่วนได้เสียทางธุรกิจ เป็นเรื่องสำคัญที่จะช่วยส่งเสริมให้เกิดทำงานร่วมกันอย่างมีประสิทธิภาพและเป็นไปในทิศทางเดียวกัน

การใช้เครื่องมือเฉพาะทางหลายอย่างกับฟังก์ชันการทำงานที่ต่างกัน อาจเป็นอุปสรรคต่อแนวทางนี้ได้ ทีมงานแต่ละทีมมักใช้เครื่องมือเฉพาะและศัพท์เฉพาะทาง ซึ่งอาจทำให้เกิดอุปสรรคในการบูรณาการ โดยเฉพาะในการทำงานของแมชชีนเลิร์นนิ่ง (machine learning operations: MLOps) โดยหลักการแล้วโมเดลต่าง ๆ จะถูกจัดการอย่างราบรื่นตลอดกระบวนการทำงาน ตั้งแต่การเทรน การ deploy ไปยังอุปกรณ์ที่ติดตั้งอยู่ที่ edge สิ่งเหล่านี้อาจเป็นสิ่งกระตุ้นให้ใช้ระบบหรือแพลตฟอร์มเดียวเพื่อให้บรรลุหลักการนี้ แต่การสร้างแพลตฟอร์มและเครื่องมือที่ทุกทีมสามารถทำงานร่วมกันได้ดี อาจเป็นวิธีที่ดีกว่าในการส่งเสริมการทำงานร่วมกันให้มีประสิทธิภาพมากขึ้น เพื่อให้ทีมงานแต่ละทีมสามารถใช้ระบบที่ตนต้องการได้ แทนที่จะต้องใช้โซลูชันเดียวที่อาจไม่ตรงตามความต้องการเฉพาะทางของแต่ละทีม 

การแก้ปัญหาช่องว่างทางทักษะยังคงเป็นเรื่องสำคัญในกระบวนการนี้ องค์กรต่าง ๆ มักมีกลุ่มหรือทีมที่เชี่ยวชาญทักษะและความรู้เฉพาะทางที่ต่างกัน รวมกันอยู่ในแผนกเดียวกัน เช่น data scientists, engineers และผู้มีส่วนได้เสียทางธุรกิจ ซึ่งเมื่อมีการถ่ายโอนโมเดลต่าง ๆ  ระหว่างทีมก็อาจทำให้เกิดปัญหาได้ เนื่องจากไม่สามารถเข้าถึงทักษะและความเข้าใจที่จำเป็นต้องใช้ ได้อย่างทั่วถึง

การแก้ไขช่องว่างเหล่านี้ต้องมีการให้ความรู้และการอบรมข้ามสายงานอย่างต่อเนื่อง เพื่อให้สมาชิกทุกคนในทุกทีมมีความเข้าใจพื้นฐานเกี่ยวกับบทบาทและเครื่องมือที่แต่ละทีมใช้งาน การลงทุนในการสร้างและอบรมทักษะต่าง ๆ ข้ามทีม จะช่วยให้กระบวนการพัฒนาและใช้โมเดลเป็นไปอย่างราบรื่นและมีประสิทธิภาพมากขึ้น

จริยธรรมและความไม่เป็นกลาง

องค์กรต้องมั่นใจว่าโมเดล AI/ML มีความเท่าเทียม และขจัดความไม่เป็นกลางของข้อมูลไม่ให้ไปเกี่ยวข้องกับการนำแนวทางและเฟรมเวิร์กด้านจริยธรรมไปใช้ควบคุมการใช้งาน AI/ML จากนั้นต้องนำแนวปฏิบัติด้านจริยธรรมและความไม่เป็นกลางมาใช้เป็นตัวชี้วัด เพื่อสร้าง infrastructure ที่เชื่อถือได้สำหรับใช้ในการประเมินและการติดตาม คุณภาพของโมเดลหนึ่ง ๆ ต้องได้รับการประเมินกับตัวชี้วัดเหล่านี้ และต้องเปรียบเทียบผลการประเมินกับข้อมูลอ้างอิงที่กำหนดไว้ล่วงหน้าแล้ว

บทบาทหน้าที่ต่าง ๆ ที่เกี่ยวข้องกับไลฟ์ไซเคิลของ AI/ML

การใช้ AI/ML เกี่ยวข้องกับคนและทีมงานที่มีบทบาทหน้าที่มากมาย แต่ละบทบาทต้องการทักษะและความรู้อย่างมาก บทบาทเหล่านี้ต่างจากบทบาทของ IT DevOps ทั่ว ๆ ไป เพราะต้องใช้ IT infrastructure จำนวนมาก ต้องใช้เครื่องมือเฉพาะสำหรับการสร้างโมเดล AI และต้องประสบกับความท้าทายในการส่งมอบโมเดล AI เช่นเดียวกับความท้าทายในการส่งมอบซอฟต์แวร์เวอร์ชันใหม่ บทบาทที่เป็นที่รู้จักกันดีคือ data scientist ซึ่งคำว่า data scientist นี้ดูจะกินความหมายกว้างเกินไป งานต่าง ๆ ที่เกี่ยวกับการนำ AI/ML ไปใช้ แบ่งแยกย่อยออกไปและต้องการบุคคลที่มีทักษะเฉพาะทางที่แตกต่างกัน เช่น หากเป็นด้านการรวบรวมข้อมูล การทำข้อมูลให้ถูกต้องเหมาะสม และการเตรียมเทรนโมเดลนั้น ต้องการคนที่มีบทบาทเป็น data scientist

MLOps engineer จะเชี่ยวชาญในการนำโมเดล AI ต่าง ๆ ไปใช้และการดูแลรักษาซึ่งต้องมีทักษะเฉพาะและใช้เครื่องมือเฉพาะทาง ที่ไม่จำเป็นต้องเหมือนกับทักษะและเครื่องมือที่ใช้ในการเทรนโมเดล AI จุดนี้เป็นปัญหาให้กับบริษัทหนึ่ง ๆ ที่เมื่อต้องการใช้โมเดล AI ของตนแต่ไปร้องขอให้ data scientist เป็นผู้ทำหน้าที่ปรับใช้โมเดล AI ซึ่งการปรับใช้โมเดล AI เป็นทักษะเฉพาะทางของ MLOps engineer และยังรวมถึงการมอนิเตอร์ การสเกลโมเดลไปสู่การใช้งานจริง และการดูแลรักษาประสิทธิภาพการทำงานของโมเดล

การสร้างโมเดล AI/ML เกี่ยวข้องกับ AI engineer ซึ่งจะเทรนและใช้โมเดลบนอัลกอริธึมล่าสุดที่สร้างโดย AI scientists เมื่อสร้างเสร็จแล้ว โมเดลจะถูกผลักเข้าไปในระบบสตอเรจ พร้อมให้ containerized application ใช้งาน

นักพัฒนาแอปพลิเคชันผสานรวมโมเดล AI/ML เข้ากับแอปพลิเคชันต่าง ๆ และต้องมั่นใจได้ว่าจะมีการใช้งานร่วมกันกับระบบอื่นได้อย่างไม่ติดขัด

ฝ่ายปฏิบัติการด้านไอทีจะบริหารจัดการ infrastructure เพื่อให้มั่นใจว่าทรัพยากรที่จำเป็นต้องใช้มีพร้อมใช้และนำไปใช้งานอย่างมีประสิทธิภาพ

ผู้นำองค์กรธุรกิจมีบทบาทในการกำหนดเป้าหมาย ผสาน AI/ML ให้สอดคล้องกับวัตถุประสงค์ทางธุรกิจ และทำให้มั่นใจว่า จะมีทรัพยากรและการสนับสนุนช่วยเหลือที่จำเป็นในการใช้โซลูชัน AI/ML ต่าง ๆ ได้อย่างต่อเนื่อง 

การประสานงานบทบาทหน้าที่เหล่านี้อย่างมีประสิทธิภาพเป็นสิ่งสำคัญมากสำหรับการบริหารจัดการความซับซ้อนต่าง ๆ และหนี้ทางเทคนิค ที่เกี่ยวข้องกับการดำเนินงาน AI/ML และไม่อาจทำได้ด้วยการกำหนดขั้นตอนและเวิร์กโฟลว์ที่เป็นนามธรรมเท่านั้น แต่จำเป็นต้องพึ่งพาชุดเครื่องมือมาตรฐานที่มีอินเทอร์เฟซเฉพาะสำหรับผู้ใช้งานแต่ละบทบาทหน้าที่ เพื่อให้มีมุมมองในการทำงานด้าน AI มุมมองเดียวกัน ที่ผู้ทำงานในแต่ละทีมสามารถเข้าใจได้

เร้ดแฮทช่วยได้อย่างไร

Red Hat OpenShift AI มอบแพลตฟอร์ม AI/ML ที่สเกลได้และยืดหยุ่น เพื่อช่วยองค์กรสร้างและสามารถนำแอปพลิเคชันที่ใช้ AI ไปใช้ในวงกว้างในสภาพแวดล้อมไฮบริดคลาวด์ทั้งหมด OpenShift AI สร้างจากเทคโนโลยีโอเพ่นซอร์ส มอบความสามารถต่าง ๆ ที่เชื่อถือได้ และการทำงานที่สอดคล้องกัน ให้กับทีมงานต่าง ๆ ใช้ในการทดลอง ให้บริการโมเดล และให้บริการแอปพลิเคชันรุ่นใหม่ ๆ เร้ดแฮทได้ผสานรวมความสามารถต่าง ๆ ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ของ OpenShift AI เข้ากับ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มแอปพลิเคชัน AI หนึ่งแพลตฟอร์ม ที่สามารถช่วยให้ทีมที่ทำงานต่าง ๆ ขององค์กรมาทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ผู้ที่มีบทบาทหน้าที่ด้านต่าง ๆ เช่น data scientists, engineers และนักพัฒนาแอปพลิเคชันทุกคนสามารถทำงานร่วมกันบนแพลตฟอร์มเดียวกัน ที่มีประสิทธิภาพทั้งความคงเส้นคงวา สอดคล้องกัน มีความปลอดภัยมากขึ้น และสเกลได้ง่าย

Red Hat Device Edge เป็นแพลตฟอร์มที่มีความยืดหยุ่น รองรับเวิร์กโหลดประเภทต่าง ๆ ในทิศทางเดียวกัน ไม่ว่าจะเป็นเวิร์กโหลดที่อยู่บนอุปกรณ์ขนาดเล็กที่มีทรัพยากรจำกัดติดตั้งอยู่ที่ edge และมอบความสม่ำเสมอในการดำเนินงานกับเวิร์กโหลดและอุปกรณ์ทุกประเภท ไม่ว่าจะนำไปใช้งาน ณ ที่ใดก็ตาม ทั้งนี้ Red Hat Device Edge ประกอบด้วย

  • Red Hat Enterprise Linux

สร้าง edge-optimized OS images เพื่อรองรับกรณีใช้งานและเวิร์กโหลดหลากหลาย ด้วย ระบบปฏิบัติการที่มีความปลอดภัยและความเสถียรของเร้ดแฮท

  • MicroShift

MicroShift ของเร้ดแฮท เป็นโซลูชัน lightweight Kubernetes container orchestration ที่สร้างจากความสามารถด้าน edge ของ Red Hat OpenShift

  • Red Hat Ansible Automation Platform

Red Hat Ansible Automation Platform ช่วยให้องค์กรสเกลอุปกรณ์ได้อย่างรวดเร็ว และช่วยบริหารจัดการไลฟ์ไซเคิลของแอปพลิเคชัน

Red Hat Recognized as a Leader and Furthest in Vision in 2024 Gartner Magic Quadrant™ for Container Management

Red Hat ได้รับการจัดให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leaders ด้าน Vision ในรายงาน 2024 Gartner® Magic Quadrant™ for Container Management

Red Hat Recognized as a Leader and Furthest in Vision in 2024 Gartner Magic Quadrant™ for Container Management

This marks the 2nd consecutive year Gartner has named Red Hat a Leader in the report

Red Hat, Inc., the world’s leading provider of open source solutions, today announced that Red Hat has been positioned by Gartner as a Leader and furthest on the Completeness of Vision axis in the Magic Quadrant for Container Management for its Red Hat OpenShift offering. Additionally, Red Hat ranked first in three of six Use Cases in the 2024 Gartner Critical Capabilities for Container Management, including Hybrid Container Development, Container Management Tooling and Edge Container Deployment.

Red Hat OpenShift is a comprehensive platform for developing, modernizing and deploying applications at scale, including AI-enabled apps. It provides a consistent experience across hybrid environments — from the datacenter, to the cloud, to the edge. With Red Hat OpenShift, organizations have a unified platform with a complete set of tools and services as well as security and compliance capabilities integrated directly into the platform, streamlining the entire application lifecycle, from development to delivery to management. Available in both fully managed or self-managed options, Red Hat OpenShift runs wherever and however customers need.

The Gartner Magic Quadrant for Container Management evaluated 12 vendor solutions and was based on specific criteria that analyzed the company’s overall completeness of vision and ability to execute. According to Gartner, Leaders execute well against their current vision and are well positioned for tomorrow.

This report follows the Gartner recognition of Red Hat as a Challenger in the most recent 2024 Gartner Magic Quadrant for DevOps Platforms. As one of the only three vendors named in both Magic Quadrant reports, we believe this showcases Red Hat OpenShift’s capabilities as a fully integrated application development platform — enabling a standardized developer experience across the hybrid cloud and supporting diverse workloads from AI-enabled to applications at the edge.

View a complimentary copy of the Magic Quadrant report to learn more about Red Hat’s strengths and cautions, among other provider offerings, here.

Supporting Quote
Mike Barrett, vice president and general manager, Hybrid Cloud Platforms, Red Hat
“We are proud to be recognized as a Leader and Furthest in Completeness of Vision in the Gartner Magic Quadrant for Container Management. We believe this recognition is a testament not only to Red Hat OpenShift’s current capabilities, but also our vision for enabling the solution to best meet the needs of tomorrow, including powering intelligent and AI-enabled workloads. With Red Hat OpenShift, organizations have a complete application development platform with built-in DevSecOps tools, helping them bring cloud-native applications to market faster — wherever they may live across the hybrid cloud.

Red Hat ได้รับการจัดให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leaders ด้าน Vision ในรายงาน 2024 Gartner® Magic Quadrant™ for Container Management

Red Hat ได้รับการจัดให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leaders ด้าน Vision ในรายงาน 2024 Gartner® Magic Quadrant™ for Container Management

Red Hat ได้รับการจัดให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leaders ด้าน Vision ในรายงาน 2024 Gartner® Magic Quadrant™ for Container Management

นับเป็นปีที่สองติดต่อกันที่ Gartner จัดให้ Red Hat อยู่ในกลุ่มผู้นำในรายงานนี้

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ได้รับการจัดอันดับ จากการ์ทเนอร์ให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leader ด้านความสมบูรณ์ของวิสัยทัศน์ (Completeness of Vision) ในรายงาน Magic Quadrant ด้าน Container Management จากผลิตภัณฑ์ Red Hat OpenShift[1] และยังติดอันดับหนึ่งในสามจากหกของตัวอย่างการนำไปช้งานใน 2024 Gartner Critical Capabilities for Container Management ซึ่งรวมถึง Hybrid Container Development, Container Management Tooling และ Edge Container Deployment

Red Hat OpenShift เป็นแพลตฟอร์มที่ครอบคลุม เพื่อการพัฒนาแอปพลิเคชันปรับให้ทันสมัย และใช้แอปพลิเคชันเหล่านั้นได้ในสเกลที่ใหญ่ขึ้นซึ่งรวมถึงแอปพลิเคชันต่าง ๆ ที่รองรับ AI มอบประสบการณ์การใช้งานที่คงเส้นคงวาในสภาพแวดล้อมแบบไฮบริด ไม่ว่าจะเป็นที่ดาต้าเซ็นเตอร์ คลาวด์ หรือ edge ทั้งนี้ Red Hat OpenShift ช่วยให้องค์กรต่าง ๆ ได้ใช้แพลตฟอร์มรวมศูนย์หนึ่งเดียว ที่มาพร้อมชุดเครื่องมือและบริการที่สมบูรณ์พร้อม รวมถึง ความปลอดภัยและการปฏิบัติตามกฎระเบียบที่ผสานอยู่บนแพลตฟอร์มนี้โดยตรง ซึ่งเป็นการช่วยปรับปรุงวงจรการใช้งานแอปพลิเคชันทั้งหมดให้มีประสิทธิภาพมากขึ้น ตั้งแต่การพัฒนา การให้บริการ ไปจนถึงการบริหารจัดการ Red Hat OpenShift ทำงานได้กับทุกสภาพแวดล้อมและทุกเวลาที่ลูกค้าต้องการใช้ มีให้เลือกทั้งแบบที่เร้ดแฮทจัดการให้อย่างเต็มรูปแบบ และแบบที่ลูกค้าบริหารจัดการด้วยตนเอง

Gartner Magic Quadrant for Container Management ได้ประเมินโซลูชันจากผู้ขายเทคโนโลยีจำนวน 12 ราย และอิงตามเกณฑ์เฉพาะที่วิเคราะห์ความสมบูรณ์โดยรวมของวิสัยทัศน์ของแต่ละบริษัท รวมถึงความสามารถในการดำเนินการให้สำเร็จ โดยการ์ทเนอร์ระบุว่าผู้ที่อยู่ในกลุ่มผู้นำต้องดำเนินการได้ดีตามวิสัยทัศน์ปัจจุบัน และอยู่ในตำแหน่งที่ดีในอนาคต

รายงานนี้ออกมาต่อจากรายงาน Gartner Magic Quadrant for DevOps Platforms ปี 2024 ซึ่งการ์ทเนอร์จัดให้เร้ดแฮทเป็นหนึ่งในกลุ่ม Challenger ทั้งนี้ เร้ดแฮทเป็นหนึ่งในสามของผู้จำหน่ายเทคโนโลยีที่มีรายชื่ออยู่ในรายงาน Magic Quadrant ทั้งสองประเภท ซึ่งย้ำให้เห็นถึงสมรรถนะของ Red Hat OpenShift ในการเป็นแพลตฟอร์มด้านการพัฒนาแอปพลิเคชันแบบครบวงจร ที่ช่วยให้นักพัฒนาซอฟต์แวร์ได้รับประสบการณ์ที่เป็นมาตรฐานในการใช้งานบนไฮบริดคลาวด์ทุกที่ และรองรับเวิร์กโหลดที่หลากหลาย ไม่ว่าจะเป็นแอปพลิเคชันที่รองรับ AI ไปจนถึงแอปพลิเคชันที่ edge

ดูรายงาน Magic Quadrant เพื่อศึกษาจุดแข็งและคำแนะนำของเร้ดแฮท รวมถึงข้อเสนอของผู้ให้บริการอื่น ๆ ได้ที่นี่

คำกล่าวสนับสนุน

Mike Barrett, vice president and general manager, Hybrid Cloud Platforms, Red Hat

“เราภูมิใจที่ได้รับการยอมรับให้อยู่ในตำแหน่งผู้นำในกลุ่ม Leaders ด้าน Completeness of Vision ในรายงาน Gartner Magic Quadrant for Container Management เราเชื่อว่าการได้รับการยอมรับในครั้งนี้เป็นสิ่งพิสูจน์ว่าไม่เพียงแต่ความสามารถในปัจจุบันของ Red Hat OpenShift เท่านั้นที่ได้รับการยอมรับ แต่ยังรวมถึงวิสัยทัศน์ในการทำให้โซลูชันนี้ตอบความต้องการในอนาคตได้ดีที่สุด รวมถึงการเสริมแกร่งให้กับเวิร์กโหลดที่รองรับ AI และเวิร์กโหลดอัจฉริยะ Red Hat OpenShift ช่วยให้องค์กรต่าง ๆ ได้ใช้แพลตฟอร์มด้านการพัฒนาแอปพลิเคชันที่สมบูรณ์พร้อมด้วยเครื่องมือด้าน DevSecOps ที่ติดตั้งมาเรียบร้อย เป็นการช่วยให้นักพัฒนาซอฟต์แวร์นำแอปพลิเคชันแบบคลาวด์-เนทีฟ ออกสู่ตลาดได้เร็วขึ้น ไม่ว่าจะทำงานอยู่ ณ จุดใดบนไฮบริดคลาวด์ก็ตาม

Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production

RHEL AI combines open, more efficient models with accessible model alignment, extending the possibilities of AI innovation across the hybrid cloud

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the general availability of Red Hat Enterprise Linux (RHEL) AI across the hybrid cloud. RHEL AI is Red Hat’s foundation model platform that enables users to more seamlessly develop, test and run generative AI (gen AI) models to power enterprise applications. The platform brings together the open source-licensed Granite large language model (LLM) family and InstructLab model alignment tools, based on the Large-scale Alignment for chatBots (LAB) methodology, packaged as an optimized, bootable RHEL image for individual server deployments across the hybrid cloud.

While gen AI’s promise is immense, the associated costs of procuring, training and fine-tuning LLMs can be astronomical, with some leading models costing nearly $200 million to train before launch. This does not include the cost of aligning for the specific requirements or data of a given organization, which typically requires data scientists or highly-specialized developers. No matter the model selected for a given application, alignment is still required to bring it in-line with company-specific data and processes, making efficiency and agility key for AI in actual production environments.

Red Hat believes that over the next decade, smaller, more efficient and built-to-purpose AI models will form a substantial mix of the enterprise IT stack, alongside cloud-native applications. But to achieve this, gen AI needs to be more accessible and available, from its costs to its contributors to where it can run across the hybrid cloud. For decades, open source communities have helped solve similar challenges for complex software problems through contributions from diverse groups of users; a similar approach can lower the barriers to effectively embracing gen AI.

An open source approach to gen AI

These are the challenges that RHEL AI intends to address – making gen AI more accessible, more efficient and more flexible to CIOs and enterprise IT organizations across the hybrid cloud. RHEL AI helps:

  • Empower gen AI innovation with enterprise-grade, open source-licensed Granite models, and aligned with a wide variety of gen AI use cases.
  • Streamline aligning gen AI models to business requirements with InstructLab tooling, making it possible for domain experts and developers within an organization to contribute unique skills and knowledge to their models even without extensive data science skills.
  • Train and deploy gen AI anywhere across the hybrid cloud by providing all of the tools needed to tune and deploy models for production servers wherever associated data lives. RHEL AI also provides a ready on-ramp to Red Hat OpenShift AI for training, tuning and serving these models at scale while using the same tooling and concepts.

RHEL AI is also backed by the benefits of a Red Hat subscription, which includes trusted enterprise product distribution, 24×7 production support, extended model lifecycle support and Open Source Assurance legal protections.

RHEL AI extends across the hybrid cloud

Bringing a more consistent foundation model platform closer to where an organization’s data lives is crucial in supporting production AI strategies. As an extension of Red Hat’s hybrid cloud portfolio, RHEL AI will span nearly every conceivable enterprise environment, from on-premise datacenters to edge environments to the public cloud. This means that RHEL AI will be available directly from Red Hat, from Red Hat’s original equipment manufacturer (OEM) partners and to run on the world’s largest cloud providers,including Amazon Web Services (AWS), Google Cloud, IBM Cloud and Microsoft Azure. This enables developers and IT organizations to use the power of hyperscaler compute resources to build innovative AI concepts with RHEL AI.

Availability

RHEL AI is generally available today via the Red Hat Customer Portal to run on-premise or for upload to AWS and IBM Cloud as a “bring your own subscription” (BYOS) offering. Availability of a BYOS offering on Azure and Google Cloud is planned in Q4 2024 and RHEL AI is also expected to be available on IBM Cloud as a service later this year. 

Red Hat plans to further expand the aperture of RHEL AI cloud and OEM partners in the coming months, providing even more choice across hybrid cloud environments.

Supporting Quotes

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

“For gen AI applications to be truly successful in the enterprise, they need to be made more accessible to a broader set of organizations and users and more applicable to specific business use cases. RHEL AI provides the ability for domain experts, not just data scientists, to contribute to a built-for-purpose gen AI model across the hybrid cloud, while also enabling IT organizations to scale these models for production through Red Hat OpenShift AI.”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM is committed to helping enterprises build and deploy effective AI models, and scale with speed. RHEL AI on IBM Cloud is bringing open source innovation to the forefront of gen AI adoption, allowing more organizations and individuals to access, scale and harness the powerof AI. With RHEL AI bringing together the power of InstructLab and IBM’s family of Granite models, we are creating gen AI models that will help clients drive real business impact across the enterprise.”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

“The benefits of enterprise AI come with the sheer scale of the AI model landscape and the inherent complexities of selecting, tuning, and maintaining in-house models. Smaller, built-to-purpose, and more broadly accessible models can make AI strategies more achievable for a much broader set of users and organizations, which is the area that Red Hat is targeting with RHEL AI as a foundation model platform.”

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร

RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภาพกับเครื่องมือการจัดตำแหน่งโมเดล เพื่อนำนวัตกรรม AI ไปใช้บนไฮบริดคลาวด์ได้มากขึ้น

เร้ดแฮท ผู้นำระดับโลกด้านโซลูชันโอเพ่นซอร์ส ประกาศวางตลาด Red Hat Enterprise Linux (RHEL) AI ใช้งานบนไฮบริดคลาวด์ RHEL AI คือแพลตฟอร์ม foundation model ของเร้ดแฮทที่เป็นพื้นที่ให้ผู้ใช้ทำการพัฒนา ทดสอบ และรันโมเดล generative AI (gen AI) ต่าง ๆ ได้อย่างลงตัวมากขึ้น ส่งผลให้สามารถใช้แอปพลิเคชันต่าง ๆ ในองค์กรได้อย่างราบรื่น  แพลตฟอร์มนี้บูรณาการโมเดลด้านภาษาขนาดใหญ่ (LLM) ตระกูล Granite ที่เป็นไลเซนส์โอเพ่นซอร์ส และ InstructLab ซึ่งเป็นเครื่องมือปรับโมเดลที่อิงการทำงานตามวิธี  Large-scale Alignment for chatBots (LAB) ไว้ด้วยกันเป็น RHEL image ที่บู๊ตได้ตามความเหมาะสม เพื่อใช้งานกับเซิร์ฟเวอร์แต่ละตัวที่อยู่บนไฮบริดคลาวด์ทั้งหมดอย่างเป็นเอกเทศ

แม้ว่าความนิยมในการใช้ gen AI กำลังพุ่งสูงขึ้นมาก แต่ค่าใช้จ่ายที่เกี่ยวข้องกับการจัดหา การเทรน และการปรับแต่งโมเดล LLM ต่าง ๆ นั้นสูงมาก การเทรนโมเดลชั้นนำบางโมเดลก่อนจะเปิดตัวได้ มีค่าใช้จ่ายเกือบ 200 ล้านดอลลาร์ ซึ่งยังไม่รวมค่าใช้จ่ายในการปรับโมเดลให้สอดคล้องกับความต้องการหรือข้อมูลที่เฉพาะเจาะจงขององค์กร ที่มักต้องทำโดยนักวิทยาศาสตร์ข้อมูล (data scientists) หรือนักพัฒนาซอฟต์แวร์ที่มีความเชี่ยวชาญเฉพาะทางสูง อย่างไรก็ตาม ไม่ว่าจะเลือกโมเดลใดให้กับแอปพลิเคชันที่จะใช้ก็จำเป็นต้องปรับโมเดลให้สอดคล้องกับข้อมูลและกระบวนการเฉพาะของแต่ละบริษัท ดังนั้นการใช้ AI ในสภาพแวดล้อมการทำงานจริงจึงต้องการประสิทธิภาพและความคล่องตัวอย่างมาก

เร้ดแฮทเชื่อว่าในอีกสิบปีข้างหน้า โมเดล AI ที่เล็กลงแต่มีประสิทธิภาพมากขึ้น และเป็นโมเดลที่สร้างขึ้นเพื่อวัตถุประสงค์เฉพาะเจาะจง จะเป็นตัวทำให้เกิดการผสมผสาน IT stack ขององค์กรอย่างมีนัยสำคัญ ควบคู่กับแอปพลิเคชันแบบคลาวด์-เนทีฟ แต่การจะทำเช่นนั้นได้ ผู้ใช้จะต้องเข้าถึง gen AI ได้มากขึ้น และ gen AI ต้องพร้อมใช้งานมากขึ้น นั่นคือการพิจารณาด้านค่าใช้จ่ายต่าง ๆ ตลอดจนผู้มีส่วนร่วมในการพัฒนา gen AI ไปจนถึงทำให้สามารถรัน gen AI บนไฮบริดคลาวด์ได้ทั้งหมด ในมุมของโอเพ่นซอร์สคอมมิวนิตี้นั้น นับเป็นเวลาหลายสิบปีแล้วที่คอมมิวนิตี้นี้ได้ช่วยแก้ไขความท้าทายในลักษณะเดียวกันนี้ให้กับซอฟต์แวร์ที่ซับซ้อนต่าง ๆ ผ่านการมีส่วนร่วมส่งความรู้เข้าคอมมิวนิตี้จากผู้ใช้กลุ่มต่าง ๆ ที่หลากหลาย ซึ่งวิธีการเดียวกันนี้สามารถลดอุปสรรคในการใช้ gen AI ให้มีประสิทธิภาพมากขึ้นได้

แนวทางของโอเพ่นซอร์สต่อ gen AI

ความท้าทายที่กล่าวข้างต้นคือสิ่งที่ RHEL AI ต้องบริหารจัดการ เพื่อทำให้เข้าถึง gen AI ได้มากขึ้นบนไฮบริดคลาวด์ มอบความคล่องตัวและประสิทธิภาพมากขึ้นให้กับผู้บริหารด้านเทคโนโลยีสารสนเทศ (CIOs) และองค์กรด้านไอที ดังนี้

  • สนับสนุนนวัตกรรมด้าน gen AI ด้วยโมเดล Granite ที่เป็นไลเซนส์โอเพ่นซอร์สความสามารถระดับใช้งานในองค์กร และใช้งาน gen AI ได้หลายรูปแบบ
  • InstructLab ช่วยปรับโมเดล gen AI ให้สอดคล้องกับความต้องการของธุรกิจ ซึ่งเป็นการช่วยให้ผู้เชี่ยวชาญเฉพาะด้านและนักพัฒนาซอฟต์แวร์ขององค์กร ใช้ทักษะเฉพาะและความรู้ต่าง ๆ กับโมเดลของตนได้โดยไม่จำเป็นต้องมีทักษะด้านวิทยาศาสตร์ข้อมูล (data science)
  • เทรนและใช้ gen AI ได้ทุกที่บนไฮบริดคลาวด์ ผ่านเครื่องมือที่จำเป็นทั้งหมดที่มีให้เพื่อใช้ปรับแต่งและใช้โมเดลสำหรับเซิร์ฟเวอร์ที่ใช้งานในทุกแห่งที่มีข้อมูลที่เกี่ยวข้องวางอยู่ นอกจากนี้ยังมอบช่องทางเพื่อต่อยอดไปสู่การใช้งาน Red Hat OpenShift AI เพื่อเทรน ปรับแต่ง และให้บริการโมเดลเหล่านี้ในสเกลที่ใหญ่ขึ้นตามต้องการด้วยการใช้เครื่องมือและแนวทางเดียวกัน

RHEL AI ยังใช้สิทธิประโยชน์ของ Red Hat subscription ได้ ซึ่งรวมถึงการนำเสนอผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การให้บริการช่วยเหลือการทำงานตลอด 24 ชั่วโมงทุกวัน การสนับสนุนไลฟ์ไซเคิลของโมเดล และการคุ้มครองทางกฎหมายของ Open Source Assurance

ใช้ RHEL AI บนไฮบริดคลาวด์ทุกแห่ง

สิ่งที่สำคัญมากในการนำ AI ไปใช้ได้อย่างมีประสิทธิภาพ คือ การนำโมเดลที่ทำงานร่วมกันได้อย่างราบรื่นไปวางไว้ให้ใกล้จุดที่ข้อมูลขององค์กรวางอยู่ RHEL AI ซึ่งเป็นส่วนขยายของพอร์ตโฟลิโอไฮบริดคลาวด์ของเร้ดแฮท จะขยายข้ามไปใกล้สภาพแวดล้อมขององค์กรเกือบทุกรูปแบบ ไม่ว่าจะเป็นดาต้าเซ็นเตอร์ที่ติดตั้งภายในองค์กร สภาพแวดล้อม edge ไปจนถึงบนพับลิคคลาวด์ นั่นหมายถึง RHEL AI จะพร้อมให้ใช้งานได้ทั้งจากเร้ดแฮทโดยตรง จากพันธมิตร OEM ของเร้ดแฮท และรันอยู่บนบริการของผู้ให้บริการคลาวด์รายใหญ่ของโลก เช่น Amazon Web Services (AWS), Google Cloud, IBM Cloud และ Microsoft Azure ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์และองค์กรด้านไอที สามารถใช้พลังของทรัพยากรการประมวลผลแบบไฮเปอร์สเกลในการสร้างแนวคิดนวัตกรรมด้าน AI ด้วย RHEL AI

การจัดจำหน่าย

ขณะนี้ RHEL AI พร้อมให้บริการแล้วผ่าน Red Hat Customer Portal เพื่อรันบนระบบภายในองค์กร หรืออัปโหลดไปยัง AWS และ IBM Cloud ในรูปแบบ “bring your own subscription” (BYOS) สำหรับ Azure และ Google Cloud นั้นวางแผนไว้ว่าจะพร้อมให้ใช้บริการในรูปแบบ BYOS ในไตรมาสที่ 4 ของปี 2567 และคาดว่าจะพร้อมให้ใช้งานบน IBM Cloud ในรูปแบบ as a service ปลายปีนี้

เร้ดแฮทวางแผนขยาย RHEL AI cloud และพันธมิตร OEM เพิ่มเติมในอีกไม่กี่เดือนข้างหน้า เพื่อมอบทางเลือกการใช้งานบนสภาพแวดล้อมไฮบริดคลาวด์ให้มากขึ้น

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat

การที่องค์กรจะประสบความสำเร็จในการใช้แอปพลิเคชัน AI ได้อย่างแท้จริงได้นั้น องค์กรและผู้ใช้จะต้องเข้าถึงแอปฯ เหล่านั้นได้ในวงกว้างมากขึ้น และสามารถนำแอปฯ เหล่านั้นไปใช้กับงานด้านต่าง ๆ ของธุรกิจได้อย่างเฉพาะเจาะจงมากขึ้น RHEL AI มอบความสามารถให้ผู้เชี่ยวชาญเฉพาะด้าน ซึ่งไม่เจาะจงเฉพาะกับนักวิทยาศาสตร์ข้อมูล (data scientist) ในการมีส่วนร่วมสร้างโมเดล AI เพื่อใช้งานตามวัตถุประสงค์เฉพาะ บนไฮบริดคลาวด์ ในขณะเดียวกันองค์กรด้านไอทีก็สามารถสเกลโมเดลเหล่านี้ให้เหมาะสมกับระบบงานจริงผ่าน Red Hat OpenShift AI”

Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure

“IBM ให้คำมั่นที่จะช่วยองค์กรต่าง ๆ สร้างและใช้โมเดล AI ที่มีประสิทธิภาพ และสเกลได้อย่างรวดเร็ว RHEL AI on IBM Cloud คือการนำนวัตกรรมโอเพ่นซอร์สมาสู่แนวหน้าของการใช้ gen AI ช่วยให้องค์กรและผู้คนเข้าถึง สเกล และใช้พลังของ AI ได้มากขึ้น  การรวมพลังของ RHEL AI, InstructLab และโมเดลในตระกูล Granite ของ IBM นี้ เป็นสิ่งที่เรากำลังสร้างโมเดล gen AI ที่จะช่วยลูกค้าขับเคลื่อนผลทางธุรกิจอย่างแท้จริงตลอดทั้งองค์กร”

Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC

ประโยชน์ของ AI ในองค์กรนั้นมาพร้อมกับแลนด์สเคปของโมเดล AI ขนาดมหึมา และมีความซับซ้อนโดยธรรมชาติ ไม่ว่าจะเป็นการเลือกใช้ การปรับแต่ง และการบำรุงรักษาโมเดลภายในองค์กร  กลยุทธ์ด้าน AI ของผู้ใช้และองค์กรที่มีความหลากหลาย จะประสบความสำเร็จได้มากขึ้นด้วยโมเดลที่มีขนาดเล็กลง เจาะจงสร้างตามวัตถุประสงค์ และเข้าถึงได้อย่างกว้างขวาง ซึ่งส่วนนี้คือเป้าหมายที่เร้ดแฮทจะใช้ RHEL AI เป็นแพลตฟอร์มสำหรับ foundational model”