พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

บทความโดย: เด็บ ริชาร์ดสัน, Senior Content Strategist, เร้ดแฮท บล็อก

เทคโนโลยีกำลังเปลี่ยนแปลงอย่างรวดเร็วไปพร้อมกับวิวัฒนาการของปัญญาประดิษฐ์ (AI) ทุกวันนี้เราได้เห็นเครื่องมือใหม่ ๆ เกิดขึ้น เพื่อใช้ทำงานที่ต้องทำซ้ำ ๆ เสริมความสามารถในงานสร้างสรรค์ และ ช่วยให้ตัดสินใจได้อย่างมีประสิทธิภาพมากขึ้น 

หลายคนกังวลว่าเครื่องมือด้าน AI ที่มีอยู่อย่างมากมายจะกระทบต่ออนาคตด้านการงานและอาชีพของตน ซึ่งเป็นเรื่องที่เข้าใจได้ เพราะเทคโนโลยีเหล่านี้สามารถทำงานที่น่าทึ่งได้จากคำสั่งง่าย ๆ เพียงไม่กี่คำ

ความสามารถของ Generative AI (gen AI) เช่น การสร้างโค้ด เขียนคอนเทนต์ทางการตลาด ออกแบบกราฟิก สร้างสรรค์งานศิลปะได้หลากหลายสไตล์ สร้างวิดีโอเต็มรูปแบบพร้อสคริปต์และเพลงประกอบ คิดแผนธุรกิจเชิงกลยุทธ์ พัฒนาโพสต์บนโซเชียลมีเดีย และอื่น ๆ อีกมาก จึงไม่น่าแปลกใจที่หลายคนจะรู้สึกกังวลเกี่ยวกับโอกาสในการจ้างงานในอนาคต แต่ไม่ใช่ว่าทุกอย่างจะเป็นไปในทางลบเสียทั้งหมด 

แม้ว่าการเรียนรู้การใช้เครื่องมือ AI อย่างมีประสิทธิภาพจะเป็นสิ่งสำคัญสำหรับคนในแวดวงเทคโนโลยี แต่ยังมีความสามารถบางอย่างของคนที่เครื่องจักรไม่อาจเทียบได้ เช่น การคิดและตัดสินใจโดยใช้สัญชาตญาณ การแก้ปัญหาเชิงสร้างสรรค์ ความเข้าใจที่เกิดจากความเห็นอกเห็นใจ ทักษะมนุษย์เหล่านี้เป็นกุญแจสำคัญในการสร้างนวัตกรรม ทำให้การสื่อสารมีประสิทธิภาพ และสามารถรับมือกับปัญหาที่ซับซ้อนได้อย่างที่ AI ไม่สามารถทำได้

เร้ดแฮทพาสำรวจ soft skills ที่คนทำงานสายเทคโนโลยีควรให้ความสำคัญ เพื่อปรับตัวและเติบโตในยุคใหม่ที่ขับเคลื่อนด้วย AI

6 soft skills สำคัญที่คนในยุค AI ควรมี

แม้ว่าจะมีเครื่องมือ AI จำนวนมาก แต่เครื่องมือเหล่านั้นมักใช้กับงานเฉพาะทางและบทบาทเฉพาะอย่าง แต่ทักษะด้านมนุษยสัมพันธ์และอารมณ์ (soft skills) กลับเป็นทักษะที่มีความเป็นสากลที่ทุกคนควรให้ความสำคัญกับการพัฒนาและปรับปรุง ไม่ว่าจะอยู่ในตำแหน่งหรือสายงานใดก็ตาม

1.ทักษะในการแก้ปัญหา

AI สามารถทำสิ่งต่าง ๆ ได้มากมาย แต่ความสามารถในการแก้ปัญหานั้นไม่สามารถเทียบกับมนุษย์ได้ AI สามารถสร้างโค้ดได้ แต่มนุษย์ต้องเป็นผู้ออกแบบระบบที่มีประสิทธิภาพ ขยายขนาดได้ แก้ไขปัญหาที่ไม่คาดคิด และเฝ้าระวังจุดบกพร่องและปัญหาความปลอดภัยที่ AI อาจนำมา 

แม้ gen AI จะช่วยตรวจจับความผิดปกติด้านความปลอดภัยได้ แต่คนต้องเป็นผู้ประเมินและจัดอันดับความสำคัญของความเสี่ยงเหล่านี้ ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI สามารถดำเนินการซ้ำ ๆ ได้มากมาย แต่ก็ยังต้องอาศัยวิจารณญาณของคนในการออกแบบอย่างรอบคอบและตรวจสอบอย่างสม่ำเสมอ

ในทางการตลาดและการสื่อสาร เครื่องมือ AI ที่วิเคราะห์ความรู้สึกจากข้อความ (sentiment analysis) ช่วยตรวจจับประเด็นปัญหาได้อย่างรวดเร็ว แต่การตัดสินใจเลือกแนวทางรับมือ หรือการรักษาภาพลักษณ์ของแบรนด์ให้แข็งแกร่ง ยังต้องพึ่งพาการตัดสินใจของคน

การพัฒนาทักษะในการแก้ปัญหา เป็นสิ่งที่สามารถพัฒนาได้ตามประสบการณ์ แต่หากต้องการฝึกฝนอย่างเป็นระบบมีบทความและหลักสูตรมากมายที่ช่วยในการเรียนรู้ได้อย่างมีแบบแผนและมีประสิทธิภาพยิ่งขึ้น

  1. ทักษะในการคิดวิเคราะห์อย่างมีวิจารณญาณ

AI ยังห่างไกลจากคำว่าสมบูรณ์แบบ ด้วยโมเดลภาษาขนาดใหญ่ (LLMs) มีข้อจำกัดจากการเทรนและข้อมูลที่ใช้ในการเทรน หากองค์กรใดกำลังใช้เครื่องมือ AI เหล่านี้ ควรให้คนขององค์กรได้ฝึกฝนทักษะในการประเมินผลลัพธ์ของ AI อย่างมีวิจารณญาณ เข้าใจข้อจำกัดของเครื่องมือ และเรียนรู้วิธีระบุอคติของโมเดลและผลลัพธ์ ที่อาจมีปัญหาได้

แม้ AI จะเก่งในการตรวจจับรูปแบบต่าง ๆ แต่การตีความอย่างถูกต้องและการสังเกตความผิดปกติที่อาจถูกมองข้ามยังคงต้องอาศัยคน เช่นเดียวกับการจัดการกับอคติและประเด็นจริยธรรมที่ซับซ้อนก็ต้องอาศัยสติปัญญาและความเข้าใจของคน รวมถึงการตรวจสอบให้เครื่องมือหรือกระบวนการที่ใช้ AI ปฏิบัติตามกฎหมายและข้อกำหนดอย่างต่อเนื่อง

แม้ว่าการคิดวิเคราะห์อย่างมีวิจารณญาณ จะพัฒนาได้จากประสบการณ์โดยธรรมชาติ เช่นเดียวกับทักษะในการแก้ปัญหา แต่ก็เป็นทักษะที่สามารถพัฒนาเพิ่มเติมได้ แม้การเรียนรู้ทักษะนี้เป็นส่วนสำคัญที่สุดของการศึกษาในระดับมหาวิทยาลัย แต่ยังมีแหล่งอื่นนอกมหาวิทยาลัยที่ช่วยคนพัฒนาด้านนี้ได้ เช่น LinkedIn Learning มีหลักสูตรหลากหลายที่เน้นการพัฒนาการคิดวิเคราะห์อย่างมีวิจารณญาณ เช่นเดียวกับ Khan Academy และ Udemy นอกจากนี้ยังมีหนังสือมากมายเกี่ยวกับหัวข้อนี้ให้เลือกอ่านเช่นกัน

  1. ทักษะในการทำงานร่วมกัน

ความสามารถในการทำงานร่วมกัน ร่วมมือกัน และทำงานเป็นทีมเป็นหนึ่งในจุดแข็งที่สำคัญของคน ดังคำกล่าวที่ว่า “ไม่มีใครเก่งเท่ากับทุกคนรวมกัน” (none of us is as good as all of us) ซึ่งปัจจุบัน AI ยังมีข้อจำกัดด้านนี้ และไม่อาจเทียบได้กับความสามารถของคนในการสร้างความสัมพันธ์และการทำงานร่วมกัน

เมื่อพัฒนานาแอปพลิเคชัน AI ผู้พัฒนาจะต้องทำงานใกล้ชิดกับผู้เชี่ยวชาญด้าน AI นักวิทยาศาสตร์ข้อมูล ผู้จัดการผลิตภัณฑ์และโครงการ รวมถึงผู้มีส่วนเกี่ยวข้องอื่น ๆ มากขึ้นเรื่อย ๆ และแน่นอนว่าทักษะการทำงานร่วมกันนั้นมีความสำคัญอย่างยิ่งในโปรเจ็กต์ที่เป็นโอเพ่นซอร์ส ซึ่งถือเป็นรากฐานสำคัญของการดำเนินงานโครงการเหล่านี้

ในการใช้ประโยชน์ด้านอื่น เช่น ด้านการประชาสัมพันธ์และสื่อสาร เราอาจใช้ AI เพื่อวิเคราะห์ความรู้สึกของผู้บริโภคหรือแนวโน้มของสื่อได้ แต่ก็ยังต้องอาศัยคนในการสร้างและรักษาความสัมพันธ์ที่แน่นแฟ้นกับนักข่าว พันธมิตร และผู้มีส่วนเกี่ยวข้องอื่น ๆ

ทักษะการทำงานร่วมกันเป็นสิ่งสำคัญของการทำงานเป็นทีมและการสร้างความไว้วางใจ สามารถเรียนรู้ได้จากทั้งหนังสือและหลักสูตรต่าง ๆ บนแพลตฟอร์มต่าง ๆ ที่กล่าวข้างต้น หรือเริ่มต้นง่าย ๆ บน YouTube

  1. ทักษะด้านการสื่อสาร

ทักษะด้านการสื่อสาร มีความสำคัญอย่างยิ่งกับทุกสาขาอาชีพในแวดวงเทคโนโลยี วิศวกรด้านไอทีต้องสามารถให้คำอธิบายแนวคิดทางเทคนิค และแนวทางเชิงกลยุทธ์ในการแก้ไขปัญหาด้านการออกแบบและสถาปัตยกรรมได้อย่างชัดเจน ซึ่งนั่นเป็นสิ่งที่ AI ไม่สามารถทำได้ 

ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ต้องสามารถตีความผลลัพธ์ที่ได้จาก AI และสื่อสารข้อมูลเชิงลึกเหล่านั้นให้ฝ่ายบริหารหรือทีมที่ไม่ใช่ทีมเทคนิคสามารถเข้าใจได้ว่า ความเสี่ยงที่อาจเกิดขึ้นนั้นร้ายแรงหรือไม่เพียงใด 

การสื่อสารเป็นหัวใจของการตลาดและการประชาสัมพันธ์ แม้เครื่องมือ AI สามารถให้การวิเคราะห์และข้อมูลเชิงลึกได้ แต่คนคือผู้สร้างสรรค์และบอกเล่าเรื่องราวของแบรนด์ที่โดนใจผู้ที่เราต้องการเข้าถึง

ทักษะการสื่อสารช่วยให้ผู้เชี่ยวชาญด้านเทคโนโลยีทำงานร่วมกันได้อย่างมีประสิทธิภาพ ลดช่องว่างระหว่างทีมเทคนิคและทีมอื่นที่อาจไม่เชี่ยวชาญทางเทคนิค และขับเคลื่อนนวัตกรรมผ่านการแปลงแนวคิดที่ซับซ้อนให้เป็นกลยุทธ์ที่นำไปปฏิบัติได้จริง ทักษะการสื่อสารมีหลายประเภทแต่ควรเริ่มต้นที่การสื่อสารในที่ทำงาน 

  1. ทักษะในการปฎิบัติอย่างรู้จริง

AI เป็นเทคโนโลยีใหม่ที่น่าตื่นเต้น ซึ่งขณะนี้ถูกนำไปใช้งานในแทบทุกอุปกรณ์และแอปพลิเคชันต่าง ๆ แต่ในความเป็นจริงแล้ว AI ยังมีข้อจำกัดอยู่บ้าง และมีประสิทธิภาพมากกว่าในบางเรื่อง แอปพลิเคชัน AI ควรได้รับการออกแบบและสร้างขึ้นเพื่อแก้ปัญหาที่แท้จริงของผู้ใช้ และเชื่อมโยงกับความต้องการทางธุรกิจที่มีอยู่

ความสามารถในการประเมินความเป็นไปได้รวมถึงประโยชน์ของเทคโนโลยีหรือโซลูชันต่างๆ ได้อย่างชัดเจน เป็นจุดแข็งที่แท้จริงของมนุษย์ การรู้จักสร้างสมดุลระหว่าง “สิ่งที่ทำได้” และ “สิ่งที่ควรทำ” โดยมุ่งเน้นการแก้ปัญหาที่เกิดขึ้นจริง ด้วยแนวทางที่สามารถนำไปใช้ได้จริง เป็นสิ่งที่ AI ไม่สามารถทำได้ในปัจจุบัน 

เช่นเดียวกับการคิดวิเคราะห์อย่างมีวิจารณญาณ การปฏิบัติอย่างรู้จริงเป็นสิ่งที่พัฒนาขึ้นตามธรรมชาติจากประสบการณ์ แต่ก็เหมือนกับทักษะอื่น ๆ ที่สามารถฝึกฝนได้ผ่านการเรียนรู้และการลงมือปฎิบัติอย่างสม่ำเสมอ 

การเป็นนักปฏิบัติอย่างรู้จริงไม่ได้หมายถึงการมองโลกในแง่ลบหรือคอยปิดกั้นความคิดใหม่ ๆ แต่เป็นการมองแนวทางหรือโซลูชันที่มีศักยภาพในมุมมองที่เป็นจริงและรอบคอบ 

ผู้เชี่ยวชาญด้านเทคโนโลยี สามารถพัฒนาความเป็นนักปฏิบัติอย่างรู้จริงได้โดยมุ่งเน้นที่ผลลัพธ์จริง และเลือกโซลูชันที่ใช้งานได้จริงและมีประสิทธิภาพในสถานการณ์จริง ยอมรับการพัฒนาแบบรอบวนซ้ำ การทดสอบ และการรับฟังความคิดเห็นอย่างต่อเนื่อง สิ่งเหล่านี้จะช่วยให้แนวทางการทำงานมีความเป็นรูปธรรมและตั้งอยู่บนพื้นฐานของความเป็นจริง 

  1. ทักษะในการปรับตัว

มนุษย์ยุคแรกสามารถอยู่รอดและเติบโตได้ เพราะมีความสามารถพื้นฐานในการปรับตัวให้เข้ากับสภาพแวดล้อมที่เปลี่ยนแปลงอยู่เสมอ ซึ่งเป็นทักษะที่มีความสำคัญอย่างยิ่งในปัจจุบัน เห็นได้ชัดจากช่วงไม่กี่ปีที่ผ่านมาที่อุตสาหกรรมเทคโนโลยีกำลังเผชิญกับการเปลี่ยนแปลงครั้งใหญ่ ส่วนหนึ่งมาจากการพัฒนาอย่างรวดเร็วของเครื่องมือและขีดความสามารถของ AI 

การพัฒนาความสามารถในการปรับตัวในที่ทำงาน โดยพื้นฐานแล้วคือการสร้างทัศนคติที่ยืดหยุ่น ผ่อนสั้นผ่อนยาว (เพียงแค่เปิดใจให้กับสิ่งใหม่ ๆ) และการเรียนรู้อย่างต่อเนื่อง เปิดรับแนวคิด ความรับผิดชอบใหม่ ๆ ทุ่มเทให้กับการพัฒนาตนเอง กระตือรือร้นในการเสนอแนวทางแก้ไขหรือการปรับปรุงเมื่อเจอปัญหา และติดตามให้ทันการเปลี่ยนแปลงในอุตสาหกรรมอยู่เสมอ (แม้ว่าจะมีการเปลี่ยนแปลงที่มากมายจนน่ากังวลใจก็ตาม) 

บทสรุป

การเรียนรู้อย่างต่อเนื่องคือหัวใจสำคัญของทักษะทุกอย่าง มีการนำเครื่องมือที่เป็น AI ไปใช้งานในแทบทุกบทบาทและทุกสายงานในอุตสาหกรรมเทคโนโลยี ทำให้หลายคนกังวลเกี่ยวกับอนาคตของงานในมือ แต่ “ทักษะทางสังคมที่ใช้ในการปฏิสัมพันธ์กับผู้อื่น” หรือ “soft skills” กลับมีความสำคัญมากขึ้นในยุคของ AI แม้ AI จะช่วยให้เราทำงานได้มากขึ้นและรวดเร็วขึ้น แต่มันไม่สามารถทดแทนความสามารถในการแก้ปัญหา การคิดอย่างมีวิจารณญาณ การสื่อสารอย่างมีประสิทธิภาพ การทำงานร่วมกัน ความเป็นเหตุเป็นผล และการปรับตัวอย่างรวดเร็วต่อการเปลี่ยนแปลงได้

เป็นเรื่องธรรมดาที่จะรู้สึกกังวลกับอนาคต แต่สำหรับหลาย ๆ คนแล้ว AI กลับเป็นโอกาสที่ยอดเยี่ยมในการใช้เครื่องมือใหม่เหล่านี้จัดการกับงานที่ซ้ำซากและน่าเบื่อ เพื่อให้เราได้หันมาโฟกัสกับการพัฒนาทักษะมนุษย์อย่างลึกซึ้ง และได้ทำสิ่งที่น่าสนใจจริง ๆ ซึ่ง AI ไม่สามารถทำได้

Red Hat Boosts Enterprise AI Across the Hybrid Cloud with Red Hat AI

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

Red Hat Boosts Enterprise AI Across the Hybrid Cloud with Red Hat AI

AI portfolio adds enhancements to Red Hat OpenShift AI and Red Hat Enterprise Linux AI to help operationalize AI strategies

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the latest updates to Red Hat AI, its portfolio of products and services designed to help accelerate the development and deployment of AI solutions across the hybrid cloud. Red Hat AI provides an enterprise AI platform for model training and inference that delivers increased efficiency, a simplified experience and the flexibility to deploy anywhere across a hybrid cloud environment. 

Even as businesses look for ways to reduce the costs of deploying large language models (LLMs) at scale to address a growing number of use cases, they are still faced with the challenge of integrating those models with their proprietary data that drives those use cases while also being able to access this data wherever it exists, whether in a data center, across public clouds or even at the edge.

Encompassing both Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI addresses these concerns by providing an enterprise AI platform that enables users to adopt more efficient and optimized models, tuned on business-specific data and that can then be deployed across the hybrid cloud for both training and inference on a wide-range of accelerated compute architectures.

Red Hat OpenShift AI

Red Hat OpenShift AI provides a complete AI platform for managing predictive and generative AI (gen AI) lifecycles across the hybrid cloud, including machine learning operations (MLOps) and LLMOps capabilities. The platform provides the functionality to build predictive models and tune gen AI models, along with tools to simplify AI model management, from data science and model pipelines and model monitoring to governance and more.

Red Hat OpenShift AI 2.18, the latest release of the platform, adds new updates and capabilities to support Red Hat AI’s aim of bringing better optimized and more efficient AI models to the hybrid cloud. Key features include:

  • Distributed serving: Delivered through the vLLM inference server, distributed serving enables IT teams to split model serving across multiple graphical processing units (GPUs). This helps lessen the burden on any single server, speeds up training and fine-tuning and makes more efficient use of computing resources, all while helping distribute services across nodes for AI models.
  • An end-to-end model tuning experience: Using InstructLab and Red Hat OpenShift AI data science pipelines, this new feature helps simplify the fine-tuning of LLMs, making them more scalable, efficient and auditable in large production environments while also delivering manageability through the Red Hat OpenShift AI dashboard.
  • AI Guardrails: Red Hat OpenShift AI 2.18 helps improve LLM accuracy, performance, latency and transparency through a technology preview of AI Guardrails to monitor and better safeguard both user input interactions and model outputs. AI Guardrails offers additional detection points in helping IT teams identify and mitigate potentially hateful, abusive or profane speech, personally identifiable information, competitive information or other data limited by corporate policies.
  • Model evaluation: Using the language model evaluation (lm-eval) component to provide important information on the model’s overall quality, model evaluation enables data scientists to benchmark the performance of their LLMs across a variety of tasks, from logical and mathematical reasoning to adversarial natural language and more, ultimately helping to create more effective, responsive and tailored AI models.

RHEL AI

Part of the Red Hat AI portfolio, RHEL AI is a foundation model platform to more consistently develop, test and run LLMs to power enterprise applications. RHEL AI provides customers with Granite LLMs and InstructLab model alignment tools that are packaged as a bootable Red Hat Enterprise Linux server image and can be deployed across the hybrid cloud.

Launched in February 2025, RHEL 1.4 added several new enhancements including:

  • Granite 3.1 8B model support for the latest addition to the open source-licensed Granite model family. The model adds multilingual support for inference and taxonomy/knowledge customization (developer preview) along with a 128k context window for improved summarization results and retrieval-augmented generation (RAG) tasks.
  • A new graphical user interface for skills and knowledge contributions, available as a developer preview, to simplify data ingestion and chunking as well as how users add their own skills and contributions to an AI model.
  • Document Knowledge-bench (DK-bench) for easier comparisons of AI models fine-tuned on relevant, private data with the performance of the same un-tuned base models.

Red Hat AI InstructLab on IBM Cloud

Increasingly, enterprises are looking for AI solutions that prioritize accuracy and data security, while also keeping costs and complexity as low as possible. Red Hat AI InstructLab deployed as a service on IBM Cloud is designed to simplify, scale and help improve the security footprint for the training and deployment of AI models. By simplifying InstructLab model tuning, organizations can build more efficient models tailored to the organizations’ unique needs while retaining control of their data.

No-cost AI Foundations training

AI is a transformative opportunity that is redefining how enterprises operate and compete. To support organizations in this dynamic landscape, Red Hat now offers AI Foundations online training courses at no cost. Red Hat is providing two AI learning certificates that are designed for experienced senior leaders and AI novices alike, helping educate users of all levels on how AI can help transform business operations, streamline decision-making and drive innovation. The AI Foundations training guides users on how to apply this knowledge when using Red Hat AI.

Availability

Red Hat OpenShift AI 2.18 and Red Hat Enterprise Linux AI 1.4 are now generally available. More information on additional features, improvements, bug fixes and how to upgrade to the latest version of Red Hat OpenShift AI can be found here and the latest version of RHEL AI can be found here.

Red Hat AI InstructLab on IBM Cloud will be available soon. AI Foundations training from Red Hat is available to customers now.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“Red Hat knows that enterprises will need ways to manage the rising cost of their generative AI deployments, as they bring more use cases to production and run at scale. They also need to address the challenge of integrating AI models with private enterprise data and be able to deploy these models wherever their data may live. Red Hat AI helps enterprises address these challenges by enabling them to leverage more efficient, purpose-built models, trained on their data and enable flexible inference across on-premises, cloud and edge environments.”

Régis Lesbarreres, advanced analytics and AI innovation manager, digital innovation, Airbus Helicopters

“At the outset of our AI journey, Airbus Helicopters was looking to integrate AI into our existing architecture, reduce shadow IT, unite our data scientists under a singular AI platform and optimize costs at scale. With Red Hat OpenShift AI, we’ve been able to accomplish all of these goals, which led to our first business use case for AI. Red Hat’s vision for AI aligns with our business objectives and allows us to meet them while maintaining flexibility, accessibility and transparency.”

Javier Olaizola Casin, global managing partner, hybrid cloud and data, IBM Consulting

“Businesses are increasingly applying AI to transform core business processes, and they need AI solutions that are flexible, cost-effective and tuned with trusted enterprise data to meet their unique needs. Red Hat AI brings the consistency, reliability and speed that organizations need to build and deploy AI models and applications across hybrid cloud scenarios. Combining IBM Consulting’s domain, technology and industry expertise with Red Hat’s AI technologies, we are helping our clients drive ROI from their technology investments.”

Torsten Volks, principal analyst, application modernization, ESG

“Leading organizations harness AI-driven, data-centric decision making across teams and business units. Therefore, the ability to rapidly and cost effectively develop, deploy, integrate, scale and govern AI-based capabilities across the enterprise becomes a critical success factor. Establishing this capability requires an open and extensible AI foundation that ensures seamless integration with existing systems and processes, operational agility and continuous governance. Enabling staff and customers to benefit from AI capabilities faster and in a more comprehensive manner is crucial for continued business success.”

Anand Swamy, executive vice president  and global head of ecosystems, HCLTech

“In order to realize the full potential of generative AI, organizations need to prioritize agile and flexible infrastructure. By combining the capabilities of Red Hat AI, encompassing RHEL AI and Red Hat OpenShift AI to deliver an end-to-end AI application platform, with HCLTech’s leading AI expertise and cognitive infrastructure services, a part of HCLTech AI Foundry solution, customers get a streamlined path to unlocking AI innovation, helping them overcome common challenges such as data security, scaling AI workloads and minimizing infrastructure costs.”

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

พอร์ตโฟลิโอ AI ช่วยเพิ่มประสิทธิภาพให้กับ Red Hat OpenShift AI และ Red Hat Enterprise Linux AI เพื่อหนุนให้องค์กรธุรกิจประสบความสำเร็จในการปรับใช้กลยุทธ์ AI

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก ประกาศการอัปเดทล่าสุดให้กับ Red Hat AI กลุ่มผลิตภัณฑ์และบริการที่ออกแบบมาเพื่อช่วยให้พัฒนาและปรับใช้โซลูชัน AI บนไฮบริดคลาวด์ทุกแห่ง Red Hat AI เป็นแพลตฟอร์ม AI ระดับองค์กร เพื่อการเทรนและการอนุมานโมเดลที่มีประสิทธิภาพมากขึ้น มอบประสบการณ์การใช้งานที่เรียบง่าย และสามารถนำไปใช้บนไฮบริดคลาวด์ได้ทุกแห่งอย่างยืดหยุ่น

ธุรกิจต่างมองหาวิธีลดค่าใช้จ่ายในการใช้โมเดลภาษาขนาดใหญ่ (LLMs) ให้ได้ตามความต้องการและให้เพียงพอต่อกรณีการใช้งานขององค์กรที่เพิ่มขึ้น อย่างไรก็ตาม ธุรกิจเหล่านี้ก็ยังคงเผชิญกับความท้าทายในการบูรณาการโมเดลเหล่านั้นเข้ากับข้อมูลภายในขององค์กร ซึ่งเป็นตัวขับเคลื่อนกรณีใช้งานต่าง ๆ ขององค์กร ในขณะเดียวกันก็ต้องการเข้าถึงข้อมูลเหล่านี้ได้ทุกที่ ไม่ว่าข้อมูลนั้นจะอยู่ในดาต้าเซ็นเตอร์ บนพับลิคคลาวด์ต่าง ๆ หรือแม้แต่ที่ edge

Red Hat AI ประกอบด้วย Red Hat OpenShift AI และ Red Hat Enterprise Linux AI (RHEL AI) สามารถจัดการกับความกังวลดังกล่าวได้ด้วยแพลตฟอร์ม AI ระดับองค์กรที่ช่วยให้ผู้ใช้ปรับใช้โมเดลต่าง ๆ ได้อย่างมีประสิทธิภาพและเหมาะสมมากขึ้น ทำการปรับแต่งข้อมูลเฉพาะธุรกิจให้สามารถนำไปใช้ในการเทรนและการอนุมานบนสถาปัตยกรรมการประมวลผลแบบเร่งความเร็วที่หลากหลายบนไฮบริดคลาวด์ได้ทุกแห่ง

Red Hat OpenShift AI

Red Hat OpenShift AI เป็นแพลตฟอร์ม AI ที่สมบูรณ์แบบเพื่อการบริหารจัดการไลฟ์ไซเคิลของ AI เชิงคาดการณ์ (predictive AI) และ generative AI (gen AI) บนไฮบริดคลาวด์ รวมถึงความสามารถต่าง ๆ ของ machine learning operations (MLOps) และ LLMOps แพลตฟอร์มนี้มอบฟังก์ชันที่ใช้สร้างโมเดลเชิงคาดการณ์ต่าง ๆ และฟังก์ชันในการปรับแต่งโมเดล gen AI ทั้งยังมอบเครื่องมือที่ใช้บริหารจัดการโมเดล AI ได้อย่างง่ายดาย ไม่ว่าจะเป็นเรื่องของวิทยาการข้อมูล (data science) ไปป์ไลน์โมเดล และการติดตามตรวจสอบโมเดล ไปจนถึงการกำกับดูแล และอื่น ๆ

Red Hat OpenShift AI 2.18 ซึ่งเป็นเวอร์ชันล่าสุดของแพลตฟอร์มนี้ ได้รับการอัปเดทและเพิ่มความสามารถใหม่ ๆ เพื่อสนับสนุนวัตถุประสงค์ของ Red Hat AI เพื่อเพิ่มประสิทธิภาพและการปรับให้โมเดล AI เหมาะสมที่จะนำไปใช้บนไฮบริดคลาวด์ โดยมีคุณสมบัติสำคัญ เช่น

  • ให้บริการแบบกระจาย (distributed serving): ส่งบริการผ่านเซิร์ฟเวอร์การอนุมาน vLLM ช่วยให้ทีมไอทีแยกการให้บริการโมเดลที่อยู่บนหน่วยประมวลผลกราฟิก (GPU) หลายหน่วยออกจากกัน ซึ่งช่วยลดภาระของเซิร์ฟเวอร์ตัวเดียว ช่วยให้การเทรนและการปรับแต่งรวดเร็วขึ้น และใช้ทรัพยากรประมวลผลได้มีประสิทธิภาพมากขึ้น ไปพร้อม ๆ กับช่วยกระจายบริการต่าง ๆ ข้ามโหนดให้กับโมเดล AI ต่าง ๆ
  • มอบประสบการณ์การปรับแต่งโมเดลอย่างครบวงจร: ฟีเจอร์นี้ใช้ InstructLab และ Red Hat OpenShift AI data science pipelines ช่วยให้การปรับแต่ง LLMs อย่างละเอียดทำได้โดยไม่ยุ่งยาก สามารถปรับขนาดการใช้งาน เพิ่มประสิทธิภาพและตรวจสอบสภาพแวดล้อมการผลิตขนาดใหญ่ได้มากขึ้น และสามารถบริหารจัดการผ่านแดชบอร์ดของ Red Hat OpenShift AI
  • AI Guardrails: Red Hat OpenShift AI 18 ช่วยเพิ่มความแม่นยำ ประสิทธิภาพ ระยะเวลาในการตอบสนอง และความโปร่งใส ให้กับ LLM ผ่านเทคโนโลยีพรีวิวของ AI Guardrails เพื่อติดตามตรวจสอบและปกป้องทั้งการปฏิสัมพันธ์ของผู้ใช้ผ่านอินพุต และการเอาต์พุตของโมเดลได้ดีมากขึ้น AI Guardrails นำเสนอจุดตรวจจับเพิ่มเติม เพื่อช่วยทีมไอทีระบุและบรรเทาอันตรายที่อาจเกิดขึ้นจากเจตนาร้าย คำพูดที่หยาบคายหรือดูหมิ่น หรือการรั่วไหลของข้อมูลที่สามารถระบุตัวตนได้ ข้อมูลด้านการแข่งขัน หรือข้อมูลอื่นที่จำกัดการเข้าถึงโดยนโยบายของบริษัท 
  • การประเมินโมเดล: ใช้องค์ประกอบการประเมินโมเดลภาษา (Im-eval) เพื่อมอบข้อมูลสำคัญเกี่ยวกับคุณภาพโดยรวมของโมเดลนั้น ๆ เพื่อช่วยให้นักวิทยาศาสตร์ข้อมูลสามารถปรียบเทียบประสิทธิภาพของ LLMs ของตนที่ใช้ทำงานด้านต่าง ๆ ไม่ว่าจะเป็นการให้เหตุผลเชิงตรรกะ และคณิตศาสตร์ ไปจนถึงภาษาธรรมชาติ และอื่น ๆ ซึ่งท้ายที่สุดเป็นการช่วยสร้างโมเดล AI ที่มีประสิทธิภาพ มีความสามารถในการตอบสนอง และเจาะจงตามการใช้งานได้มากขึ้น

RHEL AI

RHEL AI เป็นแพลตฟอร์มโมเดลพื้นฐาน ในกลุ่มผลิตภัณฑ์ด้าน AI ของเร้ดแฮท แพลตฟอร์มนี้ใช้สำหรับการพัฒนา ทดสอบ และรัน LLMs เพื่อสนับสนุนแอปพลิเคชันระดับองค์กรได้อย่างสม่ำเสมอต่อเนื่อง ทั้งนี้ RHEL AI มอบโมเดล Granite LLMs และเครื่องมือปรับโมเดลให้สอดคล้องกันจาก InstructLab แพ็ครวมเป็น Red Hat Enterprise Linux server image ที่บูตได้ และสามารถนำไปใช้บนไฮบริดคลาวด์ใดก็ได้

RHEL 1.4 เปิดตัวเมื่อเดือนกุมภาพันธ์ 2568 มาพร้อมการเพิ่มประสิทธิภาพใหม่หลายรายการ รวมถึง

  • รองรับโมเดล Granite 3.1 8B ซึ่งเป็นรุ่นล่าสุดของตระกูลโมเดล Granite ที่เปิดเป็นโอเพ่นซอร์ส โมเดลนี้รองรับภาษาหลายภาษา เพื่อการอนุมานและการปรับแต่งอนุกรมวิธาน/ความรู้ (พรีวิวสำหรับนักพัฒนา) มาพร้อมความยาวบริบทขนาด 128k เพื่อเพิ่มประสิทธิภาพผลลัพธ์ในการทำสรุป และงานการสร้างแบบเสริมการเรียกค้นต่าง ๆ (RAG)
  • อินเทอร์เฟซกราฟิกสำหรับผู้ใช้งานแบบใหม่ เพื่อมีส่วนร่วมสนับสนุนทักษะและความรู้ พร้อมให้นักพัฒนาได้ใช้งานในขั้นพรีวิว เพื่อลดความซับซ้อนในการนำเข้าและรวมข้อมูล รวมถึงวิธีที่ผู้ใช้เพิ่มทักษะให้กับตนเอง และมีส่วนร่วมสนับสนุนโมเดล AI
  • Document Knowledge-bench (DK-bench) สำหรับเปรียบเทียบการปรับแต่งโมเดล AI ด้วยข้อมูลส่วนตัวที่เกี่ยวข้องกันได้อย่างไม่ยุ่งยาก ด้วยประสิทธิภาพเดียวกับโมเดลพื้นฐานที่ยังไม่ได้รับการปรับแต่ง

Red Hat AI InstructLab on IBM Cloud

องค์กรต่างมองหาโซลูชัน AI ที่ให้ความสำคัญกับความแม่นยำและความปลอดภัยของข้อมูลมากขึ้นเรื่อย ๆ ในขณะเดียวกันยังคงต้องควบคุมค่าใช้จ่าย และลดความซับซ้อน ให้เหลือต่ำที่สุดเท่าที่จะทำได้ Red Hat AI InstructLab เป็นบริการบน IBM Cloud ได้รับการออกแบบมาให้ใช้งานง่าย ปรับขนาดได้ และช่วยเพิ่มประสิทธิภาพด้านความปลอดภัยในการเทรนและพัฒนาโมเดล AI ต่าง ๆ การลดความซับซ้อนของการปรับแต่งโมเดลบน InstructLab ช่วยให้องค์กรสามารถสร้างโมเดลที่มีประสิทธิภาพมากขึ้นและปรับให้ตรงกับความต้องการเฉพาะของแต่ละองค์กร และยังคงอำนาจควบคุมข้อมูลของตนไว้ได้

การอบรมด้าน AI Foundations โดยไม่มีค่าใช้จ่าย

AI คือโอกาสในการทรานส์ฟอร์มที่สามารถเปลี่ยนโฉมวิธีการทำงานและการแข่งขันขององค์กรต่าง ๆ เร้ดแฮทนำเสนอคอร์สการอบรมด้าน AI Foundations ออนไลน์ โดยไม่มีค่าใช้จ่าย เพื่อสนับสนุนองค์กรต่าง ๆ ในบริบทที่เปลี่ยนแปลงตลอดเวลาในปัจจุบัน เร้ดแฮทมอบใบรับรองการเรียนหลักสูตรด้าน AI สองรายการ คือ สำหรับผู้นำอาวุโสที่มีประสบการณ์ และสำหรับมือใหม่ด้าน AI โดยให้ความรู้แก่ผู้ใช้ทุกระดับว่า AI สามารถช่วยทรานส์ฟอร์มการดำเนินงานทางธุรกิจได้อย่างไร สามารถเพิ่มประสิทธิภาพในการตัดสินใจและขับเคลื่อนนวัตกรรมได้อย่างไร โดยการอบรม AI Foundations นี้จะแนะนำผู้ใช้ว่าจะสามารถนำความรู้ที่ได้จากการอบรมนี้ไปใช้อย่างไรเมื่อใช้ Red Hat AI

การวางจำหน่าย

Red Hat OpenShift AI 2.18 และ Red Hat Enterprise Linux AI 1.4 วางจำหน่ายแล้ว สามารถดูข้อมูลเพิ่มเติมเกี่ยวกับฟีเจอร์เพิ่มเติม การเพิ่มประสิทธิภาพด้านต่าง ๆ การแก้ไขจุดบกพร่อง และวิธีการอัปเกรดเป็นเวอร์ชันล่าสุดของ Red Hat OpenShift AI ได้ที่นี่ และเวอร์ชันล่าสุดของ RHEL AI ได้ที่นี่

Red Hat AI InstructLab on IBM Cloud จะวางตลาดเร็ว ๆ นี้ ส่วนการอบรม AI Foundations จากเร้ดแฮทพร้อมให้บริการลูกค้าแล้ว

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“เร้ดแฮทตระหนักดีว่าองค์กรต่างต้องการแนวทางบริหารจัดการค่าใช้จ่ายที่เพิ่มขึ้นจากการนำ generative AI มาใช้ และนำกรณีใช้งานต่าง ๆ เข้าสู่การผลิตและใช้ในงานตามต้องการในวงกว้างมากขึ้น องค์กรเหล่านี้จำเป็นต้องจัดการความท้าทายในการบูรณาการโมเดล AI ต่าง ๆ เข้ากับข้อมูลภายในขององค์กร และทำให้สามารถปรับใช้โมเดลเหล่านี้ได้ทุกที่ไม่ว่าข้อมูลจะอยู่ ณ ที่ใดก็ตาม Red Hat AI ช่วยองค์กรจัดการความท้าทายดังกล่าว โดยช่วยให้องค์กรสามารถใช้ประโยชน์จากโมเดลเฉพาะทางได้มีประสิทธิภาพมากขึ้นด้วยการเทรนด้วยข้อมูลภายในของตน และช่วยให้อนุมานได้อย่างยืดหยุ่นไม่ว่าจะอยู่ในระบบภายในองค์กร บนคลาวด์ หรือที่ edge”

Régis Lesbarreres, advanced analytics and AI innovation manager, digital innovation, Airbus Helicopters

“ช่วงที่ Airbus Helicopters เริ่มต้นเส้นทางการนำ AI มาใช้ เราต้องการผสานรวม AI เข้ากับสถาปัตยกรรมที่เรามีอยู่แล้ว ต้องการลด shadow IT และรวบรวมการทำงานของ data scientists ของเราไว้บนแพลตฟอร์ม AI เดียว รวมถึงการปรับค่าใช้จ่ายให้เหมาะสม Red Hat OpenShift AI ช่วยให้เราบรรลุเป้าหมายความต้องการดังกล่าวทั้งหมด และทำให้เกิดกรณีใช้งานทางธุรกิจที่ใช้ AI เป็นครั้งแรกของเรา วิสัยทัศน์ด้าน AI ของเร้ดแฮท สอดคล้องกับวัตถุประสงค์ทางธุรกิจของเรา และช่วยให้เราตอบโจทย์ความต้องการ พร้อม ๆ กับคงความยืดหยุ่น การเข้าใช้งาน และความโปร่งใสไว้ได้ด้วย”

Javier Olaizola Casin, global managing partner, hybrid cloud and data, IBM Consulting

“ธุรกิจหันมาใช้ AI เพื่อทรานส์ฟอร์มกระบวนการสำคัญทางธุรกิจมากขึ้น และต้องการโซลูชัน AI ที่ยืดหยุ่น คุ้มค่าใช้จ่าย และปรับแต่งด้วยข้อมูลที่เชื่อถือได้ขององค์กรได้  Red Hat AI นำเสนอความสม่ำเสมอ เชื่อถือได้ และความเร็ว ที่องค์กรต้องใช้เพื่อสร้างและปรับใช้โมเดลและแอปพลิเคชัน AI กับการทำงานด้านต่าง ๆ บนไฮบริดคลาวด์ เพื่อตอบความต้องการที่เจาะจงของแต่ละองค์กร นอกจากนี้การรวมโดเมน เทคโนโลยี และความเชี่ยวชาญของ IBM Consulting เข้ากับเทคโนโลยี AI ของเร้ดแฮท ทำให้เราช่วยลูกค้าของเราขับเคลื่อนให้เกิด ROI จากการลงทุนทางเทคโนโลยีของตนได้เป็นอย่างดี”

Torsten Volks, principal analyst, application modernization, ESG

“ทีมงานและหน่วยธุรกิจขององค์กรระดับแนวหน้า ทำการตัดสินใจทางธุรกิจโดยพิจารณาจากข้อมูลเป็นหลัก และใช้ AI เป็นตัวขับเคลื่อน ดังนั้น ปัจจัยที่จะนำสู่ความสำเร็จที่สำคัญ คือ ความสามารถในการพัฒนา ปรับใช้ บูรณาการ ปรับขนาด และควบคุม ความสามารถของ AI ได้อย่างรวดเร็วทุกจุด ซึ่งความสามารถที่กล่าวมานี้ต้องการโครงสร้างรากฐาน AI ที่เปิดกว้างและขยายออกไปได้ ที่จะทำให้มั่นใจได้ว่าการบูรณาการณ์เข้ากับระบบและกระบวนการต่าง ๆ ที่มีอยู่เป็นไปอย่างราบรื่น มีความคล่องตัวในการปฏิบัติงาน และสามารถกำกับดูแลได้อย่างต่อเนื่อง การช่วยให้พนักงานและลูกค้าได้รับประโยชน์จากความสามารถต่าง ๆ ของ AI  ได้อย่างรวดเร็ว และครอบคลุมมากขึ้น เป็นสิ่งสำคัญต่อความต่อเนื่องของความสำเร็จทางธุรกิจ”

Anand Swamy, executive vice president  and global head of ecosystems, HCLTech

การผสานรวมความสามารถต่าง ๆ ของ Red Hat AI ซึ่งครอบคลุมถึง RHEL AI และ Red Hat OpenShift AI เพื่อมอบแพลตฟอร์มการใช้ AI ครบวงจร ด้วยบริการด้านโครงสร้างพื้นฐานแบบ cognitive และความเชี่ยวชาญด้าน AI ของ HCLTech ซึ่งเป็นส่วนหนึ่งของโซลูชัน HCLTech AI Foundry ช่วยให้ลูกค้าได้รับแนวทางที่ทรงประสิทธิภาพและคล่องตัวเพื่อใช้ปลดล็อกนวัตกรรมด้าน AI และก้าวข้ามความท้าทายต่าง ๆ ที่เกิดขึ้น เช่น ความปลอดภัยของข้อมูล การปรับขนาดเวิร์กโหลด AI และการลดค่าใช้จ่ายด้านโครงสร้างพื้นฐาน

Virtualization in 2025 and beyond

ส่อง! เวอร์ชวลไลเซชันปี 2025 และจากนี้ไป

Virtualization in 2025 and beyond

Article by Senior Manager, Product Management, OpenShift

Looking back, every decade has brought a new wave of innovation based on unmet customer needs and technology advancements. The 1990s brought about the information transition to digitization resulting in the popularity of the World Wide Web. 2000s began with applications gaining hardware independence by adopting server virtualization made possible due to advancements in hypervisor technologies. 2010s introduced on-demand infrastructure and shortening application lifecycles from years to hours through the adoption of DevOps and Kubernetes. The 2020s are shaping up to bring about the adoption of generative AI (gen AI) as well as many customers rethinking their traditional approach to virtualization due to changes in the industry. 

At least two out of three enterprise applications are hosted as virtual machines and critical for every enterprise. As virtualization continues to evolve, many customers are rethinking their traditional approaches. Today, I want to talk about where the virtualization market is headed in 2025, how Red Hat is working with our partner ecosystem to meet new demands and how organizations can protect their critical virtual machine (VM) investments while having a path forward towards modernization when the time is right. 

Where we’re headed 

In 2025 (and beyond), virtualization will be defined by diversification. Many customers are prioritizing the need to avoid vendor lock-in by diversifying their hypervisor vendors. ISVs – especially in storage, backup and disaster recovery integrations are seeing the same diversification wave and rapidly extending support to additional industry standard hypervisors.  To simplify operations and bypass steep learning curves, AI-driven solutions will play a key role, enabling teams to work seamlessly at an operational syntax level rather than mastering complex systems.

We’re going to see greater adoption of modern application development principles. Customers’ familiarity with modern application development and deployment methodologies has increased significantly. The resulting benefits on developer productivity and application delivery agility is prompting customers to evaluate their existing VM-based workloads and classify which ones can benefit from adopting modern practices. Platforms that allow the flexibility to run VMs and containers in a unified manner and provide operational agility and efficiencies will continue to gain popularity. 

Lastly, hybrid cloud adoption will demand operational simplicity. Even as customers embrace multi-cloud strategies for virtualization workloads, they’re simultaneously repatriating some workloads to on-premises. These decisions are increasingly driven by geographic availability, sovereignty concerns and cost optimizations. This growing reliance on diverse cloud providers underscores the need for hybrid cloud solutions that can deliver standardized operations across these clouds with seamless failover capabilities, simplifying management in a complex landscape.

There’s a common theme here, if you couldn’t tell – there is a need for modern virtualization solutions that are adaptable and work across environments, enabling organizations to prepare for future innovation and growth. With the right strategies in place, organizations can align their legacy infrastructure with evolving business strategies.

The need for open, hybrid virtualization solutions

Soaring costs that are squeezing already-slim IT budgets may be the primary catalyst for organizations reevaluating their virtualization solutions, but it’s not the only reason. Modern open source alternatives are gaining momentum, and it’s in part because they meet the needs of where virtualization is headed.

Even if modernization is years away and VMs remain a critical component of an organization’s IT strategy, chances are any future plans involve containers, edge deployments, generative AI (gen AI) and more. Enterprise adoption of AI requires a platform that solves the same challenges of flexibility, collaborative workflows and scaling across hybrid clouds. To take advantage of these innovations without leaving behind VM investments, organizations need solutions that prevent vendor lock-in and provide a unified platform for managing across modern and legacy applications alike and extend to enterprise AI platform deployments.

This is where open source solutions can shine, offering a way to integrate cloud-native technologies without abandoning needed infrastructure. Open source virtualization options give organizations the ability to tap into an entire ecosystem of certified technology, unlocking the flexibility and – most importantly – the control that many IT leaders are looking for in a market that has seen increasing uncertainty. Red Hat OpenShift is built on proven open source technology like Kubernetes, KubeVirt and KVM to provide a consistent management experience across cloud, on-premises and edge environments

Bringing together VMs and containers

The crossroads that many are finding themselves at today – needing to confront immediate virtualization challenges but also wanting to lay the groundwork for future application modernization initiatives – can be an opportunity. Many are not ready to go all in on modernization – whether due to budget constraints, skills gaps, prioritization or a host of other reasons, oftentimes organizations are focused on keeping the lights on and making incremental IT changes vs the sweeping overhaul of their infrastructure they may dream of making. But it doesn’t need to be an all or nothing approach when it comes to virtualization modernization.

We’ve been working to refine Red Hat OpenShift to best meet the needs of virtualized infrastructure while also enabling organizations to take advantage of the latest IT innovations like generative AI. Red Hat OpenShift with OpenShift Virtualization serves as a strategic bridge between traditional virtualization environments and modern, cloud-native applications, simplifying the transition process while maintaining operational continuity. 

Additionally, Red Hat expanded its virtualization portfolio to provide options that meet users wherever they are on their virtualization journey. With the latest edition of Red Hat OpenShift, Red Hat OpenShift Virtualization Engine, organizations now have a streamlined solution entitled to the essential OpenShift features and components required for virtualization with a seamless upgrade path to meet the needs of infrastructure and modernization needs in the future.

Using Red Hat OpenShift Virtualization, organizations like Reist Telecom AG have been able to unify VMs and containers to cut licensing costs in half, bring greater transparency and consistency to its IT security policies, and enable greater cross-team collaboration through the implementation of DevOps practices and tools.

A flexible path forward

Over the past few years the virtualization landscape has seen some fairly significant changes and in 2025 we’ll see some of that dust start to settle. Key decisions are being made when it comes to protecting VM investments while also keeping an eye on the future. While it may seem easier to keep the status quo, with options like Red Hat OpenShift Virtualization Engine, organizations can focus solely on migrating to a stable environment and modernize down the road if and when the time comes.

ส่อง! เวอร์ชวลไลเซชันปี 2025 และจากนี้ไป

ส่อง! เวอร์ชวลไลเซชันปี 2025 และจากนี้ไป

ส่อง! เวอร์ชวลไลเซชันปี 2025 และจากนี้ไป

บทความโดย ซาชิน มัลลิค, ผู้จัดการอาวุโส ฝ่ายบริหารผลิตภัณฑ์, เร้ดแฮท

เมื่อมองย้อนกลับไปจะเห็นได้ว่าทุกสิบปีจะมีคลื่นลูกใหม่ของนวัตกรรมเกิดขึ้น โดยมีพื้นฐานจากความต้องการที่แท้จริงของลูกค้าที่ยังไม่เติมเต็ม และความก้าวหน้าทางเทคโนโลยี ในยุค 1990 เกิดการเปลี่ยนผ่านข้อมูลสู่การเป็นข้อมูลดิจิทัลที่ทำให้ World Wide Web (www) เป็นที่นิยม ต่อมาเราเริ่มต้นปี 2000 ด้วยการใช้เซิร์ฟเวอร์แบบเวอร์ชวลที่เกิดจากความก้าวหน้าของเทคโนโลยีไฮเปอร์ไวเซอร์ ทำให้แอปพลิเคชันไม่ต้องพึ่งพาฮาร์ดแวร์อีกต่อไป ในอีกสิบปีถัดมา (2010) มีการนำโครงสร้างพื้นฐานแบบออนดีมานด์มาใช้ พร้อมกับการเกิดขึ้นของ DevOps และ Kubernetes ที่เข้ามาทำให้สามารถสร้างและปรับใช้แอปพลิเคชันได้เร็วขึ้น จากเดิมที่เคยใช้เวลาเป็นปีเหลือเพียงหลักชั่วโมง และในยุค 2020 เรากำลังเห็นการเติบโตของ Generative AI (Gen AI) รวมถึงการที่ลูกค้าหลายรายเริ่มทบทวนแนวทางการทำเวอร์ชวลไลเซชันแบบดั้งเดิม เนื่องจากการเปลี่ยนแปลงในอุตสาหกรรม

อย่างน้อยสองในสามของแอปพลิเคชันสำคัญขององค์กรรันอยู่บนเวอร์ชวลแมชชีน และลูกค้าส่วนใหญ่เริ่มทบทวนแนวทางการใช้เทคโนโลยีเวอร์ชวลไลเซชันดั้งเดิมของตนท่ามกลางการเปลี่ยนแปลงด้านนี้ที่เกิดขึ้นอย่างต่อเนื่อง เร้ดแฮทนำเสนอข้อมูลทิศทางของตลาดด้านเวอร์ชวลไลเซชัน ความสำคัญของความร่วมมือกับระบบนิเวศพันธมิตร และแนวทางที่องค์กรสามารถใช้เพื่อให้การลงทุนด้านเวอร์ชวลแมชชีนคุ้มค่า รวมถึงเส้นทางการปรับปรุงให้ทันสมัยเมื่อถึงเวลาที่เหมาะสม

ทิศทางในอนาคต

ในปี 2025 และจากนี้ไป จะมีการให้คำนิยามคำว่าเวอร์ชวลไลเซชันอย่างหลากหลาย ลูกค้าจำนวนมากหลีกเลี่ยงการถูกผูกขาดจากผู้ให้บริการรายเดียว (vendor lock-in) ด้วยการเลือกใช้ไฮเปอร์ไวเซอร์จากผู้ให้บริการหลายราย ในขณะเดียวกัน ผู้พัฒนาและจำหน่ายซอฟต์แวร์อิสระ (ISVs) โดยเฉพาะในด้านการจัดเก็บข้อมูล การสำรองข้อมูล และการกู้คืนระบบจากภัยพิบัติ ก็กำลังเผชิญกับกระแสความหลากหลายนี้เช่นกัน ทำให้ ISVs ต่างขยายให้บริการของตนรองรับการใช้งานกับไฮเปอร์ไวเซอร์มาตรฐานอุตสาหกรรมเพิ่มเติมอย่างรวดเร็ว เพื่อให้การดำเนินงานง่ายขึ้นและลดความซับซ้อนในการเรียนรู้ โซลูชันที่ขับเคลื่อนด้วย AI จะมีบทบาทสำคัญ ช่วยให้ทีมทำงานได้อย่างราบรื่นในระดับภาษาคำสั่งปฏิบัติการ (Operational Syntax) โดยไม่จำเป็นต้องเชี่ยวชาญในระบบที่ซับซ้อน โซลูชันที่ใช้ AI จะเข้ามามีบทบาทสำคัญในการช่วยลดความยุ่งยากในการดำเนินงาน และหลีกเลี่ยงการต้องเรียนรู้ระบบที่ซับซ้อนและเฉพาะทางมากมาย ช่วยให้ทีมงานทำงานได้อย่างราบรื่นโดยใช้คำสั่งในระดับปฏิบัติการทั่วไปที่ไม่ซับซ้อนสื่อสารกับคอมพิวเตอร์ 

เราจะได้เห็นว่ามีการนำหลักการการพัฒนาแอปพลิเคชันสมัยใหม่มาใช้มากขึ้น ความคุ้นเคยของลูกค้ากับวิธีการพัฒนาและปรับใช้แอปพลิเคชันสมัยใหม่เพิ่มขึ้นอย่างมีนัยสำคัญ ผลลัพธ์ที่ได้จากการที่นักพัฒนาสามารถทำงานได้อย่างมีประสิทธิภาพมากขึ้น และสามารถให้บริการแอปพลิเคชันได้อย่างคล่องตัว จะกระตุ้นให้องค์กรประเมินเวิร์กโหลดเวอร์ชวลแมชชีนที่ใช้งานอยู่ และพิจารณาว่าเวิร์กโหลดใดเหมาะสมกับการนำแนวทางสมัยใหม่มาใช้ ดังนั้น แพลตฟอร์มที่สามารถรันเวอร์ชวลแมชชีนและคอนเทนเนอร์ร่วมกันได้อย่างราบรื่น และมอบความคล่องตัวและประสิทธิภาพในการดำเนินงาน จะได้รับความนิยมเพิ่มขึ้นอย่างต่อเนื่อง

การใช้งานไฮบริดคลาวด์จะต้องเรียบง่าย แม้ว่าลูกค้าจะใช้กลยุทธ์มัลติคลาวด์สำหรับเวิร์กโหลดเวอร์ชวลไลเซชัน แต่ก็มีแนวโน้มที่จะย้ายเวิร์กโหลดบางส่วนกลับมาไว้ในระบบภายในองค์กร (on-premises) ปัจจัยที่ขับเคลื่อนการตัดสินใจนี้ ได้แก่ ความพร้อมใช้งานในแต่ละภูมิภาค ความกังวลเกี่ยวกับอำนาจในการควบคุมข้อมูล และการปรับค่าใช้จ่ายให้เหมาะสม การพึ่งพาผู้ให้บริการคลาวด์ที่มีความหลากหลายมากขึ้น ตอกย้ำให้เห็นความจำเป็นที่ต้องใช้โซลูชันไฮบริดคลาวด์ ซึ่งสามารถมอบการทำงานที่เป็นมาตรฐานไม่ว่าจะใช้บนคลาวด์ใดก็ตาม และมาพร้อมความสามารถในการสลับไปยังระบบสำรอง (failover) ที่เชื่อถือได้โดยอัตโนมัติและไม่ติดขัด ช่วยให้บริหารจัดการระบบต่าง ๆ ที่ซับซ้อนง่ายขึ้น

จากที่กล่าวมา เราจะเห็นได้ว่าจำเป็นต้องใช้โซลูชันเวอร์ชวลไลเซชันที่ทันสมัยที่สามารถปรับตัวและทำงานได้กับทุกสภาพแวดล้อม ซึ่งจะช่วยให้องค์กรสามารถเตรียมรับนวัตกรรมและการเติบโตในอนาคต การใช้กลยุทธ์ที่ถูกต้องจะช่วยให้องค์กรสามารถปรับโครงสร้างพื้นฐานแบบดั้งเดิมให้สอดคล้องกับกลยุทธ์ทางธุรกิจที่มีการพัฒนาเปลี่ยนแปลงไปได้

ความต้องการโซลูชันเวอร์ชวลไลเซชันแบบโอเพ่นและไฮบริด

ต้นทุนที่พุ่งสูงขึ้นและการจำกัดงบประมาณด้านไอที ไม่ได้เป็นเพียงเหตุผลเดียวที่เป็นปัจจัยหลักที่ทำให้องค์กรทบทวนการใช้โซลูชันเวอร์ชวลไลเซชันของตนใหม่ ทางเลือกในการใช้โซลูชันโอเพ่นซอร์สที่ทันสมัยกำลังเข้ามามีบทบาท ส่วนหนึ่งเป็นเพราะสามารถตอบโจทย์ความต้องการที่สอดคล้องกับทิศทางการพัฒนาของเวอร์ชวลไลเซชันในอนาคตได้

แม้การเดินสู่ความทันสมัยต้องใช้เวลาอีกหลายปี และเวอร์ชวลแมชชีนยังคงเป็นองค์ประกอบสำคัญในกลยุทธ์ด้านไอทีขององค์กร แต่มีแนวโน้มว่าแผนงานในอนาคตจะเกี่ยวกับเรื่องของคอนเทนเนอร์, การใช้งานที่ edge, Generative AI (gen AI) และเทคโนโลยีอื่น ๆ อีกมาก การใช้ AI ในองค์กร ต้องการแพลตฟอร์มที่แก้ความท้าทายที่เหมือนกันได้ด้านความยืดหยุ่น เวิร์กโฟลว์การทำงานร่วมกัน และการสเกลไปได้ทุกที่บนไฮบริดคลาวด์ การจะใช้ประโยชน์จากนวัตกรรมเหล่านี้ โดยไม่ทำให้การลงทุนด้านเวอร์ชวลแมชชีนที่ลงทุนไปแล้วสูญเปล่าได้นั้น องค์กรต้องใช้โซลูชันที่ไม่ผูกขาดอยู่กับเวนเดอร์ใดเวนเดอร์หนึ่ง และมอบแพลตฟอร์มเดียวที่สามารถบริหารจัดการได้ทั้งแอปพลิเคชันรุ่นใหม่และรุ่นเก่าทั้งหมด และต้องเป็นโซลูชันที่รองรับการใช้แพลตฟอร์ม AI ขององค์กร

จุดนี้เองที่โซลูชันโอเพ่นซอร์สแสดงให้เห็นถึงศักยภาพอย่างชัดเจน ด้วยการนำเสนอวิธีผสานรวมเทคโนโลยีคลาวด์เนทีฟโดยไม่จำเป็นต้องละทิ้งโครงสร้างพื้นฐานที่มีอยู่ เวอร์ชวลไลเซชันแบบโอเพ่นซอร์สเป็นทางเลือกที่เปิดโอกาสให้องค์กรสามารถเข้าถึงระบบนิเวศทั้งหมดของเทคโนโลยีที่ได้รับการรับรอง ได้รับความยืดหยุ่น และที่สำคัญที่สุดคือมอบอำนาจการควบคุมที่ผู้บริหารไอทีกำลังแสวงหาในสภาวะตลาดที่มีความไม่แน่นอนเพิ่มขึ้น โซลูชัน Red Hat OpenShift พัฒนาขึ้นบนเทคโนโลยีโอเพ่นซอร์สที่ผ่านการพิสูจน์แล้ว อาทิ Kubernetes, KubeVirt และ KVM เพื่อมอบประสบการณ์การบริหารจัดการที่เป็นเอกภาพทั้งในสภาพแวดล้อมคลาวด์ ระบบภายในองค์กร (on-premises) และเอดจ์ (edge)

การทำงานร่วมกันของเวอร์ชวลแมชชีนและคอนเทนเนอร์ 

องค์กรหลายแห่งพบว่า ตนเองต้องเผชิญกับความท้าทายเฉพาะหน้าด้านเวอร์ชวลไลเซชันซึ่งเกิดขึ้นอย่างทันทีทันใด และยังคงต้องการวางรากฐานเพื่อการปรับปรุงแอปพลิเคชันให้ทันสมัยในอนาคต แต่ความท้าทายนี้อาจเป็นโอกาสหนึ่งขององค์กรได้ องค์กรหลายแห่งยังไม่พร้อมทุ่มเทไปกับเรื่องการปรับให้ทันสมัยทั้งหมด ไม่ว่าจะด้วยเหตุผลด้านข้อจำกัดด้านงบประมาณ ช่องว่างทางทักษะ การจัดลำดับความสำคัญ หรือเหตุผลใด ๆ ก็ตาม บ่อยครั้งที่องค์กรเหล่านี้เน้นให้การทำธุรกิจและระบบต่าง ๆ ดำเนินไปได้ก่อน และทำการเปลี่ยนแปลงด้านไอทีเพิ่มทีละน้อย แทนทางเลือกในการยกเครื่องโครงสร้างพื้นฐานไอทีทั้งหมดครั้งใหญ่ที่ใฝ่ฝันอยากจะทำ แต่อย่างไรก็ตาม การทำเวอร์ชวลไลเซชันให้ทันสมัยนั้น ไม่ได้อยู่ในข้อจำกัดที่ว่า จำเป็นต้องทำครั้งเดียวทั้งหมดหรือไม่เช่นนั้นก็ไม่ต้องทำเลย

เร้ดแฮท ทำงานอย่างต่อเนื่องเพื่อปรับปรุง Red Hat OpenShift ให้ตอบสนองความต้องการของโครงสร้างพื้นฐานแบบเวอร์ชวลไลซ์ได้อย่างดีที่สุด พร้อมทั้งช่วยให้องค์กรสามารถใช้ประโยชน์จากนวัตกรรมไอทีล่าสุด เช่น Generative AI ทั้งนี้ Red Hat OpenShift พร้อม OpenShift Virtualization ทำหน้าที่เป็นสะพานเชื่อมเชิงกลยุทธ์ระหว่างสภาพแวดล้อมเวอร์ชวลไลเซชันแบบดั้งเดิมและแอปพลิเคชันสมัยใหม่แบบคลาวด์-เนทีฟ ซึ่งช่วยลดความซับซ้อนของกระบวนการเปลี่ยนผ่าน ในขณะที่ยังคงรักษาความต่อเนื่องในการดำเนินงาน

นอกจากนี้เร้ดแฮทยังได้ขยายผลิตภัณฑ์ด้านเวอร์ชวลไลเซชันเพื่อรองรับผู้ใช้ในทุกขั้นตอนของการใช้งานเทคโนโลยีเวอร์ชวลไลเซชัน ด้วย Red Hat OpenShift รุ่นล่าสุด Red Hat OpenShift Virtualization Engine องค์กรจะได้รับโซลูชันที่มีประสิทธิภาพ ที่รวมถึงคุณสมบัติและส่วนประกอบหลักของ OpenShift ที่จำเป็นสำหรับการใช้เวอร์ชวลไลเซชัน พร้อมเส้นทางการอัปเกรดที่ราบรื่น และง่ายดาย เพื่อตอบสนองความต้องการด้านโครงสร้างพื้นฐาน การเพิ่มประสิทธิภาพ และความทันสมัยในอนาคต 

Red Hat OpenShift Virtualization ช่วยให้องค์กรต่าง ๆ เช่น Reist Telecom AG สามารถผสานให้เวอร์ชวลแมชชีนและคอนเทนเนอร์ทำงานร่วมกันได้ ทำให้สามารถลดต้นทุนค่าลิขสิทธิ์ลงครึ่งหนึ่ง เพิ่มความโปร่งใสและความสอดคล้องให้กับนโยบายความปลอดภัยด้านไอที รวมถึงเสริมสร้างความร่วมมือระหว่างทีมผ่านแนวทาง DevOps และเครื่องมือที่เกี่ยวข้อง

เส้นทางข้างหน้าที่ยืดหยุ่น

ภาพรวมของเวอร์ชวลไลเซชันในช่วงไม่กี่ปีที่ผ่านมามีการเปลี่ยนแปลงพอสมควร และในปี 2025 ทิศทางบางอย่างจะเริ่มชัดเจนขึ้น การตัดสินใจครั้งสำคัญ ๆ เกิดขึ้นเมื่อต้องพิจารณาถึงการปกป้องไม่ให้การลงทุนด้านเวอร์ชวลแมชชีนที่ทำไปแล้วเสียเปล่า ในขณะเดียวกันก็จับตาดูอนาคตด้วย ทั้งนี้ แม้การรักษาสถานะเดิมอาจดูเป็นทางเลือกที่ง่ายกว่า แต่ Red Hat OpenShift Virtualization Engine สามารถช่วยให้องค์กรโยกย้ายเวิร์กโหลดไปยังสภาพแวดล้อมที่มั่นคงก่อน แล้วทยอยปรับปรุงให้ทันสมัยเมื่อถึงเวลาที่เหมาะสม