เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat AI Inference Server ขับเคลื่อนโดย vLLM เพิ่มประสิทธิภาพด้วยเทคโนโลยีของ Neural Magic มอบการอนุมาน AI ที่เร็วขึ้น มีประสิทธิภาพสูง และคุ้มค่าใช้จ่าย ทำงานได้กับทุกไฮบริดคลาวด์

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI Inference Server ก้าวสำคัญที่จะทำให้ generative AI (gen AI) กลายเป็นเทคโนโลยีที่ใครก็ใช้ได้บนไฮบริดคลาวด์ทุกแห่ง โซลูชันใหม่นี้นำเสนออยู่ใน Red Hat AI เป็นเซิร์ฟเวอร์อนุมานระดับองค์กรที่เกิดจากโปรเจกต์จาก vLLM community อันทรงพลัง และเร้ดแฮทเพิ่มประสิทธิภาพด้วยการผสานรวมเข้ากับเทคโนโลยี Neural Magic ทำให้มีความเร็วมากขึ้น ช่วยเพิ่มประสิทธิภาพให้ accelerator และคุ้มค่าใช้จ่าย เป็นการตอบวิสัยทัศน์ของเร้ดแฮทในการมอบการใช้งานโมเดล gen AI ใด ๆ บน AI accelerator ใด ๆ ก็ได้ บนทุกสภาพแวดล้อมคลาวด์ แพลตฟอร์มที่ล้ำหน้านี้ช่วยให้องค์กรต่าง ๆ ใช้และสเกล gen AI สู่การทำงานเป็นรูปธรรมได้อย่างมั่นใจมากขึ้น ไม่ว่าจะใช้งานแบบสแตนด์อโลน หรือผสานเป็นส่วนประกอบของ Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI ก็ตาม

การอนุมานเป็นเครื่องมือทำงานที่สำคัญของ AI โดยโมเดลที่ผ่านการเทรนล่วงหน้าจะแปลงข้อมูลให้เป็นการใช้งานในสถานการณ์จริง ซึ่งเป็นจุดสำคัญของการปฏิสัมพันธ์กับผู้ใช้ ที่ต้องการการตอบสนองอย่างฉับไวและแม่นยำ การที่โมเดล gen AI ทั้งหลายขยายตัวอย่างรวดเร็วตามขนาดการใช้งานจริงและมีความซับซ้อน ทำให้การอนุมาน (inference) อาจกลายเป็นคอขวดที่เป็นอุปสรรคสำคัญ สิ้นเปลืองทรัพยากรฮาร์ดแวร์ และเป็นเหตุให้การตอบสนองไม่มีประสิทธิภาพ ทั้งยังทำให้ค่าใช้จ่ายในการดำเนินงานเพิ่มขึ้น ดังนั้น เซิร์ฟเวอร์การอนุมานที่มีประสิทธิภาพแข็งแกร่งไม่ใช่สิ่งฟุ่มเฟือยอีกต่อไป แต่เป็นสิ่งจำเป็นที่จะช่วยปลดล็อกให้ได้ใช้ศักยภาพที่แท้จริงของ AI ในวงกว้าง และการใช้งานที่ง่ายขึ้นอย่างมากจะช่วยขจัดความซับซ้อนที่ซ่อนอยู่ได้

เร้ดแฮทเจาะจงจัดการความท้าทายเหล่านี้ด้วย Red Hat AI Inference Server ซึ่งเป็นโซลูชันการอนุมานแบบโอเพ่นที่ออกแบบมาเพื่อมอบประสิทธิภาพที่สูง มีเครื่องมือบีบอัดและเพิ่มประสิทธิภาพโมเดลที่มีประสิทธิภาพชั้นนำติดตั้งมาพร้อม นวัตกรรมนี้ช่วยเสริมให้องค์กรใช้สมรรถนะของ gen AI ได้อย่างเต็มที่ด้วยการมอบประสบการณ์การตอบสนองที่ดีขึ้นอย่างมากให้กับผู้ใช้ และผู้ใช้มีอิสระในการเลือกใช้ AI accelerators เลือกใช้โมเดลและสภาพแวดล้อมไอทีได้ตามต้องการ

vLLM: การขยายนวัตกรรมด้านการอนุมาน

Red Hat AI Inference Server สร้างจากโปรเจกต์ vLLM ชั้นนำในวงการที่เริ่มต้นพัฒนาโดย University of California, Berkeley เมื่อกลางปี พ.ศ. 2566 โปรเจกต์ของคอมมิวนิตี้นี้ มอบการอนุมาน gen AI ที่มีปริมาณงานในช่วงเวลาหนึ่ง ๆ ที่สูง (high-throughput gen AI inference) รองรับอินพุตขนาดใหญ่, multi-GPU model acceleration, การแบทช์ต่อเนื่อง และอื่น ๆ อีกมาก

vLLM สนับสนุนการใช้งานในวงกว้างกับโมเดลต่าง ๆ ที่เปิดเป็นสาธารณะ ควบคู่กับการบูรณาการเข้ากับโมเดลชั้นนำต่าง ๆ ตั้งแต่ day zero ซึ่งรวมถึง DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi และอื่น ๆ รวมถึงโมเดลการใช้เหตุผลระดับองค์กรแบบเปิด เช่น Llama Nemotron นับได้ว่าเป็นมาตรฐานที่ได้รับการยอมรับและใช้กันโดยทั่วไปสำหรับนวัตกรรมการอนุมาน AI ในอนาคต การที่ผู้ให้บริการโมเดลระดับแนวหน้าต่างใช้ vLLM มากขึ้น ทำให้ vLLM มีบทบาทสำคัญต่ออนาคตของ gen AI

การเปิดตัว Red Hat AI Inference Server

Red Hat AI Inference Server มัดรวมนวัตกรรมชั้นนำของ vLLM และหลอมรวมเข้ากับความสามารถระดับองค์กรของ Red Hat AI Inference Server มีให้บริการทั้งแบบสแตนด์อโลนในรูปแบบคอนเทนเนอร์ หรือ ให้บริการเป็นส่วนหนึ่งของ RHEL AI และ Red Hat OpenShift AI

Red Hat AI Inference Server มอบการกระจาย vLLM ที่แข็งแกร่ง และใช้ได้กับสภาพแวดล้อมการใช้งานทุกแบบให้แก่ผู้ใช้ ซึ่งมาพร้อมด้วย:

  • Intelligent LLM compression tools เพื่อลดขนาดของโครงสร้างพื้นฐาน และปรับแต่งโมเดล AI อย่างละเอียด ลดการใช้การประมวลผลให้เหลือน้อยที่สุด ในขณะที่ยังคงรักษาและเพิ่มความแม่นยำของโมเดลได้
  • พื้นที่เก็บข้อมูลโมเดลที่ปรับให้เหมาะสม ซึ่งโฮสต์อยู่ใน Red Hat AI organization บน Hugging Face ช่วยให้เข้าถึงคอลเลกชันของโมเดล AI ชั้นนำที่ได้รับการตรวจสอบและปรับให้เหมาะสม และพร้อมสำหรับใช้ในการอนุมานได้ทันที ซึ่งช่วยเร่งประสิทธิภาพความเร็วได้ 2-4 เท่า โดยไม่กระทบต่อความแม่นยำของโมเดล
  • การสนับสนุนระดับองค์กรของเร้ดแฮท และความเชี่ยวชาญที่สั่งสมหลายทศวรรษในการนำโปรเจกต์ต่าง ๆ จากคอมมิวนิตี้มาสู่การผลิตใช้งานจริง
  • การสนับสนุนจากบุคคลภายนอก (third-party) เพื่อให้เกิดความยืดหยุ่นในการใช้ Red Hat AI Inference Server ได้บน non-Red Hat Linux และ แพลตฟอร์ม Kubernetes ต่าง ๆ ซึ่งเป็นไปตามนโยบายสนับสนุน third-party ของเร้ดแฮท

วิสัยทัศน์ของเร้ดแฮท: โมเดลใดก็ได้, accelerator ใดก็ได้, คลาวด์ใดก็ได้

อนาคตของ AI ต้องถูกกำหนดโดยโอกาสที่ไร้ขีดจำกัด และไม่ถูกจำกัดด้วยโครงสร้างพื้นฐานที่เป็นไซโล เร้ดแฮทมองเห็นแนวทางที่องค์กรต่าง ๆ จะสามารถใช้โมเดลใดก็ได้ กับ accelerator ใดก็ได้ บนคลาวด์ใด ๆ ก็ได้ และมอบประสบการณ์ที่ยอดเยี่ยมและสม่ำเสมอให้กับผู้ใช้งานด้วยค่าใช้จ่ายที่เหมาะสม องค์กรต่างต้องการแพลตฟอร์มการอนุมานที่เป็นสากล เป็นมาตรฐานให้กับนวัตกรรม AI ประสิทธิภาพสูงได้อย่างไม่ติดขัด ทั้งในวันนี้และอีกหลาย ๆ ปีที่จะตามมา เพื่อปลดล็อกศักยภาพที่แท้จริงจากการลงทุนด้าน gen AI

เร้ดแฮทพร้อมที่จะวางฐานรากสถาปัตยกรรมเพื่อเป็นฐานอนาคตของการอนุมาน AI เช่นเดียวกับการที่บริษัทฯ เคยบุกเบิกองค์กรแบบเปิดด้วยการทรานส์ฟอร์ม Linux ให้เป็นฐานของไอทียุคใหม่ ศักยภาพของ vLLM เป็นสิ่งสำคัญต่อการอนุมาน gen AI ที่เป็นมาตรฐาน เร้ดแฮทมุ่งมั่นสร้างระบบนิเวศที่ครบครันให้กับไม่เพียง vLLM community เท่านั้น แต่ยังรวมถึง llm-d สำหรับการอนุมานแบบกระจาย (distributed inference) อีกด้วย ด้วยวิสัยทัศน์ที่ชัดเจน ไม่ว่าจะเป็นโมเดล AI, underlying accelerator หรือสภาพแวดล้อมการใช้งานจะเป็นเช่นไร เร้ดแฮทตั้งใจทำให้ vLLM เป็นมาตรฐานเปิดที่สมบูรณ์แบบที่สุดสำหรับการอนุมานบนไฮบริดคลาวด์

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“การอนุมานเป็นการบอกว่าได้มีการใช้ประโยชน์อย่างแท้จริงจาก gen AI  โดยการปฏิสัมพันธ์ของผู้ใช้จะได้รับการตอบสนองที่รวดเร็วและแม่นยำจากโมเดลที่กำหนด แต่จะต้องได้รับการส่งมอบให้ใช้ด้วยวิธีการที่มีประสิทธิภาพและคุ้มค่าใช้จ่าย วัตถุประสงค์ของ Red Hat AI Inference Server คือการตอบสนองความต้องการด้านการอนุมานที่มีประสิทธิภาพสูงและมีปฏิสัมพันธ์ได้ตามต้องการ ในขณะเดียวกัน ก็รักษาความต้องการใช้ทรัพยากรให้อยู่ในระดับต่ำ จัดให้มีเลเยอร์การอนุมานทั่วไปที่รองรับโมเดลใดก็ได้ รันบน accelerator ใดก็ได้ บนทุกสภาพแวดล้อม”

Ramine Roane, corporate vice president, AI Product Management, AMD

“ความร่วมมือกับเร้ดแฮทช่วยให้ AMD นำเสนอโซลูชันล้ำสมัยเพื่อขับเคลื่อนให้องค์กรใช้ generative AI ได้อย่างมีประสิทธิภาพ Red Hat AI Inference Server ที่ใช้ขุมพลังกราฟิกการ์ด AMD Instinct™ ช่วยให้องค์กรต่าง ๆ มีขีดความสามารถในการอนุมานด้าน AI ที่ขับเคลื่อนโดยคอมมิวนิตี้ระดับองค์กร ซึ่งได้รับการสนับสนุนเบื้องหลังด้วย hardware accelerators ที่ผ่านการตรวจสอบอย่างครบถ้วน”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads ต้องการความเร็ว ความสม่ำเสมอ และความยืดหยุ่น ซึ่งเป็นสิ่งที่ Red Hat AI Inference Server มี นวัตกรรมนี้เปิดแนวทางความร่วมมือใหม่ ๆ ระหว่างซิสโก้และเร้ดแฮท เพื่อทำให้การใช้ AI เข้าถึงได้มากขึ้น มีประสิทธิภาพและปรับขนาดได้ ซึ่งเป็นการช่วยให้องค์กรเตรียมพร้อมรับสิ่งที่จะเกิดขึ้นในอนาคต”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“อินเทลรู้สึกตื่นเต้นที่ได้ร่วมมือกับเร้ดแฮท เพื่อใช้ Red Hat AI Inference Server กับ Intel® Gaudi® accelerators การบูรณาการนี้จะช่วยให้ลูกค้าของเรามีโซลูชันที่ได้รับการปรับให้เหมาะสม เพื่อเพิ่มประสิทธิภาพและปรับขนาดการอนุมาน AI และมอบสมรรถนะและประสิทธิภาพล้ำหน้าให้กับแอปพลิเคชัน AI ระดับองค์กรในวงกว้าง”

John Fanelli, vice president, Enterprise Software, NVIDIA

“การอนุมานประสิทธิภาพสูงไม่เพียงแต่ช่วยให้โมเดลและ AI agents ต่าง ๆ สามารถตอบคำถามได้เท่านั้น แต่ยังสามารถให้หรือใช้เหตุผลและปรับตัวได้แบบเรียลไทม์ โดย NVIDIA accelerated computing และ Red Hat AI Inference Server แบบฟูลสแตก (full-stack) และเป็นแบบเปิด จะช่วยให้นักพัฒนาสามารถเรียกใช้งานการทำงานเชิงให้เหตุผลบนไฮบริดคลาวด์ได้อย่างมีประสิทธิภาพในวงกว้างและปรับใช้ได้อย่างมั่นใจ โดยใช้ Red Hat Inference Server กับการออกแบบที่ผ่านการตรวจสอบใหม่ของ NVIDIA Enterprise AI”

Future-proof your tech career: 6 essential human skills for the AI era

Future-proof your tech career: 6 essential human skills for the AI era

Future-proof your tech career: 6 essential human skills for the AI era

Article by: Deb Richardson, Senior Content Strategist, Red Hat Blog

The tech industry is changing as quickly as artificial intelligence (AI) is evolving. Every day we’re seeing new tools emerge to help streamline repetitive tasks, augment creative endeavours and improve decision-making.

Many people are anxious about what the proliferation of AI tools means for the future of their job and career. And that’s completely understandable—these tools are often mindblowing in what they can do based on a handful of simple prompts.

Generative AI (gen AI) is practically brand new but can already:

  • Generate code
  • Write marketing copy
  • Produce graphic design
  • Create art in a vast array of styles
  • Generate full videos, including scripts and music
  • Formulate strategic business plans
  • Develop social media posts
  • …and more

So it’s not surprising that many of us are nervous about our future employment prospects.

But all is not lost.

While it’s essential for most people in the tech industry to learn how to effectively use these new AI-infused tools, there are some human capabilities that machines can’t match—deeply human skills such as intuitive design, creative problem-solving and empathetic understanding. These and other soft skills determine your ability to innovate, to communicate effectively and to navigate complex problems in ways that AI simply can’t replicate.

In this article we dig into some of the soft skills that tech professionals should focus on developing to adapt and thrive in this new age of AI.

6 vital soft skills for an era of AI

While there are an enormous number of AI tools being introduced across our industry, many of which are focused on specific roles and tasks, the soft skills tend to be more universal and things we should all focus on developing and improving, regardless of our role.

  1. Problem-solving

For all that gen AI can do, it cannot match human problem-solving capabilities. It can generate code, but humans are still needed to design efficient and scalable systems, troubleshoot unexpected issues and watch for the bugs and potential security issues that these AI tools can introduce.

While gen AI can help monitor for and discover security anomalies, humans are still needed to evaluate and rate the criticality of these risks. AI-driven automation can perform a huge array of repetitive tasks, but it still needs to be carefully designed and actively monitored.

On the marketing and communications side of things, AI sentiment analysis tools can help quickly detect potential issues, but human judgement is needed in order to respond effectively and defend or build a brand’s reputation.

How to get started

Developing your foundational problem-solving skills is something that happens naturally over time, but there are loads of articles and courses out there that can help you approach it more deliberately and methodically.

  1. Critical thinking

AI is still far from perfect, as large language models (LLMs) are fundamentally limited by their training and the data used in the training process. If you’re using any of these new tools, you should hone your ability to critically evaluate AI outputs, understand their limitations and learn how to identify model biases and potentially toxic or problematic output.

While AI is excellent at detecting patterns, it takes a human to interpret those patterns properly and to spot anomalies that the AI may miss or misinterpret. Avoiding bias and similarly complicated ethical issues also requires human intelligence, as does making sure that AI-enhanced tools and processes continue to meet legal and compliance requirements.

How to get started

While critical thinking can improve naturally with experience, like problem solving it is a skillset that can be deliberately developed over time. It has been said that learning critical thinking skills is the most important part of an undergrad degree, but you don’t have to go to university to build these skills.

LinkedIn Learning has a wide variety of courses focused on improving your critical thinking, as does Khan Academy and Udemy. Of course there’s no shortage of books on the topic as well.

  1. Collaboration

Humans’ ability to collaborate, cooperate and work together is one of our greatest strengths. As the saying goes, “none of us is as good as all of us.” Current AI is still fundamentally limited in this way—it simply cannot match humans’ ability to build relationships and work together.

When developing AI applications, engineers will have to work closely with an ever increasing number of AI specialists, data scientists, product and project managers and other stakeholders. And of course collaboration skills are utterly vital in open source projects, and are the very foundation of how they work.

In other disciplines, such as public relations (PR) and communications, we can use AI to analyze sentiment and media trends, but it takes humans to develop and maintain strong relationships with journalists, partners and other stakeholders. 

How to get started

Collaboration skills are essential for effective teamwork and building trust. There are books you can read and courses you can take (on all of the previously mentioned learning platforms), but you can get started over on YouTube.

  1. Communication

Communication skills are also vital across disciplines in the tech industry. Engineers have to be able to clearly articulate technical ideas and strategic approaches to design and architecture problems, which AI is unable to do.

Security experts have to be able to interpret AI’s findings and communicate those insights so leadership and non-technical teams are able to understand how serious the potential risks are (or aren’t).

And communication is the heart of marketing and PR—AI tools can provide analyses and insights, but humans are needed to craft narratives and tell a brand story that resonates with the people we’re trying to reach.

How to get started

Communication skills enable tech professionals to collaborate effectively, bridge technical and non-technical gaps, and drive innovation by translating complex ideas into clear, actionable strategies. There is a range of different types of communication skills, but focusing on workplace communication is the best place to start.

  1. Pragmatism

AI is an exciting new technology that is quickly being built into what feels like every device and app out there. But in reality, AI is still relatively limited and more effective at some things than others. AI applications should be designed and built to solve real user problems and be strategically aligned to existing business needs.

This ability to be pragmatic, to be able to clearly evaluate the practicality and usefulness of a particular technology or solution, is a fundamentally human strength. Being able to balance “can” and “should” to emphasize a focus on real solutions to actual problems, is something AI tools are currently incapable of doing.

 

Like critical thinking, pragmatism is something we all naturally develop with experience, but like any skill, it is something you can train yourself to become better at with deliberate study and practice.

How to get started

Being pragmatic doesn’t mean being a skeptic or trying to tamp down others’ enthusiasm with stop energy. It’s more about being able to look at potential solutions or approaches with a realistic and measured eye.

As a tech professional, you can become more pragmatic by focusing on real results and choosing practical and effective solutions that work in real-world scenarios. Embrace iterative development, testing and continuous feedback, as this can help keep things practical and grounded.

 

  1. Adaptability

 

Early humans survived and thrived because of their fundamental ability to adapt to changing conditions, which continues to be vital today. As we’ve seen over the past few years, the tech industry is undergoing tectonic shifts, a large part of which is being caused by how quickly AI tools and capabilities are evolving.

How to get started

Improving your adaptability in the workplace largely boils down to cultivating a flexible mindset (simply being open to new things) and engaging in continuous learning. Be open to new ideas and responsibilities, commit to personal development, be proactive in suggesting solutions or improvements when you see issues, and stay current with the (admittedly, often overwhelming) changes in our industry.

 

Wrapping up

It’s appropriate that this article ended talking about continuous learning, because that’s what it’s really all about. AI tools are being deployed across nearly every role and discipline in the tech industry, making many of us concerned about the future of our jobs. But human “soft” skills are increasingly vital in this age of AI—AI can help us all do more, faster, but it cannot replace our ability to solve problems, think critically, communicate effectively, work together, be pragmatic and adapt quickly to these rapidly changing conditions.

It’s natural to be anxious about the future, but for many of us AI presents an incredible opportunity to use these new tools to handle the more repetitive and (frankly) boring parts of our work so we can focus on developing our own deeply human skills and doing the really interesting stuff that AI can’t.

พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

พร้อมรับอนาคตอาชีพในสายงานเทคโนโลยี 6 ทักษะสำคัญที่มนุษย์ยุค AI ต้องมี

บทความโดย: เด็บ ริชาร์ดสัน, Senior Content Strategist, เร้ดแฮท บล็อก

เทคโนโลยีกำลังเปลี่ยนแปลงอย่างรวดเร็วไปพร้อมกับวิวัฒนาการของปัญญาประดิษฐ์ (AI) ทุกวันนี้เราได้เห็นเครื่องมือใหม่ ๆ เกิดขึ้น เพื่อใช้ทำงานที่ต้องทำซ้ำ ๆ เสริมความสามารถในงานสร้างสรรค์ และ ช่วยให้ตัดสินใจได้อย่างมีประสิทธิภาพมากขึ้น 

หลายคนกังวลว่าเครื่องมือด้าน AI ที่มีอยู่อย่างมากมายจะกระทบต่ออนาคตด้านการงานและอาชีพของตน ซึ่งเป็นเรื่องที่เข้าใจได้ เพราะเทคโนโลยีเหล่านี้สามารถทำงานที่น่าทึ่งได้จากคำสั่งง่าย ๆ เพียงไม่กี่คำ

ความสามารถของ Generative AI (gen AI) เช่น การสร้างโค้ด เขียนคอนเทนต์ทางการตลาด ออกแบบกราฟิก สร้างสรรค์งานศิลปะได้หลากหลายสไตล์ สร้างวิดีโอเต็มรูปแบบพร้อสคริปต์และเพลงประกอบ คิดแผนธุรกิจเชิงกลยุทธ์ พัฒนาโพสต์บนโซเชียลมีเดีย และอื่น ๆ อีกมาก จึงไม่น่าแปลกใจที่หลายคนจะรู้สึกกังวลเกี่ยวกับโอกาสในการจ้างงานในอนาคต แต่ไม่ใช่ว่าทุกอย่างจะเป็นไปในทางลบเสียทั้งหมด 

แม้ว่าการเรียนรู้การใช้เครื่องมือ AI อย่างมีประสิทธิภาพจะเป็นสิ่งสำคัญสำหรับคนในแวดวงเทคโนโลยี แต่ยังมีความสามารถบางอย่างของคนที่เครื่องจักรไม่อาจเทียบได้ เช่น การคิดและตัดสินใจโดยใช้สัญชาตญาณ การแก้ปัญหาเชิงสร้างสรรค์ ความเข้าใจที่เกิดจากความเห็นอกเห็นใจ ทักษะมนุษย์เหล่านี้เป็นกุญแจสำคัญในการสร้างนวัตกรรม ทำให้การสื่อสารมีประสิทธิภาพ และสามารถรับมือกับปัญหาที่ซับซ้อนได้อย่างที่ AI ไม่สามารถทำได้

เร้ดแฮทพาสำรวจ soft skills ที่คนทำงานสายเทคโนโลยีควรให้ความสำคัญ เพื่อปรับตัวและเติบโตในยุคใหม่ที่ขับเคลื่อนด้วย AI

6 soft skills สำคัญที่คนในยุค AI ควรมี

แม้ว่าจะมีเครื่องมือ AI จำนวนมาก แต่เครื่องมือเหล่านั้นมักใช้กับงานเฉพาะทางและบทบาทเฉพาะอย่าง แต่ทักษะด้านมนุษยสัมพันธ์และอารมณ์ (soft skills) กลับเป็นทักษะที่มีความเป็นสากลที่ทุกคนควรให้ความสำคัญกับการพัฒนาและปรับปรุง ไม่ว่าจะอยู่ในตำแหน่งหรือสายงานใดก็ตาม

1.ทักษะในการแก้ปัญหา

AI สามารถทำสิ่งต่าง ๆ ได้มากมาย แต่ความสามารถในการแก้ปัญหานั้นไม่สามารถเทียบกับมนุษย์ได้ AI สามารถสร้างโค้ดได้ แต่มนุษย์ต้องเป็นผู้ออกแบบระบบที่มีประสิทธิภาพ ขยายขนาดได้ แก้ไขปัญหาที่ไม่คาดคิด และเฝ้าระวังจุดบกพร่องและปัญหาความปลอดภัยที่ AI อาจนำมา 

แม้ gen AI จะช่วยตรวจจับความผิดปกติด้านความปลอดภัยได้ แต่คนต้องเป็นผู้ประเมินและจัดอันดับความสำคัญของความเสี่ยงเหล่านี้ ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI สามารถดำเนินการซ้ำ ๆ ได้มากมาย แต่ก็ยังต้องอาศัยวิจารณญาณของคนในการออกแบบอย่างรอบคอบและตรวจสอบอย่างสม่ำเสมอ

ในทางการตลาดและการสื่อสาร เครื่องมือ AI ที่วิเคราะห์ความรู้สึกจากข้อความ (sentiment analysis) ช่วยตรวจจับประเด็นปัญหาได้อย่างรวดเร็ว แต่การตัดสินใจเลือกแนวทางรับมือ หรือการรักษาภาพลักษณ์ของแบรนด์ให้แข็งแกร่ง ยังต้องพึ่งพาการตัดสินใจของคน

การพัฒนาทักษะในการแก้ปัญหา เป็นสิ่งที่สามารถพัฒนาได้ตามประสบการณ์ แต่หากต้องการฝึกฝนอย่างเป็นระบบมีบทความและหลักสูตรมากมายที่ช่วยในการเรียนรู้ได้อย่างมีแบบแผนและมีประสิทธิภาพยิ่งขึ้น

  1. ทักษะในการคิดวิเคราะห์อย่างมีวิจารณญาณ

AI ยังห่างไกลจากคำว่าสมบูรณ์แบบ ด้วยโมเดลภาษาขนาดใหญ่ (LLMs) มีข้อจำกัดจากการเทรนและข้อมูลที่ใช้ในการเทรน หากองค์กรใดกำลังใช้เครื่องมือ AI เหล่านี้ ควรให้คนขององค์กรได้ฝึกฝนทักษะในการประเมินผลลัพธ์ของ AI อย่างมีวิจารณญาณ เข้าใจข้อจำกัดของเครื่องมือ และเรียนรู้วิธีระบุอคติของโมเดลและผลลัพธ์ ที่อาจมีปัญหาได้

แม้ AI จะเก่งในการตรวจจับรูปแบบต่าง ๆ แต่การตีความอย่างถูกต้องและการสังเกตความผิดปกติที่อาจถูกมองข้ามยังคงต้องอาศัยคน เช่นเดียวกับการจัดการกับอคติและประเด็นจริยธรรมที่ซับซ้อนก็ต้องอาศัยสติปัญญาและความเข้าใจของคน รวมถึงการตรวจสอบให้เครื่องมือหรือกระบวนการที่ใช้ AI ปฏิบัติตามกฎหมายและข้อกำหนดอย่างต่อเนื่อง

แม้ว่าการคิดวิเคราะห์อย่างมีวิจารณญาณ จะพัฒนาได้จากประสบการณ์โดยธรรมชาติ เช่นเดียวกับทักษะในการแก้ปัญหา แต่ก็เป็นทักษะที่สามารถพัฒนาเพิ่มเติมได้ แม้การเรียนรู้ทักษะนี้เป็นส่วนสำคัญที่สุดของการศึกษาในระดับมหาวิทยาลัย แต่ยังมีแหล่งอื่นนอกมหาวิทยาลัยที่ช่วยคนพัฒนาด้านนี้ได้ เช่น LinkedIn Learning มีหลักสูตรหลากหลายที่เน้นการพัฒนาการคิดวิเคราะห์อย่างมีวิจารณญาณ เช่นเดียวกับ Khan Academy และ Udemy นอกจากนี้ยังมีหนังสือมากมายเกี่ยวกับหัวข้อนี้ให้เลือกอ่านเช่นกัน

  1. ทักษะในการทำงานร่วมกัน

ความสามารถในการทำงานร่วมกัน ร่วมมือกัน และทำงานเป็นทีมเป็นหนึ่งในจุดแข็งที่สำคัญของคน ดังคำกล่าวที่ว่า “ไม่มีใครเก่งเท่ากับทุกคนรวมกัน” (none of us is as good as all of us) ซึ่งปัจจุบัน AI ยังมีข้อจำกัดด้านนี้ และไม่อาจเทียบได้กับความสามารถของคนในการสร้างความสัมพันธ์และการทำงานร่วมกัน

เมื่อพัฒนานาแอปพลิเคชัน AI ผู้พัฒนาจะต้องทำงานใกล้ชิดกับผู้เชี่ยวชาญด้าน AI นักวิทยาศาสตร์ข้อมูล ผู้จัดการผลิตภัณฑ์และโครงการ รวมถึงผู้มีส่วนเกี่ยวข้องอื่น ๆ มากขึ้นเรื่อย ๆ และแน่นอนว่าทักษะการทำงานร่วมกันนั้นมีความสำคัญอย่างยิ่งในโปรเจ็กต์ที่เป็นโอเพ่นซอร์ส ซึ่งถือเป็นรากฐานสำคัญของการดำเนินงานโครงการเหล่านี้

ในการใช้ประโยชน์ด้านอื่น เช่น ด้านการประชาสัมพันธ์และสื่อสาร เราอาจใช้ AI เพื่อวิเคราะห์ความรู้สึกของผู้บริโภคหรือแนวโน้มของสื่อได้ แต่ก็ยังต้องอาศัยคนในการสร้างและรักษาความสัมพันธ์ที่แน่นแฟ้นกับนักข่าว พันธมิตร และผู้มีส่วนเกี่ยวข้องอื่น ๆ

ทักษะการทำงานร่วมกันเป็นสิ่งสำคัญของการทำงานเป็นทีมและการสร้างความไว้วางใจ สามารถเรียนรู้ได้จากทั้งหนังสือและหลักสูตรต่าง ๆ บนแพลตฟอร์มต่าง ๆ ที่กล่าวข้างต้น หรือเริ่มต้นง่าย ๆ บน YouTube

  1. ทักษะด้านการสื่อสาร

ทักษะด้านการสื่อสาร มีความสำคัญอย่างยิ่งกับทุกสาขาอาชีพในแวดวงเทคโนโลยี วิศวกรด้านไอทีต้องสามารถให้คำอธิบายแนวคิดทางเทคนิค และแนวทางเชิงกลยุทธ์ในการแก้ไขปัญหาด้านการออกแบบและสถาปัตยกรรมได้อย่างชัดเจน ซึ่งนั่นเป็นสิ่งที่ AI ไม่สามารถทำได้ 

ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ต้องสามารถตีความผลลัพธ์ที่ได้จาก AI และสื่อสารข้อมูลเชิงลึกเหล่านั้นให้ฝ่ายบริหารหรือทีมที่ไม่ใช่ทีมเทคนิคสามารถเข้าใจได้ว่า ความเสี่ยงที่อาจเกิดขึ้นนั้นร้ายแรงหรือไม่เพียงใด 

การสื่อสารเป็นหัวใจของการตลาดและการประชาสัมพันธ์ แม้เครื่องมือ AI สามารถให้การวิเคราะห์และข้อมูลเชิงลึกได้ แต่คนคือผู้สร้างสรรค์และบอกเล่าเรื่องราวของแบรนด์ที่โดนใจผู้ที่เราต้องการเข้าถึง

ทักษะการสื่อสารช่วยให้ผู้เชี่ยวชาญด้านเทคโนโลยีทำงานร่วมกันได้อย่างมีประสิทธิภาพ ลดช่องว่างระหว่างทีมเทคนิคและทีมอื่นที่อาจไม่เชี่ยวชาญทางเทคนิค และขับเคลื่อนนวัตกรรมผ่านการแปลงแนวคิดที่ซับซ้อนให้เป็นกลยุทธ์ที่นำไปปฏิบัติได้จริง ทักษะการสื่อสารมีหลายประเภทแต่ควรเริ่มต้นที่การสื่อสารในที่ทำงาน 

  1. ทักษะในการปฎิบัติอย่างรู้จริง

AI เป็นเทคโนโลยีใหม่ที่น่าตื่นเต้น ซึ่งขณะนี้ถูกนำไปใช้งานในแทบทุกอุปกรณ์และแอปพลิเคชันต่าง ๆ แต่ในความเป็นจริงแล้ว AI ยังมีข้อจำกัดอยู่บ้าง และมีประสิทธิภาพมากกว่าในบางเรื่อง แอปพลิเคชัน AI ควรได้รับการออกแบบและสร้างขึ้นเพื่อแก้ปัญหาที่แท้จริงของผู้ใช้ และเชื่อมโยงกับความต้องการทางธุรกิจที่มีอยู่

ความสามารถในการประเมินความเป็นไปได้รวมถึงประโยชน์ของเทคโนโลยีหรือโซลูชันต่างๆ ได้อย่างชัดเจน เป็นจุดแข็งที่แท้จริงของมนุษย์ การรู้จักสร้างสมดุลระหว่าง “สิ่งที่ทำได้” และ “สิ่งที่ควรทำ” โดยมุ่งเน้นการแก้ปัญหาที่เกิดขึ้นจริง ด้วยแนวทางที่สามารถนำไปใช้ได้จริง เป็นสิ่งที่ AI ไม่สามารถทำได้ในปัจจุบัน 

เช่นเดียวกับการคิดวิเคราะห์อย่างมีวิจารณญาณ การปฏิบัติอย่างรู้จริงเป็นสิ่งที่พัฒนาขึ้นตามธรรมชาติจากประสบการณ์ แต่ก็เหมือนกับทักษะอื่น ๆ ที่สามารถฝึกฝนได้ผ่านการเรียนรู้และการลงมือปฎิบัติอย่างสม่ำเสมอ 

การเป็นนักปฏิบัติอย่างรู้จริงไม่ได้หมายถึงการมองโลกในแง่ลบหรือคอยปิดกั้นความคิดใหม่ ๆ แต่เป็นการมองแนวทางหรือโซลูชันที่มีศักยภาพในมุมมองที่เป็นจริงและรอบคอบ 

ผู้เชี่ยวชาญด้านเทคโนโลยี สามารถพัฒนาความเป็นนักปฏิบัติอย่างรู้จริงได้โดยมุ่งเน้นที่ผลลัพธ์จริง และเลือกโซลูชันที่ใช้งานได้จริงและมีประสิทธิภาพในสถานการณ์จริง ยอมรับการพัฒนาแบบรอบวนซ้ำ การทดสอบ และการรับฟังความคิดเห็นอย่างต่อเนื่อง สิ่งเหล่านี้จะช่วยให้แนวทางการทำงานมีความเป็นรูปธรรมและตั้งอยู่บนพื้นฐานของความเป็นจริง 

  1. ทักษะในการปรับตัว

มนุษย์ยุคแรกสามารถอยู่รอดและเติบโตได้ เพราะมีความสามารถพื้นฐานในการปรับตัวให้เข้ากับสภาพแวดล้อมที่เปลี่ยนแปลงอยู่เสมอ ซึ่งเป็นทักษะที่มีความสำคัญอย่างยิ่งในปัจจุบัน เห็นได้ชัดจากช่วงไม่กี่ปีที่ผ่านมาที่อุตสาหกรรมเทคโนโลยีกำลังเผชิญกับการเปลี่ยนแปลงครั้งใหญ่ ส่วนหนึ่งมาจากการพัฒนาอย่างรวดเร็วของเครื่องมือและขีดความสามารถของ AI 

การพัฒนาความสามารถในการปรับตัวในที่ทำงาน โดยพื้นฐานแล้วคือการสร้างทัศนคติที่ยืดหยุ่น ผ่อนสั้นผ่อนยาว (เพียงแค่เปิดใจให้กับสิ่งใหม่ ๆ) และการเรียนรู้อย่างต่อเนื่อง เปิดรับแนวคิด ความรับผิดชอบใหม่ ๆ ทุ่มเทให้กับการพัฒนาตนเอง กระตือรือร้นในการเสนอแนวทางแก้ไขหรือการปรับปรุงเมื่อเจอปัญหา และติดตามให้ทันการเปลี่ยนแปลงในอุตสาหกรรมอยู่เสมอ (แม้ว่าจะมีการเปลี่ยนแปลงที่มากมายจนน่ากังวลใจก็ตาม) 

บทสรุป

การเรียนรู้อย่างต่อเนื่องคือหัวใจสำคัญของทักษะทุกอย่าง มีการนำเครื่องมือที่เป็น AI ไปใช้งานในแทบทุกบทบาทและทุกสายงานในอุตสาหกรรมเทคโนโลยี ทำให้หลายคนกังวลเกี่ยวกับอนาคตของงานในมือ แต่ “ทักษะทางสังคมที่ใช้ในการปฏิสัมพันธ์กับผู้อื่น” หรือ “soft skills” กลับมีความสำคัญมากขึ้นในยุคของ AI แม้ AI จะช่วยให้เราทำงานได้มากขึ้นและรวดเร็วขึ้น แต่มันไม่สามารถทดแทนความสามารถในการแก้ปัญหา การคิดอย่างมีวิจารณญาณ การสื่อสารอย่างมีประสิทธิภาพ การทำงานร่วมกัน ความเป็นเหตุเป็นผล และการปรับตัวอย่างรวดเร็วต่อการเปลี่ยนแปลงได้

เป็นเรื่องธรรมดาที่จะรู้สึกกังวลกับอนาคต แต่สำหรับหลาย ๆ คนแล้ว AI กลับเป็นโอกาสที่ยอดเยี่ยมในการใช้เครื่องมือใหม่เหล่านี้จัดการกับงานที่ซ้ำซากและน่าเบื่อ เพื่อให้เราได้หันมาโฟกัสกับการพัฒนาทักษะมนุษย์อย่างลึกซึ้ง และได้ทำสิ่งที่น่าสนใจจริง ๆ ซึ่ง AI ไม่สามารถทำได้

Red Hat Boosts Enterprise AI Across the Hybrid Cloud with Red Hat AI

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

Red Hat Boosts Enterprise AI Across the Hybrid Cloud with Red Hat AI

AI portfolio adds enhancements to Red Hat OpenShift AI and Red Hat Enterprise Linux AI to help operationalize AI strategies

Red Hat, Inc., the world’s leading provider of open source solutions, today announced the latest updates to Red Hat AI, its portfolio of products and services designed to help accelerate the development and deployment of AI solutions across the hybrid cloud. Red Hat AI provides an enterprise AI platform for model training and inference that delivers increased efficiency, a simplified experience and the flexibility to deploy anywhere across a hybrid cloud environment. 

Even as businesses look for ways to reduce the costs of deploying large language models (LLMs) at scale to address a growing number of use cases, they are still faced with the challenge of integrating those models with their proprietary data that drives those use cases while also being able to access this data wherever it exists, whether in a data center, across public clouds or even at the edge.

Encompassing both Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI addresses these concerns by providing an enterprise AI platform that enables users to adopt more efficient and optimized models, tuned on business-specific data and that can then be deployed across the hybrid cloud for both training and inference on a wide-range of accelerated compute architectures.

Red Hat OpenShift AI

Red Hat OpenShift AI provides a complete AI platform for managing predictive and generative AI (gen AI) lifecycles across the hybrid cloud, including machine learning operations (MLOps) and LLMOps capabilities. The platform provides the functionality to build predictive models and tune gen AI models, along with tools to simplify AI model management, from data science and model pipelines and model monitoring to governance and more.

Red Hat OpenShift AI 2.18, the latest release of the platform, adds new updates and capabilities to support Red Hat AI’s aim of bringing better optimized and more efficient AI models to the hybrid cloud. Key features include:

  • Distributed serving: Delivered through the vLLM inference server, distributed serving enables IT teams to split model serving across multiple graphical processing units (GPUs). This helps lessen the burden on any single server, speeds up training and fine-tuning and makes more efficient use of computing resources, all while helping distribute services across nodes for AI models.
  • An end-to-end model tuning experience: Using InstructLab and Red Hat OpenShift AI data science pipelines, this new feature helps simplify the fine-tuning of LLMs, making them more scalable, efficient and auditable in large production environments while also delivering manageability through the Red Hat OpenShift AI dashboard.
  • AI Guardrails: Red Hat OpenShift AI 2.18 helps improve LLM accuracy, performance, latency and transparency through a technology preview of AI Guardrails to monitor and better safeguard both user input interactions and model outputs. AI Guardrails offers additional detection points in helping IT teams identify and mitigate potentially hateful, abusive or profane speech, personally identifiable information, competitive information or other data limited by corporate policies.
  • Model evaluation: Using the language model evaluation (lm-eval) component to provide important information on the model’s overall quality, model evaluation enables data scientists to benchmark the performance of their LLMs across a variety of tasks, from logical and mathematical reasoning to adversarial natural language and more, ultimately helping to create more effective, responsive and tailored AI models.

RHEL AI

Part of the Red Hat AI portfolio, RHEL AI is a foundation model platform to more consistently develop, test and run LLMs to power enterprise applications. RHEL AI provides customers with Granite LLMs and InstructLab model alignment tools that are packaged as a bootable Red Hat Enterprise Linux server image and can be deployed across the hybrid cloud.

Launched in February 2025, RHEL 1.4 added several new enhancements including:

  • Granite 3.1 8B model support for the latest addition to the open source-licensed Granite model family. The model adds multilingual support for inference and taxonomy/knowledge customization (developer preview) along with a 128k context window for improved summarization results and retrieval-augmented generation (RAG) tasks.
  • A new graphical user interface for skills and knowledge contributions, available as a developer preview, to simplify data ingestion and chunking as well as how users add their own skills and contributions to an AI model.
  • Document Knowledge-bench (DK-bench) for easier comparisons of AI models fine-tuned on relevant, private data with the performance of the same un-tuned base models.

Red Hat AI InstructLab on IBM Cloud

Increasingly, enterprises are looking for AI solutions that prioritize accuracy and data security, while also keeping costs and complexity as low as possible. Red Hat AI InstructLab deployed as a service on IBM Cloud is designed to simplify, scale and help improve the security footprint for the training and deployment of AI models. By simplifying InstructLab model tuning, organizations can build more efficient models tailored to the organizations’ unique needs while retaining control of their data.

No-cost AI Foundations training

AI is a transformative opportunity that is redefining how enterprises operate and compete. To support organizations in this dynamic landscape, Red Hat now offers AI Foundations online training courses at no cost. Red Hat is providing two AI learning certificates that are designed for experienced senior leaders and AI novices alike, helping educate users of all levels on how AI can help transform business operations, streamline decision-making and drive innovation. The AI Foundations training guides users on how to apply this knowledge when using Red Hat AI.

Availability

Red Hat OpenShift AI 2.18 and Red Hat Enterprise Linux AI 1.4 are now generally available. More information on additional features, improvements, bug fixes and how to upgrade to the latest version of Red Hat OpenShift AI can be found here and the latest version of RHEL AI can be found here.

Red Hat AI InstructLab on IBM Cloud will be available soon. AI Foundations training from Red Hat is available to customers now.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“Red Hat knows that enterprises will need ways to manage the rising cost of their generative AI deployments, as they bring more use cases to production and run at scale. They also need to address the challenge of integrating AI models with private enterprise data and be able to deploy these models wherever their data may live. Red Hat AI helps enterprises address these challenges by enabling them to leverage more efficient, purpose-built models, trained on their data and enable flexible inference across on-premises, cloud and edge environments.”

Régis Lesbarreres, advanced analytics and AI innovation manager, digital innovation, Airbus Helicopters

“At the outset of our AI journey, Airbus Helicopters was looking to integrate AI into our existing architecture, reduce shadow IT, unite our data scientists under a singular AI platform and optimize costs at scale. With Red Hat OpenShift AI, we’ve been able to accomplish all of these goals, which led to our first business use case for AI. Red Hat’s vision for AI aligns with our business objectives and allows us to meet them while maintaining flexibility, accessibility and transparency.”

Javier Olaizola Casin, global managing partner, hybrid cloud and data, IBM Consulting

“Businesses are increasingly applying AI to transform core business processes, and they need AI solutions that are flexible, cost-effective and tuned with trusted enterprise data to meet their unique needs. Red Hat AI brings the consistency, reliability and speed that organizations need to build and deploy AI models and applications across hybrid cloud scenarios. Combining IBM Consulting’s domain, technology and industry expertise with Red Hat’s AI technologies, we are helping our clients drive ROI from their technology investments.”

Torsten Volks, principal analyst, application modernization, ESG

“Leading organizations harness AI-driven, data-centric decision making across teams and business units. Therefore, the ability to rapidly and cost effectively develop, deploy, integrate, scale and govern AI-based capabilities across the enterprise becomes a critical success factor. Establishing this capability requires an open and extensible AI foundation that ensures seamless integration with existing systems and processes, operational agility and continuous governance. Enabling staff and customers to benefit from AI capabilities faster and in a more comprehensive manner is crucial for continued business success.”

Anand Swamy, executive vice president  and global head of ecosystems, HCLTech

“In order to realize the full potential of generative AI, organizations need to prioritize agile and flexible infrastructure. By combining the capabilities of Red Hat AI, encompassing RHEL AI and Red Hat OpenShift AI to deliver an end-to-end AI application platform, with HCLTech’s leading AI expertise and cognitive infrastructure services, a part of HCLTech AI Foundry solution, customers get a streamlined path to unlocking AI innovation, helping them overcome common challenges such as data security, scaling AI workloads and minimizing infrastructure costs.”

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

พอร์ตโฟลิโอ AI ช่วยเพิ่มประสิทธิภาพให้กับ Red Hat OpenShift AI และ Red Hat Enterprise Linux AI เพื่อหนุนให้องค์กรธุรกิจประสบความสำเร็จในการปรับใช้กลยุทธ์ AI

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก ประกาศการอัปเดทล่าสุดให้กับ Red Hat AI กลุ่มผลิตภัณฑ์และบริการที่ออกแบบมาเพื่อช่วยให้พัฒนาและปรับใช้โซลูชัน AI บนไฮบริดคลาวด์ทุกแห่ง Red Hat AI เป็นแพลตฟอร์ม AI ระดับองค์กร เพื่อการเทรนและการอนุมานโมเดลที่มีประสิทธิภาพมากขึ้น มอบประสบการณ์การใช้งานที่เรียบง่าย และสามารถนำไปใช้บนไฮบริดคลาวด์ได้ทุกแห่งอย่างยืดหยุ่น

ธุรกิจต่างมองหาวิธีลดค่าใช้จ่ายในการใช้โมเดลภาษาขนาดใหญ่ (LLMs) ให้ได้ตามความต้องการและให้เพียงพอต่อกรณีการใช้งานขององค์กรที่เพิ่มขึ้น อย่างไรก็ตาม ธุรกิจเหล่านี้ก็ยังคงเผชิญกับความท้าทายในการบูรณาการโมเดลเหล่านั้นเข้ากับข้อมูลภายในขององค์กร ซึ่งเป็นตัวขับเคลื่อนกรณีใช้งานต่าง ๆ ขององค์กร ในขณะเดียวกันก็ต้องการเข้าถึงข้อมูลเหล่านี้ได้ทุกที่ ไม่ว่าข้อมูลนั้นจะอยู่ในดาต้าเซ็นเตอร์ บนพับลิคคลาวด์ต่าง ๆ หรือแม้แต่ที่ edge

Red Hat AI ประกอบด้วย Red Hat OpenShift AI และ Red Hat Enterprise Linux AI (RHEL AI) สามารถจัดการกับความกังวลดังกล่าวได้ด้วยแพลตฟอร์ม AI ระดับองค์กรที่ช่วยให้ผู้ใช้ปรับใช้โมเดลต่าง ๆ ได้อย่างมีประสิทธิภาพและเหมาะสมมากขึ้น ทำการปรับแต่งข้อมูลเฉพาะธุรกิจให้สามารถนำไปใช้ในการเทรนและการอนุมานบนสถาปัตยกรรมการประมวลผลแบบเร่งความเร็วที่หลากหลายบนไฮบริดคลาวด์ได้ทุกแห่ง

Red Hat OpenShift AI

Red Hat OpenShift AI เป็นแพลตฟอร์ม AI ที่สมบูรณ์แบบเพื่อการบริหารจัดการไลฟ์ไซเคิลของ AI เชิงคาดการณ์ (predictive AI) และ generative AI (gen AI) บนไฮบริดคลาวด์ รวมถึงความสามารถต่าง ๆ ของ machine learning operations (MLOps) และ LLMOps แพลตฟอร์มนี้มอบฟังก์ชันที่ใช้สร้างโมเดลเชิงคาดการณ์ต่าง ๆ และฟังก์ชันในการปรับแต่งโมเดล gen AI ทั้งยังมอบเครื่องมือที่ใช้บริหารจัดการโมเดล AI ได้อย่างง่ายดาย ไม่ว่าจะเป็นเรื่องของวิทยาการข้อมูล (data science) ไปป์ไลน์โมเดล และการติดตามตรวจสอบโมเดล ไปจนถึงการกำกับดูแล และอื่น ๆ

Red Hat OpenShift AI 2.18 ซึ่งเป็นเวอร์ชันล่าสุดของแพลตฟอร์มนี้ ได้รับการอัปเดทและเพิ่มความสามารถใหม่ ๆ เพื่อสนับสนุนวัตถุประสงค์ของ Red Hat AI เพื่อเพิ่มประสิทธิภาพและการปรับให้โมเดล AI เหมาะสมที่จะนำไปใช้บนไฮบริดคลาวด์ โดยมีคุณสมบัติสำคัญ เช่น

  • ให้บริการแบบกระจาย (distributed serving): ส่งบริการผ่านเซิร์ฟเวอร์การอนุมาน vLLM ช่วยให้ทีมไอทีแยกการให้บริการโมเดลที่อยู่บนหน่วยประมวลผลกราฟิก (GPU) หลายหน่วยออกจากกัน ซึ่งช่วยลดภาระของเซิร์ฟเวอร์ตัวเดียว ช่วยให้การเทรนและการปรับแต่งรวดเร็วขึ้น และใช้ทรัพยากรประมวลผลได้มีประสิทธิภาพมากขึ้น ไปพร้อม ๆ กับช่วยกระจายบริการต่าง ๆ ข้ามโหนดให้กับโมเดล AI ต่าง ๆ
  • มอบประสบการณ์การปรับแต่งโมเดลอย่างครบวงจร: ฟีเจอร์นี้ใช้ InstructLab และ Red Hat OpenShift AI data science pipelines ช่วยให้การปรับแต่ง LLMs อย่างละเอียดทำได้โดยไม่ยุ่งยาก สามารถปรับขนาดการใช้งาน เพิ่มประสิทธิภาพและตรวจสอบสภาพแวดล้อมการผลิตขนาดใหญ่ได้มากขึ้น และสามารถบริหารจัดการผ่านแดชบอร์ดของ Red Hat OpenShift AI
  • AI Guardrails: Red Hat OpenShift AI 18 ช่วยเพิ่มความแม่นยำ ประสิทธิภาพ ระยะเวลาในการตอบสนอง และความโปร่งใส ให้กับ LLM ผ่านเทคโนโลยีพรีวิวของ AI Guardrails เพื่อติดตามตรวจสอบและปกป้องทั้งการปฏิสัมพันธ์ของผู้ใช้ผ่านอินพุต และการเอาต์พุตของโมเดลได้ดีมากขึ้น AI Guardrails นำเสนอจุดตรวจจับเพิ่มเติม เพื่อช่วยทีมไอทีระบุและบรรเทาอันตรายที่อาจเกิดขึ้นจากเจตนาร้าย คำพูดที่หยาบคายหรือดูหมิ่น หรือการรั่วไหลของข้อมูลที่สามารถระบุตัวตนได้ ข้อมูลด้านการแข่งขัน หรือข้อมูลอื่นที่จำกัดการเข้าถึงโดยนโยบายของบริษัท 
  • การประเมินโมเดล: ใช้องค์ประกอบการประเมินโมเดลภาษา (Im-eval) เพื่อมอบข้อมูลสำคัญเกี่ยวกับคุณภาพโดยรวมของโมเดลนั้น ๆ เพื่อช่วยให้นักวิทยาศาสตร์ข้อมูลสามารถปรียบเทียบประสิทธิภาพของ LLMs ของตนที่ใช้ทำงานด้านต่าง ๆ ไม่ว่าจะเป็นการให้เหตุผลเชิงตรรกะ และคณิตศาสตร์ ไปจนถึงภาษาธรรมชาติ และอื่น ๆ ซึ่งท้ายที่สุดเป็นการช่วยสร้างโมเดล AI ที่มีประสิทธิภาพ มีความสามารถในการตอบสนอง และเจาะจงตามการใช้งานได้มากขึ้น

RHEL AI

RHEL AI เป็นแพลตฟอร์มโมเดลพื้นฐาน ในกลุ่มผลิตภัณฑ์ด้าน AI ของเร้ดแฮท แพลตฟอร์มนี้ใช้สำหรับการพัฒนา ทดสอบ และรัน LLMs เพื่อสนับสนุนแอปพลิเคชันระดับองค์กรได้อย่างสม่ำเสมอต่อเนื่อง ทั้งนี้ RHEL AI มอบโมเดล Granite LLMs และเครื่องมือปรับโมเดลให้สอดคล้องกันจาก InstructLab แพ็ครวมเป็น Red Hat Enterprise Linux server image ที่บูตได้ และสามารถนำไปใช้บนไฮบริดคลาวด์ใดก็ได้

RHEL 1.4 เปิดตัวเมื่อเดือนกุมภาพันธ์ 2568 มาพร้อมการเพิ่มประสิทธิภาพใหม่หลายรายการ รวมถึง

  • รองรับโมเดล Granite 3.1 8B ซึ่งเป็นรุ่นล่าสุดของตระกูลโมเดล Granite ที่เปิดเป็นโอเพ่นซอร์ส โมเดลนี้รองรับภาษาหลายภาษา เพื่อการอนุมานและการปรับแต่งอนุกรมวิธาน/ความรู้ (พรีวิวสำหรับนักพัฒนา) มาพร้อมความยาวบริบทขนาด 128k เพื่อเพิ่มประสิทธิภาพผลลัพธ์ในการทำสรุป และงานการสร้างแบบเสริมการเรียกค้นต่าง ๆ (RAG)
  • อินเทอร์เฟซกราฟิกสำหรับผู้ใช้งานแบบใหม่ เพื่อมีส่วนร่วมสนับสนุนทักษะและความรู้ พร้อมให้นักพัฒนาได้ใช้งานในขั้นพรีวิว เพื่อลดความซับซ้อนในการนำเข้าและรวมข้อมูล รวมถึงวิธีที่ผู้ใช้เพิ่มทักษะให้กับตนเอง และมีส่วนร่วมสนับสนุนโมเดล AI
  • Document Knowledge-bench (DK-bench) สำหรับเปรียบเทียบการปรับแต่งโมเดล AI ด้วยข้อมูลส่วนตัวที่เกี่ยวข้องกันได้อย่างไม่ยุ่งยาก ด้วยประสิทธิภาพเดียวกับโมเดลพื้นฐานที่ยังไม่ได้รับการปรับแต่ง

Red Hat AI InstructLab on IBM Cloud

องค์กรต่างมองหาโซลูชัน AI ที่ให้ความสำคัญกับความแม่นยำและความปลอดภัยของข้อมูลมากขึ้นเรื่อย ๆ ในขณะเดียวกันยังคงต้องควบคุมค่าใช้จ่าย และลดความซับซ้อน ให้เหลือต่ำที่สุดเท่าที่จะทำได้ Red Hat AI InstructLab เป็นบริการบน IBM Cloud ได้รับการออกแบบมาให้ใช้งานง่าย ปรับขนาดได้ และช่วยเพิ่มประสิทธิภาพด้านความปลอดภัยในการเทรนและพัฒนาโมเดล AI ต่าง ๆ การลดความซับซ้อนของการปรับแต่งโมเดลบน InstructLab ช่วยให้องค์กรสามารถสร้างโมเดลที่มีประสิทธิภาพมากขึ้นและปรับให้ตรงกับความต้องการเฉพาะของแต่ละองค์กร และยังคงอำนาจควบคุมข้อมูลของตนไว้ได้

การอบรมด้าน AI Foundations โดยไม่มีค่าใช้จ่าย

AI คือโอกาสในการทรานส์ฟอร์มที่สามารถเปลี่ยนโฉมวิธีการทำงานและการแข่งขันขององค์กรต่าง ๆ เร้ดแฮทนำเสนอคอร์สการอบรมด้าน AI Foundations ออนไลน์ โดยไม่มีค่าใช้จ่าย เพื่อสนับสนุนองค์กรต่าง ๆ ในบริบทที่เปลี่ยนแปลงตลอดเวลาในปัจจุบัน เร้ดแฮทมอบใบรับรองการเรียนหลักสูตรด้าน AI สองรายการ คือ สำหรับผู้นำอาวุโสที่มีประสบการณ์ และสำหรับมือใหม่ด้าน AI โดยให้ความรู้แก่ผู้ใช้ทุกระดับว่า AI สามารถช่วยทรานส์ฟอร์มการดำเนินงานทางธุรกิจได้อย่างไร สามารถเพิ่มประสิทธิภาพในการตัดสินใจและขับเคลื่อนนวัตกรรมได้อย่างไร โดยการอบรม AI Foundations นี้จะแนะนำผู้ใช้ว่าจะสามารถนำความรู้ที่ได้จากการอบรมนี้ไปใช้อย่างไรเมื่อใช้ Red Hat AI

การวางจำหน่าย

Red Hat OpenShift AI 2.18 และ Red Hat Enterprise Linux AI 1.4 วางจำหน่ายแล้ว สามารถดูข้อมูลเพิ่มเติมเกี่ยวกับฟีเจอร์เพิ่มเติม การเพิ่มประสิทธิภาพด้านต่าง ๆ การแก้ไขจุดบกพร่อง และวิธีการอัปเกรดเป็นเวอร์ชันล่าสุดของ Red Hat OpenShift AI ได้ที่นี่ และเวอร์ชันล่าสุดของ RHEL AI ได้ที่นี่

Red Hat AI InstructLab on IBM Cloud จะวางตลาดเร็ว ๆ นี้ ส่วนการอบรม AI Foundations จากเร้ดแฮทพร้อมให้บริการลูกค้าแล้ว

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“เร้ดแฮทตระหนักดีว่าองค์กรต่างต้องการแนวทางบริหารจัดการค่าใช้จ่ายที่เพิ่มขึ้นจากการนำ generative AI มาใช้ และนำกรณีใช้งานต่าง ๆ เข้าสู่การผลิตและใช้ในงานตามต้องการในวงกว้างมากขึ้น องค์กรเหล่านี้จำเป็นต้องจัดการความท้าทายในการบูรณาการโมเดล AI ต่าง ๆ เข้ากับข้อมูลภายในขององค์กร และทำให้สามารถปรับใช้โมเดลเหล่านี้ได้ทุกที่ไม่ว่าข้อมูลจะอยู่ ณ ที่ใดก็ตาม Red Hat AI ช่วยองค์กรจัดการความท้าทายดังกล่าว โดยช่วยให้องค์กรสามารถใช้ประโยชน์จากโมเดลเฉพาะทางได้มีประสิทธิภาพมากขึ้นด้วยการเทรนด้วยข้อมูลภายในของตน และช่วยให้อนุมานได้อย่างยืดหยุ่นไม่ว่าจะอยู่ในระบบภายในองค์กร บนคลาวด์ หรือที่ edge”

Régis Lesbarreres, advanced analytics and AI innovation manager, digital innovation, Airbus Helicopters

“ช่วงที่ Airbus Helicopters เริ่มต้นเส้นทางการนำ AI มาใช้ เราต้องการผสานรวม AI เข้ากับสถาปัตยกรรมที่เรามีอยู่แล้ว ต้องการลด shadow IT และรวบรวมการทำงานของ data scientists ของเราไว้บนแพลตฟอร์ม AI เดียว รวมถึงการปรับค่าใช้จ่ายให้เหมาะสม Red Hat OpenShift AI ช่วยให้เราบรรลุเป้าหมายความต้องการดังกล่าวทั้งหมด และทำให้เกิดกรณีใช้งานทางธุรกิจที่ใช้ AI เป็นครั้งแรกของเรา วิสัยทัศน์ด้าน AI ของเร้ดแฮท สอดคล้องกับวัตถุประสงค์ทางธุรกิจของเรา และช่วยให้เราตอบโจทย์ความต้องการ พร้อม ๆ กับคงความยืดหยุ่น การเข้าใช้งาน และความโปร่งใสไว้ได้ด้วย”

Javier Olaizola Casin, global managing partner, hybrid cloud and data, IBM Consulting

“ธุรกิจหันมาใช้ AI เพื่อทรานส์ฟอร์มกระบวนการสำคัญทางธุรกิจมากขึ้น และต้องการโซลูชัน AI ที่ยืดหยุ่น คุ้มค่าใช้จ่าย และปรับแต่งด้วยข้อมูลที่เชื่อถือได้ขององค์กรได้  Red Hat AI นำเสนอความสม่ำเสมอ เชื่อถือได้ และความเร็ว ที่องค์กรต้องใช้เพื่อสร้างและปรับใช้โมเดลและแอปพลิเคชัน AI กับการทำงานด้านต่าง ๆ บนไฮบริดคลาวด์ เพื่อตอบความต้องการที่เจาะจงของแต่ละองค์กร นอกจากนี้การรวมโดเมน เทคโนโลยี และความเชี่ยวชาญของ IBM Consulting เข้ากับเทคโนโลยี AI ของเร้ดแฮท ทำให้เราช่วยลูกค้าของเราขับเคลื่อนให้เกิด ROI จากการลงทุนทางเทคโนโลยีของตนได้เป็นอย่างดี”

Torsten Volks, principal analyst, application modernization, ESG

“ทีมงานและหน่วยธุรกิจขององค์กรระดับแนวหน้า ทำการตัดสินใจทางธุรกิจโดยพิจารณาจากข้อมูลเป็นหลัก และใช้ AI เป็นตัวขับเคลื่อน ดังนั้น ปัจจัยที่จะนำสู่ความสำเร็จที่สำคัญ คือ ความสามารถในการพัฒนา ปรับใช้ บูรณาการ ปรับขนาด และควบคุม ความสามารถของ AI ได้อย่างรวดเร็วทุกจุด ซึ่งความสามารถที่กล่าวมานี้ต้องการโครงสร้างรากฐาน AI ที่เปิดกว้างและขยายออกไปได้ ที่จะทำให้มั่นใจได้ว่าการบูรณาการณ์เข้ากับระบบและกระบวนการต่าง ๆ ที่มีอยู่เป็นไปอย่างราบรื่น มีความคล่องตัวในการปฏิบัติงาน และสามารถกำกับดูแลได้อย่างต่อเนื่อง การช่วยให้พนักงานและลูกค้าได้รับประโยชน์จากความสามารถต่าง ๆ ของ AI  ได้อย่างรวดเร็ว และครอบคลุมมากขึ้น เป็นสิ่งสำคัญต่อความต่อเนื่องของความสำเร็จทางธุรกิจ”

Anand Swamy, executive vice president  and global head of ecosystems, HCLTech

การผสานรวมความสามารถต่าง ๆ ของ Red Hat AI ซึ่งครอบคลุมถึง RHEL AI และ Red Hat OpenShift AI เพื่อมอบแพลตฟอร์มการใช้ AI ครบวงจร ด้วยบริการด้านโครงสร้างพื้นฐานแบบ cognitive และความเชี่ยวชาญด้าน AI ของ HCLTech ซึ่งเป็นส่วนหนึ่งของโซลูชัน HCLTech AI Foundry ช่วยให้ลูกค้าได้รับแนวทางที่ทรงประสิทธิภาพและคล่องตัวเพื่อใช้ปลดล็อกนวัตกรรมด้าน AI และก้าวข้ามความท้าทายต่าง ๆ ที่เกิดขึ้น เช่น ความปลอดภัยของข้อมูล การปรับขนาดเวิร์กโหลด AI และการลดค่าใช้จ่ายด้านโครงสร้างพื้นฐาน