Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat Introduces Red Hat Enterprise Linux 10 with Supercharged Intelligence and Security Across Hybrid Environments

  • Durable foundation for IT innovation fuels more intelligent hybrid cloud operations with AI-powered Linux management
  • Adds security features to help mitigate future quantum-based threats
  • Makes containers the language of the OS and new Red Hat Insights capabilities enable more informed decisions at build time
  • Empowers the next generation of developers with support for emerging architectures and software innovation

Red Hat, the world’s leading provider of open source solutions, today introduced Red Hat Enterprise Linux 10, the evolution of the world’s leading enterprise Linux platform to help meet the dynamic demands of hybrid cloud and the transformative power of AI. More than just an iteration, Red Hat Enterprise Linux 10 provides a strategic and intelligent backbone for enterprise IT to navigate increasing complexity, accelerate innovation and build a more secure computing foundation for the future.

As enterprise IT grapples with the proliferation of hybrid environments and the imperative to integrate AI workloads, the need for an intelligent, resilient and durable operating system has never been greater. Red Hat Enterprise Linux 10 rises to this challenge, delivering a platform engineered for agility, flexibility and manageability, all while retaining a strong security posture against the software threats of the future.

Intelligent operations for complex environments: Introducing AI-powered Linux management with Lightspeed

According to a Red Hat-sponsored IDC study, “organizations [are] struggling to hire the Linux skill sets they need to operate and support their expanding fleet of distributions, which opens them up to further risk around security, compliance and application downtime. As technology demands continue to evolve and necessitate the use of more of these deployment scenarios and mechanisms, Red Hat is one of the few providers that can feasibly address all of them.”

Addressing this critical skills gap in Linux administration, Red Hat Enterprise Linux 10 introduces Red Hat Enterprise Linux Lightspeed. Integrating generative AI (gen AI) directly within the platform helps provide context-aware guidance and actionable recommendations through a natural language interface. Tapping decades of Red Hat Enterprise Linux-specific knowledge, it assists with tasks from troubleshooting common issues to best practices for managing complex IT estates. This empowers both newer and experienced IT professionals to manage vast Red Hat Enterprise Linux environments with greater efficiency by bringing AI-powered help straight to the command line in Red Hat Enterprise Linux 10.

Enhanced security features for the quantum frontier

Recognizing the long-term security implications of quantum computing, Red Hat Enterprise Linux 10 leads the industry as the first enterprise Linux distribution to integrate National Institute of Standards and Technology (NIST) standards for post-quantum cryptography. This proactive approach equips organizations to better defend against future “harvest now; decrypt later” attacks and meet evolving regulatory requirements. This includes incorporating quantum-resistant algorithms to mitigate the risk of future decryption of currently harvested data and post-quantum signature schemes to validate the integrity and authenticity of software packages and TLS certificates.

Unifying hybrid infrastructure and shifting decision-making left

Red Hat Enterprise Linux 10 delivers a paradigm shift in enterprise operating systems with image mode. This container-native approach unifies the build, deployment and management of both the operating system and applications within a single, streamlined workflow. Customers can now manage their entire IT landscape, from containerized applications to the underlying platform, with the same consistent tools and techniques. This approach significantly minimizes configuration drift by proactively preventing unexpected patch deviations and establishing a unified set of practices for application developers and IT operations teams.

IT organizations frequently need to make critical decisions at build time when it comes to the specific mix of packages in a standard operating environment (SOE). Red Hat Enterprise Linux 10 adds Red Hat Insights image builder package recommendations to help teams make more informed and tailored package decisions for their specific deployment before they impact production. Additionally, Red Hat Insights planning offers a view into the Red Hat Enterprise Linux roadmap and lifecycle, enhancing the platform’s future-readiness.

From cloud-native to AI-ready: Red Hat Enterprise Linux 10 powers what’s next

Red Hat Enterprise Linux’s decades-long legacy as the trusted backbone for production environments extends with Red Hat Enterprise Linux 10, underpinning both current and future technology needs. The latest version of the platform serves as the bedrock for Red Hat AI, Red Hat’s curated and optimized AI solutions that encompass Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI (RHEL AI).

Key additions in Red Hat Enterprise Linux 10 include capabilities and innovations to:

Availability

Red Hat Enterprise Linux 10 is now generally available through the Red Hat Customer Portal. Developers can also access Red Hat Enterprise Linux 10 via no-cost Red Hat Developer programs, offering a wealth of resources to get started, including software access, how-to videos, demos and documentation.

Supporting Quotes

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
 “Red Hat Enterprise Linux 10 is engineered to empower enterprise IT and developers to not just manage the present, but to architect the future. With intelligent features using gen AI, unified hybrid cloud management through image mode and a proactive approach to security with post-quantum cryptography, Red Hat Enterprise Linux 10 provides the robust and innovative foundation needed to thrive in the era of hybrid cloud and AI.”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
 “In collaboration with Red Hat, ABB is committed to extending operational consistency for industrial use cases across edge and hybrid cloud environments, transforming process automation and industrial controls for the future. Using image mode for Red Hat Enterprise Linux, ABB is able to simplify the operating system build process to streamline our development lifecycle and implement a standardized installation method. This results in faster product innovations and a more appliance-like workflow for deployments, so customers can spend less time in setup and focus more on putting ABB’s technologies to use to generate business outcomes.”

Ryan Caskey, research manager, IDC
“Due to evolving operational requirements, organizations can accumulate diverse Linux distributions, and the consistent maintenance of these heterogeneous environments can become increasingly challenging. Large-scale and intricate infrastructures, as well as teams that are routinely understaffed, underskilled and underfunded, present problems in need of solutions. Red Hat Enterprise Linux aims to establish a robust, foundational layer for both current and future IT strategic initiatives.”

Anish Bhatt, software architect, Salesforce

“In today’s increasingly complex technology landscape, managing infrastructure at scale can be a challenge. Image mode allows consolidation of our pipelines and build processes, which are increasingly geared towards containerization. It has also brought stability to our environments, reducing configuration drift and enabling a more consistent deployment experience. We can also upgrade between major and minor releases of Red Hat Enterprise Linux with less operational risk due to the ability to quickly roll back changes. Image mode is a meaningful step towards simplifying cloud-native application development and IT operations in a single pipeline.”

1IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

  • เป็นรากฐานที่แข็งแกร่งให้กับนวัตกรรมด้านไอที ช่วยเสริมการดำเนินงานบนไฮบริดคลาวด์ให้ชาญฉลาดมากขึ้นด้วยการใช้ AI เป็นพลังขับเคลื่อนการบริหารจัดการ Linux 
  • เพิ่มฟีเจอร์ด้านความปลอดภัยเพื่อช่วยบรรเทาภัยคุกคามจากควอนตัมคอมพิวติ้ง
  • บริหารจัดการระบบปฏิบัติการในรูปแบบเดียวกับคอนเทนเนอร์ มาพร้อมความสามารถใหม่ของ Red Hat Insights ที่ช่วยให้มีข้อมูลประกอบการตัดสินใจมากขึ้นตั้งแต่เริ่มสร้างแอปพลิเคชันหรือโซลูชัน
  • เสริมศักยภาพให้นักพัฒนาซอฟต์แวร์รุ่นต่อไป ด้วยการสนับสนุนและรองรับสถาปัตยกรรมเกิดใหม่ และนวัตกรรมทางซอฟต์แวร์

เร้ดแฮท ผู้ให้บริการด้านโซลูชันโอเพ่นซอร์สระดับโลกเปิดตัว Red Hat Enterprise Linux 10 ซึ่งเป็นความก้าวหน้าของแพลตฟอร์ม Linux ระดับองค์กรคุณภาพชั้นนำของโลก เพื่อตอบสนองความต้องการด้านไฮบริดคลาวด์และรองรับพลังแห่งการเปลี่ยนแปลงที่เกิดจาก AI ที่มีความเคลื่อนไหวตลอดเวลา Red Hat Enterprise Linux 10 ไม่ได้เป็นเพียงการปรับปรุงเวอร์ชันตามรอบเวลาเท่านั้น แต่ยังมอบกลยุทธ์และโครงสร้างหลักที่ชาญฉลาดให้แก่ฝ่ายไอทีองค์กร เพื่อจัดการกับความซับซ้อนที่เพิ่มขึ้น เร่งให้เกิดนวัตกรรม และสร้างโครงสร้างการประมวลผลที่ปลอดภัยมากขึ้นสำหรับอนาคต

การที่ฝ่ายไอทีขององค์กรต้องรับมือกับสภาพแวดล้อมไฮบริดที่เพิ่มขึ้นอย่างรวดเร็ว และความจำเป็นที่ต้องบูรณาการเวิร์กโหลด AI ต่าง ๆ ทำให้พวกเขาต้องการระบบปฏิบัติการที่ฉลาด ยืดหยุ่น และแข็งแกร่งอย่างมากอย่างไม่เคยเกิดขึ้นมาก่อน Red Hat Enterprise Linux 10 ช่วยให้องค์กรก้าวข้ามความท้าทายนี้ ด้วยการมอบแพลตฟอร์มที่ได้รับการออกแบบทางวิศวกรรมให้มีความคล่องตัว ยืดหยุ่น และบริหารจัดการได้ ในขณะที่ยังคงรักษาระดับความปลอดภัยต่อภัยคุกคามซอฟต์แวร์ในอนาคตได้อย่างรัดกุม

การทำงานอัจฉริยะบนสภาพแวดล้อมที่ซับซ้อน: Lightspeed คือการใช้พลังของ AI บริหารจัดการ Linux 

ข้อมูลจากการศึกษาของ IDC ที่เร้ดแฮทให้การสนับสนุนพบว่า องค์กรต่าง ๆ ใช้ความพยายามอย่างมากเพื่อนำชุดทักษะด้าน Linux ที่จำเป็นต้องใช้ในการบริหารจัดการ Linux Distribution ที่มีความหลากหลายเพิ่มขึ้นเรื่อย ๆ ซึ่งทำให้ต้องพบกับความเสี่ยงด้านความปลอดภัย การต้องปฏิบัติตามข้อกำหนด (compliance) ต่าง ๆ และการหยุดทำงานของแอปพลิเคชันมากขึ้น เร้ดแฮทเป็นผู้ให้บริการหนึ่งในไม่กี่รายที่สามารถตอบสนองความต้องการทางเทคโนโลยีที่ยังคงพัฒนาอย่างไม่หยุดยั้ง ตอบสนองต่อความจำเป็นในการใช้งาน รวมถึงกลไกต่าง ๆ ที่เพิ่มมากขึ้นเหล่านี้ได้ทั้งหมด

Red Hat Enterprise Linux 10 นำเสนอ Red Hat Enterprise Linux Lightspeed เพื่อแก้ปัญหาช่องว่างด้านทักษะสำคัญที่ต้องใช้ในการดูแลระบบ Linux โดยนำ generative AI (gen AI) ผสานรวมไว้ภายในแพลตฟอร์ม เพื่อแนะแนวทางที่เข้าใจบริบท และให้คำแนะนำที่สามารถปฏิบัติได้จริง ผ่านอินเทอร์เฟซภาษาธรรมชาติ (natural language interface) เร้ดแฮทมีความรู้เฉพาะด้าน Linux ระดับองค์กรมาหลายทศวรรษ และนำความเชี่ยวชาญเหล่านี้ช่วยทำงานต่าง ๆ ตั้งแต่การแก้ปัญหาปกติทั่วไป ไปจนถึงแนวทางปฏิบัติที่ดีที่สุดในการจัดการทรัพย์สินและทรัพยากรด้านไอทีทั้งหมดซึ่งเต็มไปด้วยความซับซ้อน ช่วยให้ผู้รับผิดชอบงานด้านไอทีทั้งที่เป็นคนใหม่และคนที่มีประสบการณ์อยู่แล้วสามารถจัดการสภาพแวดล้อมขนาดใหญ่ของ Red Hat Enterprise Linux ได้มีประสิทธิภาพมากขึ้น ด้วยการนำความช่วยเหลือที่ใช้ความสามารถของ AI ส่งตรงไปยัง command line ใน Red Hat Enterprise Linux 10

ฟีเจอร์ความปลอดภัยประสิทธิภาพสูง รองรับการมาถึงของควอนตัม

เร้ดแฮทตระหนักถึงผลกระทบด้านความปลอดภัยในระยะยาวของควอนตัมคอมพิวติ้ง และ Red Hat Enterprise Linux 10 เป็นผู้นำรายแรกในอุตสาหกรรมที่นำ enterprise Linux distribution บูรณาการกับมาตรฐานต่าง ๆ ของ National Institute of Standards and Technology (NIST) เพื่อรองรับการเข้ารหัสหลังควอนตัม (post-quantum cryptography) แนวทางเชิงรุกนี้เสริมแกร่งให้องค์กรสามารถป้องกันการโจมตีในอนาคต ในลักษณะ harvest now; decrypt later หรือการที่อาชญากรไซเบอร์เก็บข้อมูลหรือเป้าหมายไว้ก่อนแล้วถอดรหัสภายหลังเมื่อเทคโนโลยีเอื้ออำนวย ทั้งยังช่วยให้สามารถทำตามกฎระเบียบที่เปลี่ยนแปลงไปได้ แนวทางนี้รวมถึงการผสมผสานอัลกอริธึม quantum-resistant ต่าง ๆ เพื่อลดความเสี่ยงของการถอดรหัสข้อมูลที่เก็บไว้ปัจจุบันในอนาคต และ post-quantum signature schemes เพื่อตรวจสอบความสมบูรณ์และความถูกต้องของชุดซอฟต์แวร์และใบรับรอง TLS

โครงสร้างพื้นฐานไฮบริดที่รวมเป็นหนึ่งเดียว และการตัดสินใจเมื่อเริ่มออกแบบโซลูชัน

Red Hat Enterprise Linux 10 นำเสนอการเปลี่ยนกระบวนทัศน์ (paradigm shift) ระบบปฏิบัติการขององค์กร ในรูปแบบอิมเมจโหมด (image mode) ซึ่งเป็นคอนเทนเนอร์-เนทีฟ ที่รวมการสร้าง การใช้งาน และการจัดการระบบปฏิบัติการและแอปพลิเคชัน ไว้ในเวิร์กโฟลว์หนึ่งเดียวที่ทรงประสิทธิภาพ ปัจจุบันลูกค้าสามารถบริหารจัดการแลนด์สเคปด้านไอทีทั้งหมด ไม่ว่าจะเป็นคอนเทนเนอร์ไลซ์แอปพลิเคชัน ไปจนถึงแพลตฟอร์มพื้นฐาน ด้วยเครื่องมือและเทคนิคที่สอดคล้องเป็นแบบเดียวกัน ซึ่งช่วยลดความคลาดเคลื่อนของการกำหนดค่า (configuration) ได้อย่างมาก สามารถป้องกันความคลาดเคลื่อนของการแพตช์ได้ในเชิงรุก และสร้างชุดแนวทางปฏิบัติชุดเดียวที่ใช้ได้ทั้งกับนักพัฒนาแอปพลิเคชันและทีมปฏิบัติการด้านไอที

องค์กรด้านไอทีมักต้องทำการตัดสินใจสำคัญในเรื่องของการผสมผสานแพ็คเกจเฉพาะทางในสภาพแวดล้อมการทำงานมาตรฐาน (SOE) ในขณะที่กำลังสร้างโซลูชันต่าง ๆ เร้ดแฮทได้เพิ่มคำแนะนำแพ็คเกจตัวสร้างอิมเมจ Red Hat Insights ไว้ใน Red Hat Enterprise Linux 10 เพื่อช่วยให้ทีมทำงานมีข้อมูลมากขึ้นในการตัดสินใจเกี่ยวกับแพ็คเกจที่ปรับให้เหมาะกับตนก่อนที่จะนำไปใช้งานจริง นอกจากนี้ Red Hat Insights planning ยังนำเสนอมุมมองเกี่ยวกับโรดแมปและไลฟ์ไซเคิลของ Red Hat Enterprise Linux ซึ่งเป็นการเพิ่มประสิทธิภาพให้แพลตฟอร์มมีความพร้อมใช้ในอนาคต

จากคลาวด์-เนทีฟ สู่ AI-ready: Red Hat Enterprise Linux 10 เป็นพลังรองรับอนาคต

Enterprise Linux 10 รองรับความต้องการทางเทคโนโลยีทั้งในปัจจุบันและอนาคต และเป็นเวอร์ชันที่เข้ามาเพิ่มเติมประวัติความเป็นมาของ Red Hat Enterprise Linux ที่มีมานานหลายทศวรรษในฐานะเทคโนโลยีหลักที่เชื่อถือได้ว่าสามารถนำไปใช้งานได้จริงตามวัตถุประสงค์ด้านต่าง ๆ แพลตฟอร์มเวอร์ชันล่าสุดนี้ทำหน้าที่เป็นฐานให้กับ Red Hat AI ซึ่งเป็นโซลูชันด้าน AI ของเร้ดแฮทที่ได้รับการจัดการและปรับแต่งให้เหมาะสม ครอบคลุมถึง Red Hat AI Inference Server, Red Hat OpenShift AI และ Red Hat Enterprise Linux AI (RHEL AI)

ความสามารถและนวัตกรรมสำคัญที่เพิ่มเติมอยู่ใน Red Hat Enterprise Linux 10 ประกอบด้วย

  • เตรียมพร้อมสำหรับไฮบริดคลาวด์ตั้งแต่วันนี้ ด้วย Red Hat Enterprise Linux images บน AWS, Google Cloud และ Microsoft Azure ที่ได้รับการปรับแต่งล่วงหน้า มีการซัพพอร์ตอย่างเต็มที่ และพร้อมใช้
  • ชุดเครื่องมือไอทีมากขึ้น ด้วยซอฟต์แวร์ที่ได้รับการสนับสนุนจากชุมชน เช่น Podman Desktop ผ่าน Red Hat Enterprise Linux extensions repository ที่มาพร้อมความสะดวกและปลอดภัยมากขึ้น
  • สร้างนวัตกรรมด้วยความมั่นใจ ด้วยประโยชน์จาก partner-validated solutions ที่สร้างบนฮาร์ดแวร์สำหรับ AI ที่ล้ำสมัย และเวิร์กโหลดหนัก ๆ อื่น ๆ นับเป็นการขับเคลื่อนขอบเขตสิ่งที่เป็นไปได้ด้วยทางเลือกในการใช้งานที่มากขึ้น
  • สำรวจสถาปัตยกรรมใหม่ ๆ และเริ่มต้นพัฒนาก่อนใครสำหรับ RISC-V platform with a Red Hat Enterprise Linux 10 developer preview โดยร่วมมือกับ SiFive นำเสนอการเข้าถึงแพลตฟอร์มที่ปลอดภัยและเชื่อถือได้มากขึ้นสำหรับสถาปัตยกรรม HiFive P550 RISC-V 
  • ปรับแต่งกลยุทธ์ด้านความปลอดภัย ด้วยทางเลือกที่มากขึ้นและรักษาความปลอดภัย Linux ได้อย่างง่ายดาย ผ่าน Red Hat Enterprise Linux Security Select Add-On ที่กำลังจะมีให้บริการ ซึ่งมอบความสามารถในการ request fixes ให้กับ Common Vulnerabilities and Exposures (CVEs) ที่เจาะจงได้มากถึง 10 รายการต่อปี 

การวางจำหน่าย

Red Hat Enterprise Linux 10 เปิดวางตลาด (generally available: GA) แล้ว ผ่าน Red Hat Customer Portal นักพัฒนาซอฟต์แวร์ยังสามารถเข้าใช้ Red Hat Enterprise Linux 10 ผ่านโปรแกรม Red Hat Developer โดยไม่มีค่าใช้จ่าย ซึ่งจะได้พบกับทรัพยากรมากมายที่จะใช้เริ่มต้นทำงาน รวมถึงการให้เข้าถึงซอฟต์แวร์ วิดีโอสอนวิธีการต่าง ๆ การสาธิตการใช้งาน และเอกสารประกอบ 

คำกล่าวสนับสนุน

Gunnar Hellekson, vice president and general manager, Red Hat Enterprise Linux, Red Hat
“Red Hat Enterprise Linux 10 ได้รับการออกแบบโครงสร้างมาเพื่อเสริมประสิทธิภาพด้านการบริหารจัดการทั้งในปัจจุบันและอนาคตให้กับฝ่ายไอทีองค์กรและนักพัฒนาซอฟต์แวร์ Red Hat Enterprise Linux 10 เป็นฐานที่แข็งแกร่งและเป็นนวัตกรรมที่จำเป็นต่อการเติบโตในยุคไฮบริดคลาวด์และ AI โดยมอบฟีเจอร์ที่ชาญฉลาดที่ใช้ gen AI มอบการบริหารจัดการไฮบริดคลาวด์อย่างเป็นหนึ่งเดียวผ่านอิมเมจโหมด และมอบวิธีการด้านความปลอดภัยเชิงรุกผ่านการเข้ารหัสหลังควอนตัม (post-quantum cryptography)”

Stefan Basenach, senior vice president, Process Automation Technology, ABB
“ความร่วมมือกับเร้ดแฮทครั้งนี้ จะช่วยให้ ABB เพิ่มประสิทธิภาพการปฏิบัติงานของกรณีใช้งานในอุตสาหกรรมให้สอดคล้องกันทั้งบนสภาพแวดล้อมไฮบริดคลาวด์ และ edge เป็นการปรับเปลี่ยนกระบวนการอัตโนมัติและการควบคุมทางอุตสาหกรรมเพื่ออนาคต อิมเมจโหมดของ Red Hat Enterprise Linux ช่วย ABB ลดความซับซ้อนของกระบวนการสร้างระบบปฏิบ้ติงาน เพื่อเพิ่มประสิทธิภาพไลฟ์ไซเคิลด้านการพัฒนาซอฟต์แวร์และสามารถใช้วิธีการติดตั้งที่เป็นมาตรฐาน ซึ่งส่งผลให้สามารถสร้างผลิตภัณฑ์ใหม่ ๆ ได้เร็วขึ้น และมี workflow ที่ง่ายและตรงไปตรงมาเหมือนกับการใช้เครื่องใช้ไฟฟ้าทั่วไป สำหรับการพัฒนาต่าง ๆ มากขึ้น ดังนั้นลูกค้าสามารถใช้เวลาในการติดตั้งน้อยลง และมุ่งเน้นไปที่การนำเทคโนโลยีของ ABB ไปในสร้างผลลัพธ์ทางธุรกิจได้มากขึ้น”

Ryan Caskey, research manager, IDC

“องค์กรสามารถรวบรวม Linux distributions ที่หลากหลาย เนื่องจากความต้องการด้านการปฏิบัติงานเปลี่ยนแปลงอยู่เสมอ การบำรุงรักษาสภาพแวดล้อมที่ต่างกันเหล่านี้อย่างสม่ำเสมออาจกลายเป็นความท้าทายมากขึ้นเรื่อย ๆ โครงสร้างพื้นฐานขนาดใหญ่และซับซ้อน รวมถึงทีมงานที่มักขาดคน ขาดทักษะ และมีงบประมาณสนับสนุนไม่เพียงพอ เป็นปัญหาในปัจจุบันที่ต้องการการแก้ไข Red Hat Enterprise Linux ตอบสนองความต้องการนี้ ด้วยความมุ่งมั่นในการสร้างเลเยอร์พื้นฐานที่แข็งแกร่ง รองรับการดำเนินการเชิงกลยุทธ์ด้านไอทีทั้งในปัจจุบันและอนาคต”

Anish Bhatt, software architect, Salesforce
“แลนด์สเคปทางเทคโนโลยีมีความซับซ้อนมากขึ้นเรื่อย ๆ ในปัจจุบัน ทำให้การบริหารจัดการโครงสร้างพื้นฐานขนาดใหญ่อาจเป็นเรื่องท้าทาย อิมเมจโหมดช่วยให้สามารถผสานรวมไปป์ไลน์ของเรา และสร้างกระบวนการต่าง ๆ ที่มุ่งไปในทิศทางของคอนเทนเนอร์ไลซ์เซชันมากขึ้น ทั้งยังช่วยให้สภาพแวดล้อมไอทีมีความเสถียร ลดความคลาดเคลื่อนของการกำหนดค่า (Configuration Drift) และทำให้การกำหนดค่าของระบบสอดคล้องเป็นไปในทิศทางเดียวกัน เรายังสามารถอัปเกรดระหว่าง Red Hat Enterprise Linux major และ minor releases ด้วยความเสี่ยงในการทำงานที่น้อยลง เพื่อให้สามารถ roll back ได้อย่างรวดเร็ว อิมเมจโหมดเป็นก้าวที่มีความหมายต่อการใช้คลาวด์-เนทีฟแอปพลิเคชันและการปฏิบัติงานด้านไอทีที่ง่ายขึ้นด้วยการเชื่อมโยง (pipeline) หนึ่งเดียว”

IDC FutureScape: Worldwide Digital Infrastructure 2025 Predictions, Document #US51665124, Oct 2024

แหล่งข้อมูลเพิ่มเติม

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

Red Hat AI Inference Server, powered by vLLM and enhanced with Neural Magic technologies, delivers faster, higher-performing and more cost-efficient AI inference across the hybrid cloud

Red Hat, the world’s leading provider of open source solutions, today announced Red Hat AI Inference Server, a significant step towards democratizing generative AI (gen AI) across the hybrid cloud. A new offering within Red Hat AI, the enterprise-grade inference server is born from the powerful vLLM community project and enhanced by Red Hat’s integration of Neural Magic technologies, offering greater speed, accelerator-efficiency and cost-effectiveness to help deliver Red Hat’s vision of running any gen AI model on any AI accelerator in any cloud environment. Whether deployed standalone or as an integrated component of Red Hat Enterprise Linux AI (RHEL AI) and Red Hat OpenShift AI, this breakthrough platform empowers organizations to more confidently deploy and scale gen AI in production.

Inference is the critical execution engine of AI, where pre-trained models translate data into real-world impact. It’s the pivotal point of user interaction, demanding swift and accurate responses. As gen AI models explode in complexity and production deployments scale, inference can become a significant bottleneck, devouring hardware resources and threatening to cripple responsiveness and inflate operational costs. Robust inference servers are no longer a luxury but a necessity for unlocking the true potential of AI at scale, navigating underlying complexities with greater ease.

Red Hat directly addresses these challenges with Red Hat AI Inference Server – an open inference solution engineered for high performance and equipped with leading model compression and optimization tools. This innovation empowers organizations to fully tap into the transformative power of gen AI by delivering dramatically more responsive user experiences and unparalleled freedom in their choice of AI accelerators, models, and IT environments.

vLLM: Extending inference innovation

Red Hat AI Inference Server builds on the industry-leading vLLM project, which was started by UC Berkeley in mid-2023. The community project delivers high-throughput gen AI inference, support for large input context, multi-GPU model acceleration, support for continuous batching, and more.

vLLM’s broad support for publicly available models – coupled with its day zero integration of leading frontier models including DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi and others, as well as open, enterprise-grade reasoning models like Llama Nemotron – positions it as a de facto standard for future AI inference innovation. Leading frontier model providers are increasingly embracing vLLM, solidifying its critical role in shaping gen AI’s future.

Introducing Red Hat AI Inference Server

Red Hat AI Inference Server packages the leading innovation of vLLM and forges it into the enterprise-grade capabilities of Red Hat AI Inference Server. Red Hat AI Inference Server is available as a standalone containerized offering or as part of both RHEL AI and Red Hat OpenShift AI.

Across any deployment environment, Red Hat  Inference Server provides users with a hardened, supported distribution of vLLM along with:

  • Intelligent LLM compression tools for dramatically reducing the size of both foundational and fine-tuned AI models, minimizing compute consumption while preserving and potentially enhancing model accuracy.
  • Optimized model repository, hosted in the Red Hat AI organization on Hugging Face, offers instant access to a validated and optimized collection of leading AI models ready for inference deployment, helping to accelerate efficiency by 2-4x without compromising model accuracy.
  • Red Hat’s enterprise support and decades of expertise in bringing community projects to production environments.
  • Third-party support for even greater deployment flexibility, enabling Red Hat AI Inference Server to be deployed on non-Red Hat Linux and Kubernetes platforms pursuant to Red Hat’s 3rd Party Support Policy.

Red Hat’s vision: Any model, any accelerator, any cloud.

The future of AI must be defined by limitless opportunity, not constrained by infrastructure silos. Red Hat sees a horizon where organizations can deploy any model, on any accelerator, across any cloud, delivering an exceptional, more consistent user experience without exorbitant costs. To unlock the true potential of gen AI investments, enterprises require a universal inference platform – a standard for more seamless, high-performance AI innovation, both today and in the years to come.

Just as Red Hat pioneered the open enterprise by transforming Linux into the bedrock of modern IT, the company is now poised to architect the future of AI inference. vLLM’s potential is that of a linchpin for standardized gen AI inference, and Red Hat is committed to building a thriving ecosystem around not just the vLLM community but also llm-d for distributed inference at scale. The vision is clear: regardless of the AI model, the underlying accelerator or the deployment environment, Red Hat intends to make vLLM the definitive open standard for inference across the new hybrid cloud.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“Inference is where the real promise of gen AI is delivered, where user interactions are met with fast, accurate responses delivered by a given model, but it must be delivered in an effective and cost-efficient way. Red Hat AI Inference Server is intended to meet the demand for high-performing, responsive inference at scale while keeping resource demands low, providing a common inference layer that supports any model, running on any accelerator in any environment.”

Ramine Roane, corporate vice president, AI Product Management, AMD

“In collaboration with Red Hat, AMD delivers out-of-the-box solutions to drive efficient generative AI in the enterprise. Red Hat AI Inference Server enabled on AMD Instinct™ GPUs equips organizations with enterprise-grade, community-driven AI inference capabilities backed by fully validated hardware accelerators.”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads need speed, consistency, and flexibility, which is exactly what the Red Hat AI Inference Server is designed to deliver. This innovation offers Cisco and Red Hat opportunities to continue to collaborate on new ways to make AI deployments more accessible, efficient and scalable—helping organizations prepare for what’s next.”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“Intel is excited to collaborate with Red Hat to enable Red Hat AI Inference Server on Intel® Gaudi® accelerators. This integration will provide our customers with an optimized solution to streamline and scale AI inference, delivering advanced performance and efficiency for a wide range of enterprise AI applications.”

John Fanelli, vice president, Enterprise Software, NVIDIA

“High-performance inference enables models and AI agents not just to answer, but to reason and adapt in real time. With open, full-stack NVIDIA accelerated computing and Red Hat AI Inference Server, developers can run efficient reasoning at scale across hybrid clouds, and deploy with confidence using Red Hat Inference Server with the new NVIDIA Enterprise AI validated design.”

 

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat AI Inference Server ขับเคลื่อนโดย vLLM เพิ่มประสิทธิภาพด้วยเทคโนโลยีของ Neural Magic มอบการอนุมาน AI ที่เร็วขึ้น มีประสิทธิภาพสูง และคุ้มค่าใช้จ่าย ทำงานได้กับทุกไฮบริดคลาวด์

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI Inference Server ก้าวสำคัญที่จะทำให้ generative AI (gen AI) กลายเป็นเทคโนโลยีที่ใครก็ใช้ได้บนไฮบริดคลาวด์ทุกแห่ง โซลูชันใหม่นี้นำเสนออยู่ใน Red Hat AI เป็นเซิร์ฟเวอร์อนุมานระดับองค์กรที่เกิดจากโปรเจกต์จาก vLLM community อันทรงพลัง และเร้ดแฮทเพิ่มประสิทธิภาพด้วยการผสานรวมเข้ากับเทคโนโลยี Neural Magic ทำให้มีความเร็วมากขึ้น ช่วยเพิ่มประสิทธิภาพให้ accelerator และคุ้มค่าใช้จ่าย เป็นการตอบวิสัยทัศน์ของเร้ดแฮทในการมอบการใช้งานโมเดล gen AI ใด ๆ บน AI accelerator ใด ๆ ก็ได้ บนทุกสภาพแวดล้อมคลาวด์ แพลตฟอร์มที่ล้ำหน้านี้ช่วยให้องค์กรต่าง ๆ ใช้และสเกล gen AI สู่การทำงานเป็นรูปธรรมได้อย่างมั่นใจมากขึ้น ไม่ว่าจะใช้งานแบบสแตนด์อโลน หรือผสานเป็นส่วนประกอบของ Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI ก็ตาม

การอนุมานเป็นเครื่องมือทำงานที่สำคัญของ AI โดยโมเดลที่ผ่านการเทรนล่วงหน้าจะแปลงข้อมูลให้เป็นการใช้งานในสถานการณ์จริง ซึ่งเป็นจุดสำคัญของการปฏิสัมพันธ์กับผู้ใช้ ที่ต้องการการตอบสนองอย่างฉับไวและแม่นยำ การที่โมเดล gen AI ทั้งหลายขยายตัวอย่างรวดเร็วตามขนาดการใช้งานจริงและมีความซับซ้อน ทำให้การอนุมาน (inference) อาจกลายเป็นคอขวดที่เป็นอุปสรรคสำคัญ สิ้นเปลืองทรัพยากรฮาร์ดแวร์ และเป็นเหตุให้การตอบสนองไม่มีประสิทธิภาพ ทั้งยังทำให้ค่าใช้จ่ายในการดำเนินงานเพิ่มขึ้น ดังนั้น เซิร์ฟเวอร์การอนุมานที่มีประสิทธิภาพแข็งแกร่งไม่ใช่สิ่งฟุ่มเฟือยอีกต่อไป แต่เป็นสิ่งจำเป็นที่จะช่วยปลดล็อกให้ได้ใช้ศักยภาพที่แท้จริงของ AI ในวงกว้าง และการใช้งานที่ง่ายขึ้นอย่างมากจะช่วยขจัดความซับซ้อนที่ซ่อนอยู่ได้

เร้ดแฮทเจาะจงจัดการความท้าทายเหล่านี้ด้วย Red Hat AI Inference Server ซึ่งเป็นโซลูชันการอนุมานแบบโอเพ่นที่ออกแบบมาเพื่อมอบประสิทธิภาพที่สูง มีเครื่องมือบีบอัดและเพิ่มประสิทธิภาพโมเดลที่มีประสิทธิภาพชั้นนำติดตั้งมาพร้อม นวัตกรรมนี้ช่วยเสริมให้องค์กรใช้สมรรถนะของ gen AI ได้อย่างเต็มที่ด้วยการมอบประสบการณ์การตอบสนองที่ดีขึ้นอย่างมากให้กับผู้ใช้ และผู้ใช้มีอิสระในการเลือกใช้ AI accelerators เลือกใช้โมเดลและสภาพแวดล้อมไอทีได้ตามต้องการ

vLLM: การขยายนวัตกรรมด้านการอนุมาน

Red Hat AI Inference Server สร้างจากโปรเจกต์ vLLM ชั้นนำในวงการที่เริ่มต้นพัฒนาโดย University of California, Berkeley เมื่อกลางปี พ.ศ. 2566 โปรเจกต์ของคอมมิวนิตี้นี้ มอบการอนุมาน gen AI ที่มีปริมาณงานในช่วงเวลาหนึ่ง ๆ ที่สูง (high-throughput gen AI inference) รองรับอินพุตขนาดใหญ่, multi-GPU model acceleration, การแบทช์ต่อเนื่อง และอื่น ๆ อีกมาก

vLLM สนับสนุนการใช้งานในวงกว้างกับโมเดลต่าง ๆ ที่เปิดเป็นสาธารณะ ควบคู่กับการบูรณาการเข้ากับโมเดลชั้นนำต่าง ๆ ตั้งแต่ day zero ซึ่งรวมถึง DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi และอื่น ๆ รวมถึงโมเดลการใช้เหตุผลระดับองค์กรแบบเปิด เช่น Llama Nemotron นับได้ว่าเป็นมาตรฐานที่ได้รับการยอมรับและใช้กันโดยทั่วไปสำหรับนวัตกรรมการอนุมาน AI ในอนาคต การที่ผู้ให้บริการโมเดลระดับแนวหน้าต่างใช้ vLLM มากขึ้น ทำให้ vLLM มีบทบาทสำคัญต่ออนาคตของ gen AI

การเปิดตัว Red Hat AI Inference Server

Red Hat AI Inference Server มัดรวมนวัตกรรมชั้นนำของ vLLM และหลอมรวมเข้ากับความสามารถระดับองค์กรของ Red Hat AI Inference Server มีให้บริการทั้งแบบสแตนด์อโลนในรูปแบบคอนเทนเนอร์ หรือ ให้บริการเป็นส่วนหนึ่งของ RHEL AI และ Red Hat OpenShift AI

Red Hat AI Inference Server มอบการกระจาย vLLM ที่แข็งแกร่ง และใช้ได้กับสภาพแวดล้อมการใช้งานทุกแบบให้แก่ผู้ใช้ ซึ่งมาพร้อมด้วย:

  • Intelligent LLM compression tools เพื่อลดขนาดของโครงสร้างพื้นฐาน และปรับแต่งโมเดล AI อย่างละเอียด ลดการใช้การประมวลผลให้เหลือน้อยที่สุด ในขณะที่ยังคงรักษาและเพิ่มความแม่นยำของโมเดลได้
  • พื้นที่เก็บข้อมูลโมเดลที่ปรับให้เหมาะสม ซึ่งโฮสต์อยู่ใน Red Hat AI organization บน Hugging Face ช่วยให้เข้าถึงคอลเลกชันของโมเดล AI ชั้นนำที่ได้รับการตรวจสอบและปรับให้เหมาะสม และพร้อมสำหรับใช้ในการอนุมานได้ทันที ซึ่งช่วยเร่งประสิทธิภาพความเร็วได้ 2-4 เท่า โดยไม่กระทบต่อความแม่นยำของโมเดล
  • การสนับสนุนระดับองค์กรของเร้ดแฮท และความเชี่ยวชาญที่สั่งสมหลายทศวรรษในการนำโปรเจกต์ต่าง ๆ จากคอมมิวนิตี้มาสู่การผลิตใช้งานจริง
  • การสนับสนุนจากบุคคลภายนอก (third-party) เพื่อให้เกิดความยืดหยุ่นในการใช้ Red Hat AI Inference Server ได้บน non-Red Hat Linux และ แพลตฟอร์ม Kubernetes ต่าง ๆ ซึ่งเป็นไปตามนโยบายสนับสนุน third-party ของเร้ดแฮท

วิสัยทัศน์ของเร้ดแฮท: โมเดลใดก็ได้, accelerator ใดก็ได้, คลาวด์ใดก็ได้

อนาคตของ AI ต้องถูกกำหนดโดยโอกาสที่ไร้ขีดจำกัด และไม่ถูกจำกัดด้วยโครงสร้างพื้นฐานที่เป็นไซโล เร้ดแฮทมองเห็นแนวทางที่องค์กรต่าง ๆ จะสามารถใช้โมเดลใดก็ได้ กับ accelerator ใดก็ได้ บนคลาวด์ใด ๆ ก็ได้ และมอบประสบการณ์ที่ยอดเยี่ยมและสม่ำเสมอให้กับผู้ใช้งานด้วยค่าใช้จ่ายที่เหมาะสม องค์กรต่างต้องการแพลตฟอร์มการอนุมานที่เป็นสากล เป็นมาตรฐานให้กับนวัตกรรม AI ประสิทธิภาพสูงได้อย่างไม่ติดขัด ทั้งในวันนี้และอีกหลาย ๆ ปีที่จะตามมา เพื่อปลดล็อกศักยภาพที่แท้จริงจากการลงทุนด้าน gen AI

เร้ดแฮทพร้อมที่จะวางฐานรากสถาปัตยกรรมเพื่อเป็นฐานอนาคตของการอนุมาน AI เช่นเดียวกับการที่บริษัทฯ เคยบุกเบิกองค์กรแบบเปิดด้วยการทรานส์ฟอร์ม Linux ให้เป็นฐานของไอทียุคใหม่ ศักยภาพของ vLLM เป็นสิ่งสำคัญต่อการอนุมาน gen AI ที่เป็นมาตรฐาน เร้ดแฮทมุ่งมั่นสร้างระบบนิเวศที่ครบครันให้กับไม่เพียง vLLM community เท่านั้น แต่ยังรวมถึง llm-d สำหรับการอนุมานแบบกระจาย (distributed inference) อีกด้วย ด้วยวิสัยทัศน์ที่ชัดเจน ไม่ว่าจะเป็นโมเดล AI, underlying accelerator หรือสภาพแวดล้อมการใช้งานจะเป็นเช่นไร เร้ดแฮทตั้งใจทำให้ vLLM เป็นมาตรฐานเปิดที่สมบูรณ์แบบที่สุดสำหรับการอนุมานบนไฮบริดคลาวด์

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“การอนุมานเป็นการบอกว่าได้มีการใช้ประโยชน์อย่างแท้จริงจาก gen AI  โดยการปฏิสัมพันธ์ของผู้ใช้จะได้รับการตอบสนองที่รวดเร็วและแม่นยำจากโมเดลที่กำหนด แต่จะต้องได้รับการส่งมอบให้ใช้ด้วยวิธีการที่มีประสิทธิภาพและคุ้มค่าใช้จ่าย วัตถุประสงค์ของ Red Hat AI Inference Server คือการตอบสนองความต้องการด้านการอนุมานที่มีประสิทธิภาพสูงและมีปฏิสัมพันธ์ได้ตามต้องการ ในขณะเดียวกัน ก็รักษาความต้องการใช้ทรัพยากรให้อยู่ในระดับต่ำ จัดให้มีเลเยอร์การอนุมานทั่วไปที่รองรับโมเดลใดก็ได้ รันบน accelerator ใดก็ได้ บนทุกสภาพแวดล้อม”

Ramine Roane, corporate vice president, AI Product Management, AMD

“ความร่วมมือกับเร้ดแฮทช่วยให้ AMD นำเสนอโซลูชันล้ำสมัยเพื่อขับเคลื่อนให้องค์กรใช้ generative AI ได้อย่างมีประสิทธิภาพ Red Hat AI Inference Server ที่ใช้ขุมพลังกราฟิกการ์ด AMD Instinct™ ช่วยให้องค์กรต่าง ๆ มีขีดความสามารถในการอนุมานด้าน AI ที่ขับเคลื่อนโดยคอมมิวนิตี้ระดับองค์กร ซึ่งได้รับการสนับสนุนเบื้องหลังด้วย hardware accelerators ที่ผ่านการตรวจสอบอย่างครบถ้วน”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads ต้องการความเร็ว ความสม่ำเสมอ และความยืดหยุ่น ซึ่งเป็นสิ่งที่ Red Hat AI Inference Server มี นวัตกรรมนี้เปิดแนวทางความร่วมมือใหม่ ๆ ระหว่างซิสโก้และเร้ดแฮท เพื่อทำให้การใช้ AI เข้าถึงได้มากขึ้น มีประสิทธิภาพและปรับขนาดได้ ซึ่งเป็นการช่วยให้องค์กรเตรียมพร้อมรับสิ่งที่จะเกิดขึ้นในอนาคต”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“อินเทลรู้สึกตื่นเต้นที่ได้ร่วมมือกับเร้ดแฮท เพื่อใช้ Red Hat AI Inference Server กับ Intel® Gaudi® accelerators การบูรณาการนี้จะช่วยให้ลูกค้าของเรามีโซลูชันที่ได้รับการปรับให้เหมาะสม เพื่อเพิ่มประสิทธิภาพและปรับขนาดการอนุมาน AI และมอบสมรรถนะและประสิทธิภาพล้ำหน้าให้กับแอปพลิเคชัน AI ระดับองค์กรในวงกว้าง”

John Fanelli, vice president, Enterprise Software, NVIDIA

“การอนุมานประสิทธิภาพสูงไม่เพียงแต่ช่วยให้โมเดลและ AI agents ต่าง ๆ สามารถตอบคำถามได้เท่านั้น แต่ยังสามารถให้หรือใช้เหตุผลและปรับตัวได้แบบเรียลไทม์ โดย NVIDIA accelerated computing และ Red Hat AI Inference Server แบบฟูลสแตก (full-stack) และเป็นแบบเปิด จะช่วยให้นักพัฒนาสามารถเรียกใช้งานการทำงานเชิงให้เหตุผลบนไฮบริดคลาวด์ได้อย่างมีประสิทธิภาพในวงกว้างและปรับใช้ได้อย่างมั่นใจ โดยใช้ Red Hat Inference Server กับการออกแบบที่ผ่านการตรวจสอบใหม่ของ NVIDIA Enterprise AI”

Future-proof your tech career: 6 essential human skills for the AI era

Future-proof your tech career: 6 essential human skills for the AI era

Future-proof your tech career: 6 essential human skills for the AI era

Article by: Deb Richardson, Senior Content Strategist, Red Hat Blog

The tech industry is changing as quickly as artificial intelligence (AI) is evolving. Every day we’re seeing new tools emerge to help streamline repetitive tasks, augment creative endeavours and improve decision-making.

Many people are anxious about what the proliferation of AI tools means for the future of their job and career. And that’s completely understandable—these tools are often mindblowing in what they can do based on a handful of simple prompts.

Generative AI (gen AI) is practically brand new but can already:

  • Generate code
  • Write marketing copy
  • Produce graphic design
  • Create art in a vast array of styles
  • Generate full videos, including scripts and music
  • Formulate strategic business plans
  • Develop social media posts
  • …and more

So it’s not surprising that many of us are nervous about our future employment prospects.

But all is not lost.

While it’s essential for most people in the tech industry to learn how to effectively use these new AI-infused tools, there are some human capabilities that machines can’t match—deeply human skills such as intuitive design, creative problem-solving and empathetic understanding. These and other soft skills determine your ability to innovate, to communicate effectively and to navigate complex problems in ways that AI simply can’t replicate.

In this article we dig into some of the soft skills that tech professionals should focus on developing to adapt and thrive in this new age of AI.

6 vital soft skills for an era of AI

While there are an enormous number of AI tools being introduced across our industry, many of which are focused on specific roles and tasks, the soft skills tend to be more universal and things we should all focus on developing and improving, regardless of our role.

  1. Problem-solving

For all that gen AI can do, it cannot match human problem-solving capabilities. It can generate code, but humans are still needed to design efficient and scalable systems, troubleshoot unexpected issues and watch for the bugs and potential security issues that these AI tools can introduce.

While gen AI can help monitor for and discover security anomalies, humans are still needed to evaluate and rate the criticality of these risks. AI-driven automation can perform a huge array of repetitive tasks, but it still needs to be carefully designed and actively monitored.

On the marketing and communications side of things, AI sentiment analysis tools can help quickly detect potential issues, but human judgement is needed in order to respond effectively and defend or build a brand’s reputation.

How to get started

Developing your foundational problem-solving skills is something that happens naturally over time, but there are loads of articles and courses out there that can help you approach it more deliberately and methodically.

  1. Critical thinking

AI is still far from perfect, as large language models (LLMs) are fundamentally limited by their training and the data used in the training process. If you’re using any of these new tools, you should hone your ability to critically evaluate AI outputs, understand their limitations and learn how to identify model biases and potentially toxic or problematic output.

While AI is excellent at detecting patterns, it takes a human to interpret those patterns properly and to spot anomalies that the AI may miss or misinterpret. Avoiding bias and similarly complicated ethical issues also requires human intelligence, as does making sure that AI-enhanced tools and processes continue to meet legal and compliance requirements.

How to get started

While critical thinking can improve naturally with experience, like problem solving it is a skillset that can be deliberately developed over time. It has been said that learning critical thinking skills is the most important part of an undergrad degree, but you don’t have to go to university to build these skills.

LinkedIn Learning has a wide variety of courses focused on improving your critical thinking, as does Khan Academy and Udemy. Of course there’s no shortage of books on the topic as well.

  1. Collaboration

Humans’ ability to collaborate, cooperate and work together is one of our greatest strengths. As the saying goes, “none of us is as good as all of us.” Current AI is still fundamentally limited in this way—it simply cannot match humans’ ability to build relationships and work together.

When developing AI applications, engineers will have to work closely with an ever increasing number of AI specialists, data scientists, product and project managers and other stakeholders. And of course collaboration skills are utterly vital in open source projects, and are the very foundation of how they work.

In other disciplines, such as public relations (PR) and communications, we can use AI to analyze sentiment and media trends, but it takes humans to develop and maintain strong relationships with journalists, partners and other stakeholders. 

How to get started

Collaboration skills are essential for effective teamwork and building trust. There are books you can read and courses you can take (on all of the previously mentioned learning platforms), but you can get started over on YouTube.

  1. Communication

Communication skills are also vital across disciplines in the tech industry. Engineers have to be able to clearly articulate technical ideas and strategic approaches to design and architecture problems, which AI is unable to do.

Security experts have to be able to interpret AI’s findings and communicate those insights so leadership and non-technical teams are able to understand how serious the potential risks are (or aren’t).

And communication is the heart of marketing and PR—AI tools can provide analyses and insights, but humans are needed to craft narratives and tell a brand story that resonates with the people we’re trying to reach.

How to get started

Communication skills enable tech professionals to collaborate effectively, bridge technical and non-technical gaps, and drive innovation by translating complex ideas into clear, actionable strategies. There is a range of different types of communication skills, but focusing on workplace communication is the best place to start.

  1. Pragmatism

AI is an exciting new technology that is quickly being built into what feels like every device and app out there. But in reality, AI is still relatively limited and more effective at some things than others. AI applications should be designed and built to solve real user problems and be strategically aligned to existing business needs.

This ability to be pragmatic, to be able to clearly evaluate the practicality and usefulness of a particular technology or solution, is a fundamentally human strength. Being able to balance “can” and “should” to emphasize a focus on real solutions to actual problems, is something AI tools are currently incapable of doing.

 

Like critical thinking, pragmatism is something we all naturally develop with experience, but like any skill, it is something you can train yourself to become better at with deliberate study and practice.

How to get started

Being pragmatic doesn’t mean being a skeptic or trying to tamp down others’ enthusiasm with stop energy. It’s more about being able to look at potential solutions or approaches with a realistic and measured eye.

As a tech professional, you can become more pragmatic by focusing on real results and choosing practical and effective solutions that work in real-world scenarios. Embrace iterative development, testing and continuous feedback, as this can help keep things practical and grounded.

 

  1. Adaptability

 

Early humans survived and thrived because of their fundamental ability to adapt to changing conditions, which continues to be vital today. As we’ve seen over the past few years, the tech industry is undergoing tectonic shifts, a large part of which is being caused by how quickly AI tools and capabilities are evolving.

How to get started

Improving your adaptability in the workplace largely boils down to cultivating a flexible mindset (simply being open to new things) and engaging in continuous learning. Be open to new ideas and responsibilities, commit to personal development, be proactive in suggesting solutions or improvements when you see issues, and stay current with the (admittedly, often overwhelming) changes in our industry.

 

Wrapping up

It’s appropriate that this article ended talking about continuous learning, because that’s what it’s really all about. AI tools are being deployed across nearly every role and discipline in the tech industry, making many of us concerned about the future of our jobs. But human “soft” skills are increasingly vital in this age of AI—AI can help us all do more, faster, but it cannot replace our ability to solve problems, think critically, communicate effectively, work together, be pragmatic and adapt quickly to these rapidly changing conditions.

It’s natural to be anxious about the future, but for many of us AI presents an incredible opportunity to use these new tools to handle the more repetitive and (frankly) boring parts of our work so we can focus on developing our own deeply human skills and doing the really interesting stuff that AI can’t.