AI in telco – the catalyst for scaling digital business

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

AI in telco – the catalyst for scaling digital business

Article by Beatriz Ortega, Hybrid cloud specialist and business development lead, Telecoms, Red Hat

If you aren’t currently architecting for AI, you are part of a rapidly dwindling minority. By 2026, the pivot is no longer optional: AI has moved from a peripheral tool to the primary engine for transforming digital businesses, slashing operational complexity and driving revenue growth.

The shift to agentic AI and zero-touch operations

The industry is moving beyond passive chatbots toward agentic AI. While traditional AI provides insights, generative AI makes suggestions, now agentic AI provides action. In a practical telco context, this means autonomous agents capable of navigating complex workflows: identifying network bottlenecks, cross-referencing customer SLAs, and triggering resource re-allocations via TM Forum open APIs. This transition enables the zero-touch operations essential for efficiency, reliability and scale of 5G and edge networks.

A major shortcoming of early adoptions is the creation of AI islands – disconnected models that solve niche problems but cannot communicate with each other. Red Hat advocates for a more modular and interconnected strategy using open standards and a mesh architecture, where specialized micro-agents communicate through universal protocols like the model context protocol (MCP) and agent-to-agent (A2A) frameworks.

Micro-agents are purpose-built, autonomous solutions designed to be interconnected. When linked together, these agents create a collective intelligence. A good example is  customer-service insights that can inform network optimization processes in real-time, ensuring every AI organ works toward a unified business goal.

However, the primary barrier to connected intelligence is data fragmentation. To bridge that gap between intelligence and action, the MCP provides an open source framework that enables standardized access to other systems and external data. MCP ensures an AI agent is no longer an isolated brain but a functional limb capable of interacting across and with the entire operational ecosystem.

The Red Hat advantage: any model, any accelerator, anywhere

Red Hat AI provides an open platform that simplifies the move from experimentation to production-grade AI. It comprises:

  • Red Hat Enterprise Linux AI: Provides a sovereign foundation to tune open source models (like Granite) with proprietary data, ensuring you own your intelligence without vendor lock-in.
  • Red Hat OpenShift AI: A unified operations engine managing the AI lifecycle with mission-critical rigor. It integrates LlamaStack as the standardized, Kubernetes-native orchestration layer for building agentic AI workflows.
  • Red Hat AI Inference Server: Hardened with vLLM, this server enables high-performance, low-latency execution on any processors, like CPUs or GPUs. By supporting diverse silicon (NVIDIA, AMD, Intel), Red Hat maintains flexibility so your engine is not locked into a specific hardware vendor and utilizes the best and most cost efficient hardware for the job.

Innovations like llm-d, the strategist and orchestrator for vLLM, make this even more powerful. This Kubernetes-native framework, founded by CoreWeave, Google Cloud, IBM Research and NVIDIA and joined by AMD, Cisco, Hugging Face, Intel, Lambda and Mistral AI, unlocks even greater efficiency in deployments of large-scale distributed inference.

In 2026, the Red Hat and NVIDIA collaboration has advanced from pure hardware compatibility to a unified software-defined architecture. This collaboration delivers rack-scale AI systems that industrialize open source-based AI factories, capable of running advanced reasoning and agentic workloads at gigabit scale.

Four AI use cases delivering immediate telco value

  1. Autonomous networks: from automation to autonomy

The vision of fully autonomous networks is now an architectural reality. Autonomous networks utilize AI for closed-loop systems that observe, reason, and adapt.

While the journey to fully autonomous networks consists of multiple integrated milestones, the following two applications illustrate practical first steps with immediate return on your investment:

  • Self-healing: When anomalies occur, agentic AI performs multi-domain root cause analysis (RCA). Using Event-Driven Ansible as part of Red Hat Ansible Automation Platform, the network can autonomously trigger remediation, like re-routing traffic or antenna tilt adjustment, in milliseconds. If a remediation is not predefined, Red Hat Ansible Lightspeed supports the creation of new playbooks on the fly.
  • Predictive zero-touch scaling: By cross-referencing social event feeds (transit, public gatherings) with mobility data via MCP, AI agents on OpenShift AI proactively scale CNFs across the edge. This surges capacity precisely where needed and releases it back once demand subsides, aligning performance with ESG goals.
  1. Intent-driven energy and cost reduction

Instead of rigid sleep cycles, operators define a high-level intent: “minimize carbon footprint while maintaining 99.9% availability.”

Specialized AI agents can monitor real-time density. If a sector is underutilized, the AI enabled automation autonomously triggers massive MIMO sleep modes, significantly reducing overall energy consumption.

This simple use case balances performance with sustainability, reducing OpEx and carbon footprint without compromising the customer experience.

  1. Hyper-personalized customer experience

AI transforms your customer support team from a reactive to proactive operation.

Predictive AI identifies degrading signals at a subscriber’s location and initiates a self-healing protocol (e.g., cell handover optimization) before the subscriber notices a problem.

Generative AI provides front-line agents, humans and chatbots, with synthesized logs and context, turning service providers into experience providers.

  1. Real-time vendor management & SLA governance

In multi-vendor environments, AI acts as a digital auditor. By ingesting cross-domain telemetry via MCP, an AI agent performs objective RCAs to pinpoint vendor performance issues. It can autonomously trigger notifications or calculate contractual credits, creating a more informed, high-accountability ecosystem.

Navigating the three core challenges of AI adoption

While the symptoms of AI friction are universal, such as slow deployment or high costs, the specific challenges in telco AI adoption vary significantly depending on a company’s architectural maturity and strategic priorities.

Adopting AI within a telecommunications framework is less about the intelligence of the model and more about the readiness, flexibility and transparency of the architecture. From a Red Hat perspective, the transition from experimental pilots to production-scale agentic AI faces three primary hurdles: data fragmentation, operational complexity, and the black box of proprietary lock-in. 

The challenge of data silos and contextual awareness: The most significant blocker to AI ROI is the lack of contextual awareness. AI models often struggle with hallucinations because they lack access to real-time, high-fidelity telco data – which is usually trapped in fragmented silos spanning network logs, customer records, and multi-vendor KPIs.

As mentioned, MCP is an open source framework that allows AI agents to interface with external data and legacy tools, enabling full architectural interoperability.

Operational complexity makes pilots unable to scale: Many service providers fail to scale because they attempt monolithic AI overhauls that are too complex to manage. Without a consistent environment, moving a model from a data scientist’s laptop to a cell tower at the edge creates immense operational friction and risk of failure.

Red Hat AI provides an AI factory foundation for the entire AI model and application lifecycle. By treating AI workloads like containerized microservices, service providers can use the same DevOps rigor they use for their core network functions integrated with MLOps tools for AI lifecycle management. We advocate for starting with micro-AI agents – small, purpose-built solutions for specific tasks – which can later be interconnected into a broader, intelligent mesh.

Vendor lock-in and digital sovereignty risks: relying on black box proprietary AI services poses a massive risk to long-term flexibility and data sovereignty. If your core network intelligence lives entirely within a single provider’s cloud, you run the risk of losing control over your costs and your data sovereignty.

Red Hat’s focus on enabling any model, any accelerator, any cloud is the antidote to lock-in. By providing integration with a large choice of open source models, service providers can tune models of their choice with their own data on their own infrastructure. This gives them control over the model weights and the underlying data, while vLLM ensures the inference remains high-performance across any hardware. And with Red Hat OpenShift service providers are able to manage end-to-end AI and application life cycles across any environment. 

AI ในวงการโทรคมนาคม – ตัวเร่งปฏิกิริยาในการขยายธุรกิจดิจิทัล

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

AI ในวงการโทรคมนาคม - ตัวเร่งปฏิกิริยาในการขยายธุรกิจดิจิทัล

บทความโดย เบียทริซ ออร์เตกา ผู้เชี่ยวชาญด้านไฮบริดคลาวด์และผู้นำฝ่ายพัฒนาธุรกิจด้านโทรคมนาคม เร้ดแฮท

หากองค์กรของคุณยังไม่มีการออกแบบสถาปัตยกรรมให้รองรับ AI แสดงว่าองค์กรคุณเป็นหนึ่งในองค์กรกลุ่มน้อยที่กำลังมีจำนวนลดลงอย่างรวดเร็ว ภายในปี พ.ศ. 2569 การเปลี่ยนผ่านสู่ AI จะไม่ได้เป็นเพียงทางเลือก แต่เป็นกลไกหลักในการพลิกโฉมทางดิจิทัลให้กับธุรกิจ ลดความซับซ้อนในการดำเนินงานและขับเคลื่อนการเติบโตของรายได้

ยกระดับสู่ agentic AI และกระบวนการทำงานแบบ zero-touch

อุตสาหกรรมโทรคมนาคมกำลังข้ามผ่านยุคแชทบอทแบบตั้งรับ สู่ยุค agentic AI จากเดิมที่ AI ทำหน้าที่ให้ข้อมูลเชิงลึก หรือการที่ generative AI ให้คำแนะนำต่าง ๆ ปัจจุบัน agentic AI ได้ยกระดับสู่ ‘การลงมือปฏิบัติ’ ซึ่งในบริบทของธุรกิจโทรคมนาคมหมายถึงเอเจนต์อัตโนมัติที่สามารถจัดการเวิร์กโฟลว์ที่ซับซ้อนได้ เช่น การระบุจุดที่เป็นคอขวดของโครงข่าย การตรวจสอบข้อตกลงระดับการให้บริการลูกค้า ไปจนถึงการสั่งจัดสรรทรัพยากรใหม่โดยอัตโนมัติผ่าน TM Forum open APIs กล่าวได้ว่าการเปลี่ยนผ่านนี้คือฟันเฟืองสำคัญที่ทำให้เกิดกระบวนการทำงานแบบ zero-touch ที่จำเป็นต่อการสร้างประสิทธิภาพ ความเชื่อถือได้ และการปรับขนาดการทำงานของโครงข่าย 5G และ edge

อุปสรรคสำคัญของการปรับใช้ AI ในระยะแรกคือการเกิด ‘AI islands’ หรือโมเดล AI ที่ถูกตัดขาดจากกัน ซึ่งแม้จะแก้ปัญหาเฉพาะจุดได้แต่ไม่สามารถสื่อสารร่วมกันได้ Red Hat จึงผลักดันกลยุทธ์แบบ modular ที่สื่อสารกันผ่านโปรโตคอลสากลต่าง ๆ เช่น model context protocol (MCP) และเฟรมเวิร์กการสื่อสารระหว่างเอเจนต์ (agent-to-agent หรือ A2A)

ไมโครเอเจนต์เป็นโซลูชันอัตโนมัติที่ออกแบบมาเพื่อภารกิจเฉพาะด้านและเชื่อมต่อถึงกันได้ และเมื่อไมโครเอเจนต์ต่าง ๆ เชื่อมต่อถึงกันจะทำให้เกิดความชาญฉลาดแบบองค์รวม เช่น การนำข้อมูลเชิงลึกจากงานบริการลูกค้ามาปรับปรุงประสิทธิภาพโครงข่ายได้แบบเรียลไทม์ เพื่อให้มั่นใจว่าทุกองคาพยพของ AI จะทำงานไปในทิศทางเดียวกันและมุ่งสู่เป้าหมายทางธุรกิจเดียวกัน

ความกระจัดกระจายของข้อมูลเป็นอุปสรรคสำคัญของความชาญฉลาดที่เชื่อมโยงถึงกัน MCP ทำหน้าที่เป็นเฟรมเวิร์กโอเพ่นซอร์สที่ช่วยให้เข้าถึงระบบอื่น ๆ และข้อมูลภายนอกได้อย่างเป็นระบบและมีมาตรฐาน เพื่อเชื่อมช่องว่างระหว่างความชาญฉลาดกับการลงมือทำโดยเปลี่ยน AI agent จากเดิมที่เป็นเพียงสมองที่ถูกแยกส่วน ให้กลายเป็นกลไกที่ทำงานได้จริงที่สามารถโต้ตอบกับระบบนิเวศของการปฏิบัติงานทั้งหมดได้

ความเหนือกว่าของ Red Hat: รองรับทุกโมเดล ทุกอุปกรณ์เร่งความเร็ว ทุกสภาพแวดล้อม

Red Hat AI นำเสนอโอเพ่นแพลตฟอร์มที่ทำให้การย้าย AI จากการทดลองไปสู่การใช้งานเป็นไปอย่างง่ายดาย ประกอบด้วย 

  • Red Hat Enterprise Linux AI: มอบรากฐานที่เป็นอิสระในการปรับแต่งโมเดลโอเพ่นซอร์สต่าง ๆ (เช่น Granite) ด้วยข้อมูลเฉพาะที่เป็นกรรมสิทธิ์ขององค์กร เพื่อให้องค์กรเป็นเจ้าขององค์ความรู้ที่เป็นภูมิปัญญาของตนได้อย่างแท้จริง โดยไม่ผูกมัดกับผู้ให้บริการรายใดรายหนึ่ง
  • Red Hat OpenShift AI: กลไกการปฏิบัติการที่เป็นเอกภาพสำหรับบริหารจัดการไลฟ์ไซเคิลของ AI ด้วยมาตรฐานความปลอดภัยและความเสถียรระดับสูงสุด โดยบูรณาการ LlamaStack ให้เป็นเลเยอร์ประสานงานมาตรฐานในรูปแบบ Kubernetes-native เพื่อใช้ในการสร้างเวิร์กโฟลว์ที่เป็น agentic AI
  • Red Hat AI Inference Server: vLLM ช่วยเสริมแกร่งให้เซิร์ฟเวอร์นี้รองรับการประมวลผลประสิทธิภาพสูง มีระยะเวลาในการตอบสนองต่ำ (low-latency) บนหน่วยประมวลผลทุกรูปแบบ ไม่ว่าจะเป็น CPU หรือ GPU นอกจากนี้เร้ดแฮทยังคงความยืดหยุ่นไว้ด้วยความสามารถในการรองรับชิปประมวลผลที่หลากหลาย (NVIDIA, AMD, Intel) ดังนั้นกลไกการทำงานขององค์กรจะต้องไม่ติดอยู่กับผู้ผลิตฮาร์ดแวร์รายใดรายหนึ่ง ทั้งยังสามารถเลือกใช้ฮาร์ดแวร์ที่มีประสิทธิภาพและคุ้มค่าที่สุดเหมาะกับงานแต่ละประเภท

llm-d เป็นนวัตกรรมที่ทำหน้าที่เป็นทั้งผู้วางกลยุทธ์และผู้ประสานจัดการระบบให้กับ vLLM ช่วยยกระดับความสามารถของโซลูชันให้ทรงพลังมากขึ้น เฟรมเวิร์ก Kubernetes-native นี้ริเริ่มโดยความร่วมมือของ CoreWeave, Google Cloud, IBM Research และ NVIDIA พร้อมด้วยการสนับสนุนจาก AMD, Cisco, Hugging Face, Intel, Lambda และ Mistral AI เพื่อปลดล็อกประสิทธิภาพสูงสุดของการใช้การอนุมานแบบกระจายศูนย์ในสเกลขนาดใหญ่ 

ความร่วมมือระหว่าง Red Hat และ NVIDIA ในปี พ.ศ. 2569 ได้ยกระดับจากความเข้ากันได้ของซอฟต์แวร์กับฮาร์ดแวร์เพียงหนึ่งเดียว ขึ้นสู่สถาปัตยกรรมที่ควบคุมและจัดการด้วยซอฟต์แวร์อย่างเบ็ดเสร็จ ความร่วมมือนี้นำเสนอระบบ rack-scale AI ที่เปลี่ยน AI factory ต่าง ๆ ที่มีฐานเป็นโอเพ่นซอร์สให้กลายเป็นระบบที่เป็นมาตรฐานอุตสาหกรรม รองรับการประมวลผลเชิงเหตุผลขั้นสูง และเวิร์กโหลด agentic ต่าง ๆ ได้ในระดับกิกะบิต

สี่แนวทางการใช้ AI เพื่อสร้างคุณค่าให้ธุรกิจโทรคมนาคมได้ทันที

  1. โครงข่ายที่ทำงานโดยอิสระ (Autonomous Networks): ก้าวข้ามระบบอัตโนมัติทั่วไปสู่การทำงานด้วยตนเองอย่างอิสระ

วิสัยทัศน์เกี่ยวกับโครงข่ายที่ขับเคลื่อนด้วยตัวเองอย่างสมบูรณ์กลายเป็นจริงแล้วในระดับสถาปัตยกรรม โครงข่ายที่ทำงานโดยอิสระนี้ใช้ AI สร้างระบบการทำงานครบวงจร (closed-loop systems) ตั้งแต่การเฝ้าระวังและการเก็บข้อมูล การวิเคราะห์ และการตอบสนองที่เหมาะกับสถานการณ์

แม้เส้นทางสู่การเป็นโครงข่ายอัจฉริยะที่ทำงานเองได้อย่างอิสระเต็มรูปแบบต้องอาศัยความสำเร็จหลายประการร่วมกัน แต่แนวทางการนำไปใช้สองรูปแบบต่อไปนี้ คือจุดเริ่มต้นที่ทำได้จริง และจะสร้างผลตอบแทนจากการลงทุนให้เห็นผลได้ทันที

  • การซ่อมแซมตนเอง (self-healing): เมื่อตรวจพบความผิดปกติ agentic AI จะทำการวิเคราะห์หาสาเหตุรากเหง้า (root cause analysis – RCA) แบบข้ามส่วนงาน โดยการใช้ Event-Driven Ansible ที่เป็นส่วนหนึ่งของ Red Hat Ansible Automation Platform เพื่อให้เครือข่ายสามารถสั่งการแก้ไขปัญหาได้โดยอัตโนมัติอย่างอิสระภายในเสี้ยววินาที เช่น การเปลี่ยนเส้นทางทราฟฟิกหรือการปรับมุมก้มเงยของเสาสัญญาณ และหากยังไม่มีขั้นตอนการแก้ไขที่กำหนดไว้ล่วงหน้า Red Hat Ansible Lightspeed จะช่วยสร้างคู่มือ (playbook) ขึ้นมาใหม่เพื่อตอบโต้สถานการณ์ได้ทันที
  • การปรับขนาดล่วงหน้าโดยอัตโนมัติจากการคาดการณ์ (predictive zero-touch scaling): AI Agent บน OpenShift AI จะวิเคราะห์ข้อมูลการเชื่อมโยงของกิจกรรมทางสังคม (การขนส่งมวลชน การรวมตัวของฝูงชุน) ร่วมกับข้อมูลการเคลื่อนที่ผ่าน MCP เพื่อทำงานเชิงรุกในการปรับขนาด CNFs ทั่วทั้งพื้นที่เครือข่ายส่วนปลาย (edge) ซึ่งช่วยให้ระบบเพิ่มขีดความสามารถได้อย่างแม่นยำในจุดที่จำเป็น และคืนทรัพยากรกลับสู่ระบบทันทีเมื่อความต้องการใช้งานลดลง เพื่อให้ประสิทธิภาพการทำงานสอดคล้องกับเป้าหมายด้านความยั่งยืน 
  1. การลดการใช้พลังงานและต้นทุนตามวัตถุประสงค์

แทนที่จะใช้การตั้งเวลาปิดระบบแบบตายตัว ผู้ปฏิบัติงานสามารถระบุเป้าหมายระดับสูงหรือความต้องการเชิงนโยบายได้ เช่น “ลดการปล่อยก๊าซคาร์บอนให้เหลือน้อยที่สุด โดยยังคงรักษามาตรฐานความพร้อมใช้ไว้ที่ 99.9%

AI agent เฉพาะทางต่าง ๆ สามารถเฝ้าติดตามความหนาแน่นของการใช้งานแบบเรียลไทม์ หากพบว่าพื้นที่เครือข่ายส่วนใดมีการใช้งานต่ำ ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI จะสั่งการด้วยตัวเองให้ระบบเข้าสู่โหมดประหยัดพลังงานของสายอากาศอัจฉริยะ (massive MIMO sleep modes) ซึ่งช่วยลดการใช้พลังงานในภาพรวมลงได้อย่างมีนัยสำคัญ

กรณีการใช้งานที่เรียบง่ายนี้ช่วยสร้างสมดุลระหว่างประสิทธิภาพและความยั่งยืน โดยสามารถลดทั้งค่าใช้จ่ายในการดำเนินงาน (OpEx) และการปล่อยก๊าซคาร์บอนได้โดยไม่กระทบต่อประสบการณ์การใช้ของลูกค้า

  1. ประสบการณ์ลูกค้าแบบเฉพาะเจาะจงอย่างเหนือระดับ

AI จะเปลี่ยนโฉมทีมสนับสนุนลูกค้าขององค์กร จากการทำงานเชิงรับไปสู่การดำเนินงานเชิงรุกอย่างเต็มรูปแบบ

Predictive AI ทำการระบุสัญญาณที่เริ่มเสื่อมสภาพในตำแหน่งที่ผู้ใช้งานพักอาศัยอยู่ และสั่งการโปรโตคอลซ่อมแซมตัวเอง (เช่น การปรับจูนการส่งต่อสัญญาณระหว่างสถานีฐาน) ให้ทำงานโดยอัตโนมัติ ก่อนที่ผู้ใช้งานจะทันสังเกตเห็นปัญหา

Generative AI ช่วยสนับสนุนเจ้าหน้าที่ด่านหน้า ที่ให้บริการลูกค้า ทั้งพนักงานและแชทบอท ด้วยการสรุปข้อมูลบันทึกระบบ และบริบทการใช้งานที่ครบถ้วน เป็นการเปลี่ยนบทบาทจากผู้ให้บริการเครือข่าย ให้กลายเป็นผู้ส่งมอบประสบการณ์เหนือระดับ

  1. การกำกับดูแล SLA และบริหารผู้ให้บริการแบบเรียลไทม์:

AI จะทำหน้าที่เป็นผู้ตรวจสอบดิจิทัล ในการตรวจสอบประสิทธิภาพของผู้ให้บริการหลายราย AI agent จะทำการวิเคราะห์หาสาเหตุรากเหง้า (RCA) เพื่อระบุปัญหาด้านประสิทธิภาพของผู้ให้บริการแต่ละราย ด้วยการรวบรวมข้อมูลทางเทคนิคจากทุกส่วนงาน (cross-domain telemetry) ผ่าน MCP นอกจากนี้ ยังสามารถส่งการแจ้งเตือนหรือคำนวณเงินคืนตามสัญญาได้อัตโนมัติด้วยตนเอง ซึ่งช่วยสร้างระบบนิเวศการทำงานที่มีความชัดเจนและมีความรับผิดชอบสูง

การรับมือกับสามความท้าทายหลักในนำ AI มาใช้

แม้ว่าสัญญาณบ่งชี้ของอุปสรรคพื้นฐานในการใช้ AI ที่พบได้ทั่วไปจะมีลักษณะคล้ายคลึงกัน เช่น การติดตั้งระบบที่ล่าช้าหรือต้นทุนที่สูงเกินควร แต่ความท้าทายเฉพาะด้านในการนำ AI มาใช้ในธุรกิจโทรคมนาคมนั้นมีความแตกต่างกันอย่างมีนัยสำคัญ โดยขึ้นอยู่กับความพร้อมของโครงสร้างทางสถาปัตยกรรม และการจัดลำดับความสำคัญเชิงกลยุทธ์ของแต่ละบริษัท

การใช้ AI ภายในกรอบการทำงานด้านโทรคมนาคมนั้นไม่ได้วัดกันที่ความชาญฉลาดของโมเดลเพียงอย่างเดียว แต่ขึ้นอยู่กับความพร้อมใช้ ความยืดหยุ่น และความโปร่งใสของสถาปัตยกรรมระบบด้วย เร้ดแฮทมีมุมมองว่า การเปลี่ยนผ่านจากโครงการที่อยู่ในขั้นการทดลองไปสู่การนำ agentic AI มาใช้งานจริงนั้น มีอุปสรรคสำคัญสามประการได้แก่ การกระจัดกระจายของข้อมูล ความซับซ้อนของการบริหารจัดการระบบ และ การติดกับดักเทคโนโลยีระบบปิดที่ตรวจสอบไม่ได้และต้องติดอยู่กับผู้ให้บริการรายใดรายหนึ่ง

ความท้าทายจากข้อมูลที่กระจัดกระจายและบริบทที่ไม่ครบถ้วน: ปัจจัยที่ขัดขวางการสร้างผลตอบแทนจากการลงทุนด้าน AI ที่สำคัญที่สุดคือการขาดความเข้าใจบริบทในเชิงลึก โมเดล AI มักเผชิญกับอาการหลอน (hallucinations) ซึ่งนำไปสู่การให้ข้อมูลที่ผิดพลาด เนื่องจากเข้าไม่ถึงข้อมูลด้านโทรคมนาคมที่มีความละเอียดสูงที่มักติดอยู่ตามส่วนงานต่าง ๆ อย่างกระจัดกระจายได้แบบเรียลไทม์ ไม่ว่าจะเป็นบันทึกการทำงานของเครือข่าย ข้อมูลลูกค้า ไปจนถึงดัชนีชี้วัด (KPIs) จากผู้ให้บริการหลายค่ายที่ไม่เชื่อมโยงกัน

ดังที่ได้กล่าวไปแล้ว MCP คือเฟรมเวิร์กแบบโอเพ่นซอร์สที่ช่วยให้ AI agent ต่าง ๆ สามารถเชื่อมต่อกับข้อมูลภายนอกและเครื่องมือรุ่นเก่าได้อย่างราบรื่น เป็นการช่วยให้สถาปัตยกรรมทั้งหมดสามารถทำงานร่วมกันได้อย่างสมบูรณ์

ความซับซ้อนของการดำเนินงานทำให้โครงการนำร่องขยายไม่ได้: ผู้ให้บริการจำนวนมากล้มเหลวในการขยายขอบเขตการใช้งาน AI ในวงกว้าง เพราะพยายามยกเครื่องการใช้ AI แบบองค์รวม ซึ่งมีความซับซ้อนเกินกว่าจะบริหารจัดการได้ การนำพาโมเดลที่พัฒนาอยู่ในแล็ปท็อปของนักวิทยาศาสตร์ข้อมูลไปใช้จริงที่เสาสัญญาณปลายทางที่ edge จะทำให้เกิดปัญหาจากความเข้ากันไม่ได้ของระบบปฏิบัติการและเสี่ยงต่อความล้มเหลวอย่างมาก หากไม่มีสภาพแวดล้อมการทำงานที่เหมือนกันเป็นหนึ่งเดียว 

Red Hat AI วางรากฐาน AI factory ที่ครอบคลุมไลฟ์ไซเคิลของทั้งโมเดลและแอปพลิเคชัน AI ทั้งหมด การจัดการเวิร์กโหลด AI ให้เหมือนกับไมโครเซอร์วิสในรูปแบบคอนเทนเนอร์ จะช่วยให้ผู้ให้บริการสามารถใช้มาตรฐานแบบ DevOps ที่ใช้กับฟังก์ชันเครือข่ายหลัก มาประยุกต์ใช้ร่วมกับเครื่องมือ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของ AI ได้อย่างมีประสิทธิภาพ เร้ดแฮทสนับสนุนให้เริ่มต้นจาก micro-AI agents ซึ่งเป็นโซลูชันขนาดเล็กที่สร้างขึ้นเฉพาะทางเพื่อตอบโจทย์งานเฉพาะด้าน แล้วจึงค่อยขยายผลนำมาเชื่อมต่อกันเพื่อสร้างโครงข่ายอัจฉริยะที่ครอบคลุมกว้างขวางมากขึ้นในภายหลัง

ความเสี่ยงจากการผูกขาดโดยผู้ผลิตและอธิปไตยดิจิทัล: การพึ่งพาบริการ AI แบบระบบปิดที่ตรวจสอบการทำงานไม่ได้ของผู้ผลิตรายใดรายหนึ่งเพียงอย่างเดียว ถือเป็นความเสี่ยงมหาศาลต่อความยืดหยุ่นในระยะยาวและอธิปไตยทางข้อมูล การฝากความอัจฉริยะของเครือข่ายสำคัญขององค์กรไว้บนระบบคลาวด์ของผู้ผลิตรายเดียวทั้งหมดจะทำให้องค์กรมีความเสี่ยงที่จะสูญเสียการควบคุมทั้งด้านต้นทุนและสิทธิในการควบคุมจัดการข้อมูลของตนเอง

แนวทางของเร้ดแฮทที่เน้นการรองรับทุกโมเดล ทุกตัวเร่งความเร็ว และทุกคลาวด์ คือทางแก้ปัญหาการถูกผูกขาดโดยผู้ให้บริการรายใดรายหนึ่ง เร้ดแฮทมอบการเชื่อมต่อกับโมเดลโอเพ่นซอร์สที่มีให้เลือกมากมาย ซึ่งช่วยให้ผู้ให้บริการสามารถปรับจูนโมเดลที่ต้องการด้วยข้อมูลของตนเองบนโครงสร้างพื้นฐานของตนเอง จึงสามารถควบคุมและถือครองกรรมสิทธิ์ในขุมพลังปัญญาของโมเดล (model weights) และข้อมูลพื้นฐานที่ใช้ได้ โดยมี vLLM ช่วยทำให้มั่นใจว่าการอนุมานจะยังคงประสิทธิภาพสูงไม่ว่าจะใช้ฮาร์ดแวร์ใดก็ตาม นอกจากนี้ Red Hat OpenShift ยังช่วยให้ผู้ให้บริการสามารถบริหารจัดการไลฟ์ไซเคิลของ AI และแอปพลิเคชันได้อย่างครบวงจรบนทุกสภาพแวดล้อม

Ericsson and depa partner to introduce ‘Ericsson Educate- its 21st century technology education program’ for Thai learners

อีริคสัน จับมือ ดีป้า เปิดตัวโครงการ ‘Ericsson Educate’ ยกระดับทักษะเทคโนโลยีแห่งศตวรรษที่ 21 แก่ผู้เรียนชาวไทย

Ericsson and depa partner to introduce ‘Ericsson Educate- its 21st century technology education program’ for Thai learners

  • Collaboration announcement made during the 120th anniversary celebrations of Ericsson in Thailand
  • Ericsson Educate is integrated into the Digital Economy Promotion Agency’s (depa) Digital Skills Roadmap
  • Ericsson remains committed to supporting Thailand’s ongoing digitalization and achieving Thailand 4.0

Ericsson (NASDAQ: ERIC) today announced its partnership with Digital Economy Promotion Agency (depa) to introduce ‘Ericsson Educate- its 21st century technology education program’ to all learners who are using depa’s Digital Skills Roadmap.  The announcement was made during the 120th year anniversary celebrations of Ericsson in Thailand, marking the Company’s long-standing presence and commitment to the country.

“Celebrating 120 years in Thailand is a testament to our enduring dedication to the nation’s progress. We have grown alongside Thailand, building the infrastructure that has kept the country connected through decades of change. We are committed to further driving Thailand’s future connectivity to support the growth and digital transformation of government and industry alike,” says Anders Rian, Head of Ericsson Thailand.

“We know that upskilling Thailand’s youth and workforce will be critical to the realization of these ambitions, and this is why we are delighted to be part of depa’s Digital Skills Roadmap,” states Anders.

“We are proud to work alongside Ericsson to bring their global expertise directly to the next generation of Thai talent. As we launch ‘Coding Thailand 2026: AI Inspires the Future,’ Ericsson’s cutting-edge connectivity and technological perspective are invaluable. We are eager to benefit from their global insights, which will help our youth move beyond digital literacy toward becoming the innovative architects of Thailand’s digital future,” says depa’s Acting President/CEO, Dr. Supakorn Siddhichai.

Since its inception in the Kingdom, Ericsson has been driving Thailand’s connectivity journey. From the early days of telephony to pioneering the rollout of 5G, Ericsson’s history is inextricably linked with the development of the country’s telecom infrastructure. This 120-year journey reflects a deep-rooted commitment to building a robust mobile ecosystem that supports the social and economic well-being of the Thai people.

“In 2028 Thailand and Sweden celebrate 160 years since the signing of a bilateral Peace, Friendship and Navigation agreement – and next year, we will mark 130 years since King Chulalongkorn’s historic visit to Sweden in 1897. That was a significant visit that laid a strong foundation for exchanges between our two nations. Ericsson has been part of that journey almost from the beginning,” said Anna Hammargren, Swedish Ambassador in Thailand.

By leveraging global expertise and local insights, the Company aims to support the nation’s 20-year Digital Development Master Plan and accelerate its journey towards becoming a leading digital economy by ensuring that connectivity acts as a catalyst for industrial transformation and sustainable development.

By integrating Ericsson Educate, the Company’s global online course, into depa’s Digital Skills Roadmap, the Company seeks to provide Thai youth and its workforce with the foundational knowledge in AI and 5G needed to power the next era of digital transformation. Ericsson Educate will be available for all of depa’s learners at no cost, with the most updated content curated from Ericsson global experts ready to access at any time.  

The Ericsson Educate program is open to all learners that are part of depa’s Digital Skills Roadmap. The training covers essential 21st-century technologies, including 5G, AI, IoT, and Machine Learning, curated by Ericsson’s global experts with the goal to fast-track the upskilling of Thailand’s youth, ensuring a digitally ready workforce.

Ericsson’s 21st century technology course offers learners solid foundation knowledge of 5G, AI, IoT, automation and machine learning, to equip them with the digital knowledge and skills that will be essential in Thailand’s digital future.

อีริคสัน จับมือ ดีป้า เปิดตัวโครงการ ‘Ericsson Educate’ ยกระดับทักษะเทคโนโลยีแห่งศตวรรษที่ 21 แก่ผู้เรียนชาวไทย

อีริคสัน จับมือ ดีป้า เปิดตัวโครงการ ‘Ericsson Educate’ ยกระดับทักษะเทคโนโลยีแห่งศตวรรษที่ 21 แก่ผู้เรียนชาวไทย

อีริคสัน จับมือ ดีป้า เปิดตัวโครงการ ‘Ericsson Educate’ ยกระดับทักษะเทคโนโลยีแห่งศตวรรษที่ 21 แก่ผู้เรียนชาวไทย

  • ประกาศความร่วมมือในโอกาสฉลองครบรอบ 120 ปี ของอีริคสันในประเทศไทย
  • นำโครงการ Ericsson Educate บูรณาการเข้ากับ Digital Skills Roadmap โดยสำนักงานส่งเสริมเศรษฐกิจดิจิทัล (ดีป้า)
  • อีริคสันมุ่งมั่นสนับสนุนการพัฒนาดิจิทัลของประเทศไทยและเป้าหมาย Thailand 4.0

อีริคสัน (NASDAQ: ERIC) ประกาศความร่วมมือกับสำนักงานส่งเสริมเศรษฐกิจดิจิทัล (ดีป้า) ในโอกาสครบรอบ 120 ปีของอีริคสันในประเทศไทย เพื่อนำโปรแกรมการศึกษาเทคโนโลยีสมัยใหม่ “Ericsson Educate” ให้กับผู้รับการพัฒนาทักษะที่ใช้งาน Digital Skills Roadmap ของดีป้าทุกคน ซึ่งสะท้อนถึงความสัมพันธ์อันยาวนานและพันธกิจในการพัฒนาประเทศไทยของอีริคสันตั้งแต่อดีตถึงปัจจุบัน

มร. แอนเดอร์ส เรียน ประธานบริษัท อีริคสัน ประเทศไทย กล่าวว่า “การฉลองครบรอบ 120 ปีในประเทศไทย คือข้อพิสูจน์ถึงความทุ่มเทอย่างต่อเนื่องเพื่อความก้าวหน้าของชาติ เราเติบโตเคียงข้างประเทศไทย พร้อมสร้างโครงสร้างพื้นฐานที่เชื่อมโยงคนไทยผ่านความเปลี่ยนแปลงในหลายทศวรรษ เรายังคงมุ่งมั่นที่จะขับเคลื่อนการเชื่อมต่อแห่งอนาคต เพื่อรองรับการเติบโตและการเปลี่ยนผ่านสู่ดิจิทัลของทั้งภาครัฐและภาคอุตสาหกรรม”

“เราตระหนักดีว่าการยกระดับทักษะของเยาวชนและแรงงานไทยคือกุญแจสำคัญสู่ความสำเร็จตามเป้าหมายเหล่านี้ และนั่นคือเหตุผลที่เรายินดีอย่างยิ่งที่ได้ร่วมเป็นส่วนหนึ่งใน Digital Skills Roadmap ของดีป้า” มร. แอนเดอร์ส กล่าวเสริม

ดร. ศุภกร สิทธิไชย รักษาการแทนผู้อำนวยการใหญ่ ดีป้า กล่าวว่า “เราภูมิใจที่ได้ทำงานร่วมกับอีริคสันเพื่อนำความเชี่ยวชาญระดับโลกมาสู่เยาวชนไทยรุ่นใหม่โดยตรง ในขณะที่เราเปิดตัวโครงการ ‘Coding Thailand 2026: AI Inspires the Future’ มุมมองด้านเทคโนโลยีและการเชื่อมต่อที่ล้ำสมัยของอีริคสันถือเป็นสิ่งที่มีคุณค่ามาก เราพร้อมที่จะเรียนรู้จากข้อมูลเชิงลึกระดับโลก ซึ่งจะช่วยให้เยาวชนก้าวข้ามจากการมีความรู้ด้านดิจิทัลพื้นฐานไปสู่การเป็น Innovative Architects สำหรับอนาคตดิจิทัลของประเทศไทย”

นับตั้งแต่เริ่มดำเนินธุรกิจในราชอาณาจักรไทย อีริคสันได้ร่วมขับเคลื่อนและมีบทบาทสำคัญในเส้นทางการเชื่อมต่อของประเทศมาโดยตลอด ตั้งแต่ยุคเริ่มต้นของระบบโทรศัพท์ไปจนถึงการบุกเบิกการวางระบบ 5G ประวัติศาสตร์ของอีริคสันจึงเชื่อมโยงอย่างใกล้ชิดกับการพัฒนาโครงสร้างพื้นฐานทางด้านโทรคมนาคมของประเทศ ซึ่งการเดินทางตลอด 120 ปีนี้ สะท้อนถึงความมุ่งมั่นเพื่อสร้างระบบนิเวศโมบายล์ที่แข็งแกร่ง เพื่อสนับสนุนความเป็นอยู่ที่ดีทั้งทางสังคมและเศรษฐกิจของคนไทย

นางอันนา ฮัมมาร์เกรน เอกอัครราชทูตสวีเดนประจำประเทศไทย กล่าวว่า “ในปี 2571 ประเทศไทยและสวีเดนจะเฉลิมฉลองครบรอบ 160 ปี นับตั้งแต่การลงนามในสนธิสัญญามิตรภาพ การพาณิชย์ และการเดินเรือ และในปีหน้า เราจะครบรอบ 130 ปี แห่งการเสด็จประพาสสวีเดนครั้งประวัติศาสตร์ของพระบาทสมเด็จพระจุลจอมเกล้าเจ้าอยู่หัว (รัชกาลที่ 5) เมื่อปี พ.ศ. 2440 ซึ่งนับเป็นการเสด็จเยือนครั้งสำคัญที่วางรากฐานอันแข็งแกร่งสำหรับการแลกเปลี่ยนระหว่างสองประเทศ โดยอีริคสันเป็นส่วนหนึ่งของการเดินทางนั้นมาโดยตลอด นับตั้งแต่จุดเริ่มต้นของความสัมพันธ์ระหว่างสองประเทศ

ด้วยการนำความเชี่ยวชาญระดับโลกมาผสานกับข้อมูลเชิงลึกในท้องถิ่น บริษัทตั้งเป้าที่จะสนับสนุนแผนพัฒนาดิจิทัลเพื่อเศรษฐกิจและสังคม 20 ปีของชาติ และเร่งการก้าวสู่การเป็นเศรษฐกิจดิจิทัลชั้นนำ โดยใช้การเชื่อมต่อเป็นตัวเร่งให้เกิดการเปลี่ยนผ่านของเทคโนโลยีในภาคอุตสาหกรรมและการพัฒนาที่ยั่งยืน

การผนวก Ericsson Educate หลักสูตรออนไลน์ระดับโลกเข้ากับ Digital Skills Roadmap ของดีป้าจะช่วยให้เยาวชนและแรงงานไทยได้รับความรู้พื้นฐานด้าน AI และ 5G ซึ่งเป็นสิ่งจำเป็นต่อการขับเคลื่อนการเปลี่ยนผ่านสู่ดิจิทัลในยุคถัดไป โดยผู้เรียนของดีป้าสามารถเข้าถึงเนื้อหาที่ทันสมัยที่สุดซึ่งคัดสรรจากผู้เชี่ยวชาญระดับโลกของอีริคสันได้ทุกที่ทุกเวลาโดยไม่มีค่าใช้จ่าย

โครงการ Ericsson Educate เปิดกว้างสำหรับผู้เรียนทุกคนที่เป็นส่วนหนึ่งของ Digital Skills Roadmap โดยครอบคลุมเทคโนโลยีที่สำคัญในศตวรรษที่ 21 ได้แก่ 5G, AI, IoT และ Machine Learning โดยมีเป้าหมายเพื่อเร่งการเสริมทักษะ (upskilling) ให้กับผู้มีความสามารถรุ่นใหม่ เพื่อเตรียมความพร้อมของแรงงานสู่โลกดิจิทัล

หลักสูตรเทคโนโลยีแห่งศตวรรษที่ 21 ของอีริคสัน มอบพื้นฐานความรู้ที่เข้มข้นทางด้าน 5G, AI, IoT, ระบบ Automation และ Machine Learning เพื่อติดอาวุธทักษะและความรู้ด้านดิจิทัลที่จำเป็นต่อการขับเคลื่อนอนาคตดิจิทัลของประเทศไทย

How sovereign is your strategy? Introducing the Red Hat Sovereignty Readiness Assessment tool

องค์กรมีอำนาจควบคุมด้านดิจิทัลได้เบ็ดเสร็จเพียงใด ทำความรู้จักเครื่องมือประเมินความพร้อมด้านอธิปไตยดิจิทัลจากเร้ดแฮท

How sovereign is your strategy? Introducing the Red Hat Sovereignty Readiness Assessment tool

Article by: Hans Roth, Senior Vice President and General Manager, EMEA, Red Hat

Digital sovereignty is the ultimate strategic lever for innovation. It propels organizations beyond compliance into true operational freedom where you, not your cloud provider, dictates your business continuity.

Red Hat believes that sovereignty shouldn’t be a wall but a foundation for the freedom to choose where and how you run your workloads. To accelerate this push towards sovereign independence, we are introducing the Red Hat Digital Sovereignty Readiness Assessment tool.

Global regulations have raised the stakes for operational resilience and data jurisdictional control. But for many organizations, the path to independence is obscured by ‘black box’ stacks, limited optionality, and fragmented data silos. 

The path towards a sovereign foundation starts by understanding where your organization currently sits, and this is where the Red Hat Digital Sovereignty Readiness Assessment tool comes into play.

Establishing a baseline for control: The readiness assessment

You cannot govern an IT estate you don’t fully understand. This self-service assessment provides a clear, objective baseline of your organization’s digital control across seven critical domains:

  1. Data Sovereignty: The physical and jurisdictional control of your data throughout its lifecycle.
  2. Technical Sovereignty: The composition of the underlying software stack.
  3. Operational Sovereignty: Your team’s capacity to maintain and recover systems without external reliance.
  4. Assurance Sovereignty: The ability to independently audit and validate the integrity of your systems.
  5. Open Source Awareness: The use of community-driven innovation to neutralize vendor lock-in.
  6. Executive Oversight: The alignment of sovereignty goals with leadership-level governance.
  7. Managed Services: The flexibility of cloud deployments across specific regions and datacenters.

Understanding the results: Red Hat’s sovereignty maturity scale

Upon completion, the tool provides a maturity score that categorizes your current capabilities into four stages:

  • Foundation: The early stages of identifying sovereignty requirements.
  • Developing: Actively building capabilities and addressing initial gaps.
  • Strategic: Strong, repeatable capabilities exist across most domains.
  • Advanced: Broad, proactive control is exercised over its entire digital estate.

The assessment provides a practical roadmap of improvement actions and critical research questions for stakeholders.

An open standard for sovereignty

Red Hat’s approach to sovereignty is rooted in open innovation and the open hybrid cloud. We believe that a sovereign strategy is only as strong as the transparency of its foundation. When assessment tools are proprietary, they risk becoming the “black boxes” that they are meant to audit. True independence cannot be secretly verified.

In support of this needed transparency, Red Hat is establishing the open standard for assessing digital sovereignty. We are making the source code criteria for the Digital Sovereignty Readiness Assessment tool – originally developed by Red Hat’s Chris Jenkinsfreely available to the global ecosystem.

By open sourcing this framework, we move the industry from “blind trust” to a model based on objective verification. Red Hat provides the logical blueprints that go beyond simply being a tool. This methodology empowers customers, partners and other organizations to map their own path to autonomous infrastructure across dozens of critical technical vectors.

For sovereignty to be real and obtainable, the behind-the-scenes math must be accountable and open for inspection. Red Hat is providing the transparent standard to give our customers the confidence that their sovereign strategy is exactly that.