DNB จับมืออีริคสันติดตั้งระบบตรวจจับข้อความหลอกลวงยกระดับการปกป้องผู้ใช้มือถือในมาเลเซีย

DNB จับมืออีริคสันติดตั้งระบบตรวจจับข้อความหลอกลวงยกระดับการปกป้องผู้ใช้มือถือในมาเลเซีย

DNB จับมืออีริคสันติดตั้งระบบตรวจจับข้อความหลอกลวงยกระดับการปกป้องผู้ใช้มือถือในมาเลเซีย

  • ช่วยระบุและหาพิกัดเครื่องส่งสัญญาณปลอมที่ใช้ส่งข้อความหลอกลวง โดยไม่มีค่าใช้จ่ายเพิ่มเติม
  • ลดจำนวนข้อความหลอกลวงและรักษาความเป็นส่วนตัวของผู้ใช้ ปกป้องชาวมาเลเซียจากกลโกงที่เพิ่มมากขึ้น
  • นวัตกรรมจาก DNB ภายใต้ความร่วมมือกับอีริคสันนี้ ยังช่วยเสริมสร้างความเป็นผู้นำของมาเลเซียในด้านโครงสร้างพื้นฐานดิจิทัลที่มีความทันสมัย ปลอดภัย และน่าเชื่อถือ

บริษัทโทรคมนาคมแห่งชาติของประเทศมาเลเซีย หรือ Digital Nasional Berhad: (DNB) ผู้ให้บริการเครือข่าย 5G ชั้นนำของมาเลเซีย ร่วมมือกับ อีริคสัน (NASDAQ: ERIC) เปิดตัวความสามารถใหม่ล่าสุดภายในระบบบริหารจัดการเครือข่าย 5G เพื่อตรวจจับเครื่องส่งสัญญาณผิดกฎหมายที่ถูกนำมาใช้ในการแพร่กระจายข้อความหลอกลวง หรือ Scam Messages ไปยังผู้ใช้มือถือ

ความร่วมมือนี้ประกาศขึ้นในงาน Mobile World Congress (MWC) 2026 ณ บาร์เซโลนา ประเทศสเปนโดยนวัตกรรมนี้ถือเป็นการทดสอบครั้งแรกของโลกเพื่อยกระดับโครงข่ายวิทยุ (RAN) และการบริหารจัดการเครือข่ายที่ได้รับการออกแบบมาเพื่อตรวจจับสถานีฐานปลอม หรือ False Base Stations ภายในเครือข่าย 5G เชิงพาณิชย์

ระบบนี้ถูกติดตั้งใช้งานบนเครือข่าย 5G แห่งชาติของ DNB โดยขับเคลื่อนด้วยเครือข่ายซอฟต์แวร์ของ อีริคสันร่วมกับแพลตฟอร์มความปลอดภัยไซเบอร์ Ericsson Security Manager ซึ่งสามารถช่วยสนับสนุนนโยบายของรัฐบาลที่ต้องการให้อุตสาหกรรมโทรคมนาคมดำเนินการขั้นเด็ดขาดต่อภัยคุกคามจากการหลอกลวงที่เพิ่มขึ้น

จากรายงาน GSMA ASEAN Consumer Scam Report 2025 พบว่าผู้บริโภคในภูมิภาคอาเซียนกว่า 45% บอกว่าตนเองเคยตกเป็นเหยื่อของการหลอกลวง ซึ่งเพิ่มขึ้นจาก 31% ในปีก่อนหน้า เฉพาะในมาเลเซียเพียงแห่งเดียว ระหว่างปี 2565 ถึงสิงหาคม 2568 เจ้าหน้าที่ได้ทำการระงับสายเรียกเข้าที่น่าสงสัยและข้อความที่ไม่พึงประสงค์ไปแล้วกว่า 2.1 พันล้านครั้ง

นวัตกรรมล่าสุดนี้ช่วยเพิ่มการปกป้องอีกชั้นหนึ่งให้กับชาวมาเลเซียในการต่อสู้กับสแกมเมอร์ ซึ่งมักใช้เครื่องส่งสัญญาณผิดกฎหมายสวมรอยเป็นสถานีฐานมือถือที่ถูกกฎหมาย และส่งข้อความที่ดูเหมือนจริงพร้อมแนบลิงก์อันตราย โดยมีเป้าหมายเพื่อขโมยข้อมูลส่วนบุคคลหรือข้อมูลทางการเงิน

เทคโนโลยีนี้จะช่วยขยายการมองเห็นเครือข่ายและการวิเคราะห์ขั้นสูง เพื่อระบุและยับยั้งกิจกรรมที่น่าสงสัย โดยไม่จำเป็นต้องใช้การค้นหาต้นตอสัญญาณด้วยตนเอง ซึ่งจะช่วยเสริมสร้างการป้องกันเครือข่ายมือถือของมาเลเซียต่อภัยคุกคามที่เกี่ยวข้องกับการหลอกลวงได้อย่างมีนัยสำคัญ

การดำเนินการบนโครงสร้างความมั่นคงพื้นฐาน 5G แห่งชาติของ DNB นี้ ช่วยให้ผู้ให้บริการโครงข่ายแบบขายส่งหรือ Wholesale Network Provider สามารถปกป้องความเป็นส่วนตัวของผู้ใช้ได้อย่างรวดเร็ว สร้างความเชื่อมั่นให้กับสาธารณชนในการสื่อสารผ่านมือถือโดยไม่มีค่าใช้จ่ายเพิ่มเติม และยังตอกย้ำถึงความมุ่งมั่นอย่างต่อเนื่องของ DNB เพื่อยกระดับคุณภาพ ความยืดหยุ่น และความปลอดภัยของเครือข่าย 5G ในมาเลเซีย

Datuk Azman Ismail ซีอีโอของ DNB กล่าวว่า “ภารกิจสำคัญอันดับแรกของเราคือการมอบเครือข่าย 5G แห่งชาติที่ปลอดภัยและน่าเชื่อถือให้กับประชาชนชาวมาเลเซียเสมอมา นวัตกรรมนี้ช่วยเสริมสร้างการปกป้องผู้บริโภค โดยการตรวจจับสถานีฐานปลอมจากระยะไกล ช่วยป้องกันการหลอกลวงและคุ้มครองความเป็นส่วนตัว นับเป็นอีกหนึ่งก้าวสำคัญในการสร้างระบบนิเวศ 5G ที่ปลอดภัยและชาญฉลาดยิ่งขึ้น ตอกย้ำถึงความมุ่งมั่นของ DNB ในการพัฒนาคุณภาพและความปลอดภัยของเครือข่ายเพื่อลูกค้าทั่วประเทศอย่างต่อเนื่องโดยไม่มีค่าใช้จ่ายเพิ่มเติม”

David Hägerbro ประธานบริษัท อีริคสัน ประจำมาเลเซีย ศรีลังกา และบังกลาเทศ กล่าวเสริมว่า “ความปลอดภัยเป็นเสาหลักสำคัญในเส้นทางการพัฒนาเครือข่าย 5G ของมาเลเซียเสมอมา ซึ่งการยกระดับความปลอดภัยร่วมกับ DNB ในครั้งนี้ แสดงให้เห็นว่าความอัจฉริยะของเครือข่ายขั้นสูงสามารถปกป้องผู้ใช้งานได้โดยไม่ต้องใช้ฮาร์ดแวร์เพิ่มเติมหรือความพยายามในการจัดการด้วยตนเอง สิ่งนี้สะท้อนถึงความก้าวหน้าของการเดินหน้าไปสู่ยุคดิจิทัลในมาเลเซีย ที่เน้นประสิทธิภาพ ความยั่งยืน และมีความปลอดภัยไปพร้อม ๆ กัน”

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat Launches Red Hat AI Enterprise to Deliver a Unified AI Platform that Spans from Metal to Agents

Red Hat AI Enterprise bridges the gap from AI infrastructure to production-ready agents by unifying the AI lifecycle with the industry-leading foundation of Red Hat Enterprise Linux and Red Hat OpenShift

Red Hat, the world’s leading provider of open source solutions, today announced Red Hat AI Enterprise, an integrated AI platform for deploying and managing AI models, agents and applications across the hybrid cloud. It joins the Red Hat AI portfolio which includes Red Hat AI Inference Server, Red Hat OpenShift AI and Red Hat Enterprise Linux AI. Red Hat is also introducing Red Hat AI 3.3, bringing significant updates and enhancements across the company’s entire AI portfolio. 

Together, these solutions provide a comprehensive “metal-to-agent” stack, integrating the underlying Linux and Kubernetes infrastructure with advanced inference and agentic capabilities to help organizations move from fragmented experimentation to governed, autonomous operations.

The enterprise AI landscape is rapidly evolving from simple chat interfaces toward high-density, autonomous agentic workflows that require deeper integration across the entire technology stack. However, many organizations remain stuck in the “pilot phase” due to fragmented tools and inconsistent infrastructure. Red Hat AI Enterprise addresses this by unifying the model and application lifecycles allowing IT teams to manage AI as a standardized enterprise system rather than a siloed project – making AI delivery as reliable and repeatable as traditional enterprise software.

Red Hat AI Enterprise: The foundation for AI production

Red Hat AI Enterprise provides core capabilities, including high-performance AI inference, model tuning and customization and agent deployment and management, with the flexibility to support any model and any hardware across any environment. Fueled by Red Hat OpenShift – the industry’s leading hybrid cloud application platform powered by Kubernetes – at its core, Red Hat AI Enterprise delivers a highly scalable and more consistent experience with a stronger security footprint, anywhere, using familiar tools and frameworks. For NVIDIA AI infrastructure, NVIDIA and Red Hat co-engineered the new Red Hat AI Factory with NVIDIA, combining Red Hat AI Enterprise and NVIDIA AI Enterprise to help speed and scale production AI for enterprises.  

Key benefits of Red Hat AI Enterprise include:

  • Faster, more cost-effective and scalable AI inference using the vLLM inference engine and llm-d distributed inference framework for optimized generative AI model deployments across hybrid hardware environments.
  • Integrated observability and lifecycle management to help drive AI lifecycle governance and mitigate risk with an integrated, tested and interoperable enterprise-ready AI stack.
  • Flexibility across the hybrid cloud by empowering organizations to deploy and manage AI models, agents and applications with greater consistency wherever their business needs to run backed by trusted Red Hat platforms.

Extending strategic flexibility and full-stack efficiency with Red Hat AI 3.3 

Red Hat’s strategy centers on bridging the gap between mission-critical stability and frontier innovation through a unified platform. The latest software release expands model choice, deepens full-stack optimization for next-generation silicon and hardens operational consistency for frontier models. 

New features and enhancements include:

  • Expanded model ecosystem with validated, production-ready compressed versions of Mistral-Large-3, Nemotron-Nano and Apertus-8B-Instruct, available via the OpenShift AI Catalog. Additionally,  the release enables deployment of state-of-the-art models like Ministral 3 and DeepSeek-V3.2 with sparse attention, while delivering multimodal enhancements including 3x Whisper speedup, geospatial support, improved EAGLE speculative decoding and enhanced tool calling for agentic workflows.
  • Self-service access to AI models with a technology preview of Models-as-a-Service (MaaS). IT teams can provide self-service access to privately hosted models via an API gateway. This centralized approach ensures that AI is available on-demand for internal users, fostering a ready-to-go AI foundation that promotes private and scalable AI adoption within the enterprise.
  • Expanded hardware support including a technology preview of generative AI support on CPUs, starting with Intel CPUs for more cost-effective small language model (SLM) inference. Additionally, the platform has expanded its hardware certification for NVIDIA’s Blackwell Ultra and support for AMD MI325X accelerators.
  • Unified data-to-model lifecycle secured by the new Red Hat AI Python Index. This trusted repository delivers hardened, enterprise-grade versions of critical tools—including Docling, SDG Hub, and Training Hub—enabling teams to move from fragmented experimentation to repeatable, security-focused production pipelines.
  • Comprehensive AI observability and safety with greater visibility into model health, performance and behavior. This provides real-time telemetry across AI workloads, llm-d deployments and Models-as-a-Service (MaaS) cluster and model usage and is paired with a technology preview of integrated NeMo Guardrails, enabling developers to enforce operational safety and alignment across AI interactions.
  • On-demand access to GPU resources by empowering organizations to deploy their own internal GPU-as-a-Service capabilities through intelligent orchestration and pooled hardware access with automatic checkpointing to save the state of long-running training jobs, preventing work loss and maintaining more predictable compute costs, even in highly dynamic or preemptible environments.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“For AI to deliver true business value, it must be operationalized as a core component of the enterprise software stack, not as a standalone silo. Red Hat AI Enterprise is designed to bridge the gap between infrastructure and innovation by providing a unified metal to agent platform. By integrating advanced tuning and agentic capabilities with the industry-leading foundation of Red Hat Enterprise Linux and Red Hat OpenShift, we are providing the complete stack – from the GPU-accelerated hardware to the models and agents that drive business logic. Additionally, with Red Hat AI 3.3 organizations can move beyond fragmented pilots to governed, repeatable and high-performance AI operations across the hybrid cloud.”

Additional Resources

Connect with Red Hat

Red Hat เปิดตัว Red Hat AI Enterprise มอบแพลตฟอร์ม AI หนึ่งเดียวที่ครอบคลุมครบวงจร ตั้งแต่ระดับฮาร์ดแวร์จนถึงเอเจนต์

สามขั้นตอนสู่ความเป็น Adaptive Leadership ในยุคเทคโนโลยี

Red Hat เปิดตัว Red Hat AI Enterprise มอบแพลตฟอร์ม AI หนึ่งเดียวที่ครอบคลุมครบวงจร ตั้งแต่ระดับฮาร์ดแวร์จนถึงเอเจนต์

Red Hat AI Enterprise ประสานรอยต่อระหว่างโครงสร้างพื้นฐาน AI กับ เอเจนต์ที่พร้อมใช้งานจริงด้วยการรวมไลฟ์ไซเคิลของ AI ให้เป็นหนึ่งเดียวกับ Red Hat Enterprise Linux และ  Red Hat OpenShift ซึ่งเป็นโครงสร้างพื้นฐานชั้นนำของอุตสาหกรรม

 

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอรส์ระดับแนวหน้าของโลก ประกาศเปิดตัว Red Hat AI Enterprise แพลตฟอร์ม AI แบบเบ็ดเสร็จ สามารถรองรับการใช้และบริหารจัดการโมเดล AI, เอเจนต์ (agent) และแอปพลิเคชัน AI ที่อยู่บนไฮบริดคลาวด์ทั้งหมด แพลตฟอร์มนี้เข้าร่วมเป็นส่วนหนึ่งของพอร์ตโฟลิโอด้าน AI ของเร้ดแฮท ซึ่งประกอบด้วย Red Hat AI Inference Server, Red Hat OpenShift AI และ Red Hat Enterprise Linux AI นอกจากนี้เร้ดแฮทยังได้เปิดตัว Red Hat AI 3.3 ซึ่งเป็นการอัปเดทและการเพิ่มประสิทธิภาพครั้งสำคัญของพอร์ตโฟลิโอด้าน AI ที่มีอยู่ทั้งหมดของบริษัทฯ โซลูชันทั้งสองนี้รวมพลังกันมอบชุดโซลูชันที่ครอบคลุมตั้งแต่ระดับฮาร์ดแวร์ไปจนถึงระดับซอฟต์แวร์เอเจนต์ (metal-to-agent) โดยผสานรวม Linux และโครงสร้างพื้นฐาน Kubernetes เข้ากับความสามารถในการอนุมาน (inference) และการทำงานของเอเจนต์ (agent) เพื่อช่วยให้องค์กรต่าง ๆ เปลี่ยนจากการทำงานและการทดลองที่กระจัดกระจายไปเป็นการทำงานอัตโนมัติที่ควบคุมดูแลตามมาตรฐานขององค์กรได้

แลนด์สเคปด้าน AI ขององค์กรกำลังพัฒนาอย่างรวดเร็ว จากอินเทอร์เฟซการแชทแบบง่าย ๆ ไปเป็นเวิร์กโฟลว์เอเจนต์อัตโนมัติ (autonomous agentic workflows) ที่มีความซับซ้อนสูงมีปริมาณงานและขีดความสามารถที่มากขึ้น (high-density) ซึ่งต้องการการบูรณาการเทคโนโลยีที่มีอยู่เข้าด้วยกันอย่างมาก อย่างไรก็ตาม องค์กรจำนวนมากยังคงติดอยู่กับ “ระยะนำร่อง” เนื่องจากเครื่องมือมากมายที่กระจัดกระจายและโครงสร้างพื้นฐานที่ไม่เป็นเอกภาพ Red Hat AI Enterprise จัดการกับความท้าทายนี้ด้วยการรวมไลฟ์ไซเคิลของโมเดลและแอปพลิเคชันไว้ด้วยกัน ซึ่งช่วยให้ทีมไอทีสามารถบริหารจัดการ AI เหมือนเป็นระบบปกติระบบหนึ่งขององค์กร แทนที่จะเป็นโปรเจกต์ที่ต่างคนต่างทำ ช่วยให้การให้บริการ AI เชื่อถือได้และนำกลับมาใช้ใหม่ได้เหมือนกับซอฟต์แวร์แบบดั้งเดิมขององค์กร

Red Hat AI Enterprise คือพื้นฐานรองรับการนำ AI มาใช้งานจริง 

Red Hat AI Enterprise มอบความสามารถสำคัญต่าง ๆ เช่น การอนุมาน AI คุณภาพสูง, การปรับจูนและปรับแต่งโมเดล รวมถึงการใช้และบริหารจัดการ เอเจนต์ ที่มาพร้อมความยืดหยุ่นที่สามารถรองรับโมเดลและฮาร์ดแวร์ใดก็ได้ในทุกสภาพแวดล้อม Red Hat OpenShift ซึ่งเป็นแพลตฟอร์มแอปพลิเคชันไฮบริดคลาวด์ที่ขับเคลื่อนโดย Kubernetes ชั้นนำของวงการ เป็นขุมพลังที่ให้การสนับสนุน Red Hat AI Enterprise ให้สามารถมอบประสบการณ์การใช้งานที่สอดคล้องเป็นเอกภาพ และมีความสามารถในการปรับขนาดสูง พร้อมมาตรฐานความปลอดภัยที่รัดกุมบนทุกสภาพแวดล้อมผ่านการใช้เครื่องมือและเฟรมเวิร์กที่คุ้นเคย นอกจากนี้ NVIDIA และเร้ดแฮทได้ร่วมกันพัฒนา Red Hat AI Factory with NVIDIA ขึ้นมาใหม่ ซึ่งเป็นการรวม Red Hat AI Enterprise และ NVIDIA AI Enterprise เข้าด้วยกันเพื่อช่วยเร่งความเร็วและปรับขนาดการใช้งานในการนำ AI มาใช้งานจริงในองค์กร

ประโยชน์หลัก ๆ ของ Red Hat AI Enterprise

  • การอนุมาน AI ที่รวดเร็วขึ้น คุ้มค่าการลงทุนมากขึ้น และปรับขนาดได้ โดยใช้เครื่องมืออนุมานที่เป็น vLLM และเฟรมเวิร์กการอนุมานแบบกระจายตัว llm-d เพื่อทำให้การใช้โมเดล generative AI มีประสิทธิภาพสูงสุดบนทุกสภาพแวดล้อมที่ใช้ฮาร์ดแวร์แบบไฮบริด
  • การสังเกตการณ์แบบครบวงจร และการบริหารจัดการไลฟ์ไซเคิล เพื่อช่วยขับเคลื่อนการกำกับดูแลไลฟ์ไซเคิลของ AI และลดความเสี่ยงด้วยชุดเทคโนโลยี AI ระดับองค์กรที่ผ่านการทดสอบ ผสานรวมการทำงานร่วมกันได้อย่างสมบูรณ์ และพร้อมใช้งานทันที
  • ความยืดหยุ่นที่มีให้กับไฮบริดคลาวด์ทั้งหมด โดยช่วยให้องค์กรต่าง ๆ สามารถใช้และบริหารจัดการโมเดล AI เอเจนต์ และแอปพลิเคชัน ได้อย่างเป็นเอกภาพมากขึ้น ในทุกสภาพแวดล้อมที่ธุรกิจต้องการใช้งาน ภายใต้การสนับสนุนจากแพลตฟอร์มที่เชื่อถือได้ต่าง ๆ ของเร้ดแฮท

การขยายความยืดหยุ่นเชิงกลยุทธ์และประสิทธิภาพการทำงานแบบครบวงจร ด้วย Red Hat AI 3.3

กลยุทธ์ของ Red Hat คือการให้ความสำคัญกับการใช้แพลตฟอร์มหนึ่งเดียวเป็นตัวเชื่อมช่องว่างระหว่างความเสถียรของภารกิจสำคัญกับนวัตกรรมล้ำสมัย ซอฟต์แวร์เวอร์ชันล่าสุดได้เพิ่มทางเลือกของโมเดลให้หลากหลายขึ้น เพิ่มประสิทธิภาพชิปประมวลผลยุคใหม่อย่างเต็มรูปแบบ และเสริมแกร่งด้านความคงเส้นคงวาในการดำเนินงานให้กับโมเดลที่ล้ำสมัยและทรงพลัง

ฟีเจอร์และประสิทธิภาพใหม่ ๆ

  • ระบบนิเวศของโมเดลที่ขยายใหญ่ขึ้นด้วย Mistral-Large-3, Nemotron-Nano และ Apertus-8B-Instruct ในเวอร์ชันที่ผ่านการบีบอัด (compressed versions) ซึ่งได้รับการตรวจสอบความถูกต้องและพร้อมใช้งานจริง สามารถเรียกใช้งานผ่าน OpenShift AI Catalog นอกจากนี้ ซอฟต์แวร์เวอร์ชันนี้ยังรองรับการใช้งานโมเดลล้ำสมัย เช่น Ministral 3 และ DeepSeek-V3.2 ที่ใช้เทคโนโลยี sparse attention พร้อมเพิ่มประสิทธิภาพให้กับการทำงานแบบ multimodal ซึ่งรวมถึงการเร่งความเร็ว 3x Whisper, การรองรับข้อมูลเชิงพื้นที่, การถอดรหัสแบบคาดการณ์ล่วงหน้าของ EAGLE ที่มีการเพิ่มประสิทธิภาพ และการเรียกใช้เครื่องมือที่ได้รับการเพิ่มประสิทธิภาพเพื่อรองรับ agentic workflows
  • การเข้าใช้โมเดล AI ได้แบบ self-service ผ่านเทคโนโลยี Models-as-a-Service (MaaS) เวอร์ชันทดสอบ ทีมไอทีสามารถให้บริการการเข้าถึงแบบ self-service ไปยังโมเดลที่โฮสต์แบบส่วนตัว ผ่าน API Gateway วิธีการแบบรวมศูนย์นี้ช่วยให้มั่นใจได้ว่าผู้ใช้ภายในองค์กรสามารถใช้งาน AI ได้แบบออนดีมานด์พร้อมทั้งสร้างรากฐานด้าน AI ที่มีความพร้อมใช้งาน เพื่อส่งเสริมการนำ AI แบบไพรเวทและปรับขนาดได้ไปใช้ในองค์กร
  • ขยายการรองรับฮาร์ดแวร์ที่หลากหลาย รวมถึงการเปิดตัว generative AI บน CPU โดยเริ่มจาก Intel CPUs ที่ช่วยเพิ่มความคุ้มทุนด้านการอนุมานโมเดลภาษาขนาดเล็ก (SLM) นอกจากนี้ แพลตฟอร์มยังได้ขยายการรับรองฮาร์ดแวร์ NVIDIA Blackwell Ultra และรองรับ accelerators รุ่น AMD MI325X
  • รวมไลฟ์ไซเคิลของข้อมูลสู่โมเดลให้เป็นหนึ่งเดียวและปลอดภัยด้วย Red Hat AI Python Index ใหม่ คลังเก็บข้อมูลที่เชื่อถือได้นี้มอบเครื่องมือสำคัญต่าง ๆ ที่มีความแข็งแกร่งเพียงพอต่อการใช้งานในระดับองค์กร ซึ่งรวมถึง Docling, SDG Hub, และ Training Hub ซึ่งช่วยให้ทีมทำงานเปลี่ยนจากการทดลองที่กระจัดกระจายไปสู่ไปป์ไลน์การใช้งานจริงที่ทำซ้ำได้และเน้นเรื่องความปลอดภัยเป็นสำคัญ
  • การตรวจสอบและความปลอดภัย AI ที่ครอบคลุม พร้อมความสามารถในการมองเห็นสถานะ ความสมบูรณ์ ประสิทธิภาพ และพฤติกรรมของโมเดล โดยระบบจะแสดงข้อมูลการเก็บและส่งข้อมูลการทำงานของเวิร์กโหลด AI ทั้งหมดแบบเรียลไทม์ ช่วยให้สามารถใช้งาน llm-d และใช้งานคลัสเตอร์และโมเดลในรูปแบบ Models-as-a-Service (MaaS) และจับคู่กับ NeMo Guardrails เวอร์ชันทดสอบที่รวมเข้าด้วยกัน เพื่อช่วยให้นักพัฒนาซอฟต์แวร์สามารถควบคุมความปลอดภัยในการดำเนินงานและควบคุมการโต้ตอบกับ AI ทั้งหมดให้เป็นไปในทิศทางเดียวกันได้
  • การเข้าถึงทรัพยากร GPU ได้แบบออนดีมานด์ ช่วยให้องค์กรสามารถใช้ GPU-as-a-Service ภายในองค์กรได้เอง ผ่านการจัดการอย่างชาญฉลาด และการเข้าถึงกลุ่มฮาร์ดแวร์ส่วนกลาง (pooled hardware) พร้อมระบบบันทึกสถานะอัตโนมัติ (automatic checkpointing) เพื่อจัดเก็บสถานะของงานเทรนโมเดลที่ใช้เวลานาน ซึ่งช่วยป้องกันข้อมูลหรืองานไม่ให้สูญหาย และให้คงความสามารถในการคาดการณ์ต้นทุนการประมวลผลได้มากขึ้น แม้ในสภาพแวดล้อมที่มีความผันผวนสูง หรือในสภาพแวดล้อมที่ทรัพยากรอาจถูกดึงกลับคืนได้ทุกเมื่อ

คำกล่าวสนับสนุน

นายโจ เฟอร์นานเดส รองประธานและผู้จัดการทั่วไป หน่วยธุรกิจ AI ของ Red Hat

“เพื่อให้ AI สามารถส่งมอบคุณค่าทางธุรกิจที่แท้จริงได้นั้น เทคโนโลยีนี้จำเป็นต้องถูกทำให้กลายเป็นส่วนประกอบหลักในโครงสร้างซอฟต์แวร์ขององค์กร ไม่ใช่การใช้งานแยกส่วนแบบเอกเทศ Red Hat AI Enterprise จึงออกแบบมาเพื่อประสานรอยต่อระหว่างโครงสร้างพื้นฐานและนวัตกรรม ด้วยการมอบแพลตฟอร์มที่เป็นหนึ่งเดียวตั้งแต่ระดับฮาร์ดแวร์ไปจนถึงระดับ เอเจนต์ การผสานรวมความสามารถในการปรับจูนขั้นสูงและความสามารถของ เอเจนต์ เข้ากับรากฐานระดับชั้นนำของอุตสาหกรรมเช่น Red Hat Enterprise Linux และ Red Hat OpenShift ทำให้เราสามารถให้บริการเทคโนโลยีที่ครบวงจร ตั้งแต่ฮาร์ดแวร์ที่เร่งความเร็วด้วย GPU ไปจนถึงโมเดลและ เอเจนต์ที่ขับเคลื่อนตรรกะทางธุรกิจ นอกจากนี้ Red Hat AI 3.3 ยังช่วยให้องค์กรต่าง ๆ ก้าวข้ามจากการทดลองที่กระจัดกระจาย ไปสู่การปฏิบัติงานด้าน AI ที่ควบคุมได้ ทำซ้ำได้ และมีประสิทธิภาพสูง ครอบคลุมทั่วทั้งไฮบริดคลาวด์”

แหล่งข้อมูลเพิ่มเติม

ช่องทางติดต่อกับเร้ดแฮท

Alibaba Cloud Drives a More Sustainable, Efficient and Intelligent Olympic Experience at Milano Cortina 2026

Alibaba Cloud ขับเคลื่อนประสิทธิภาพ ความชาญฉลาด และความยั่งยืนในการแข่งขันโอลิมปิก Milano Cortina 2026

Alibaba Cloud Drives a More Sustainable, Efficient and Intelligent Olympic Experience at Milano Cortina 2026

  • Transportation Management System mobilizes over 80,000 Olympic stakeholders
  • Media Rights Holders had access to 4,198 video highlights produced by Alibaba Cloud’s Real-Time 360º Replay systems
  • Qwen models power first use of LLM Technologies supporting fan engagement and Olympics ecosystem

In a ongoing effort to redefine the digital landscape of the Olympic Movement, Alibaba Group, the Worldwide TOP Partner of the International Olympic Committee (IOC), has supported the Olympic and Paralympic Winter Games Milano Cortina 2026 (Milano Cortina 2026) in becoming the most intelligent Games in Olympic history.

Through a suite of advanced cloud and AI-driven solutions, Alibaba Cloud, the digital technology and intelligence backbone of Alibaba Group, is empowering the IOC and the Milano Cortina local organizing committee to monitor and manage energy consumption, optimize transportation systems, enhance broadcasting operations, and foster IOC’s first use of LLM technology.

Kirsty Coventry, International Olympic Committee President, said: “Every Olympic Games leaves its own mark in terms of technological innovation. With Alibaba’s Cloud technologies and Qwen models, these Games have set a new benchmark for intelligence and creativity.”

Dr. Feifei Li, Senior Vice President of Alibaba Cloud Intelligence Group, President of International Business, said: “Milano Cortina 2026 marks a milestone with the first use of LLM technologies in the Olympic history powered by Alibaba’s Qwen models. Our cloud and AI-powered systems that supported Milano Cortina 2026 demonstrate our dedication to enabling smarter operations, deeper engagement, and new possibilities for the Olympic Movement.”

Sustainability successes

Alibaba Cloud’s AI-driven sustainability solutions and energy-efficient cloud infrastructure enabled Milano Cortina 2026 to effectively measure and analyze carbon emissions. This move sets a scalable model for future host cities to deliver more energy-efficient and carbon-saving Olympic Games.

Key systems developed and deployed include:

  • Enhanced Energy Data Management Systemdeployed across all competition venues, allowing the Milano Cortina 2026 Organizing Committee and the IOC to monitor and analyse energy consumption and carbon emissions in real time. The IOC is also testing the Intelligent chatbot powered by Alibaba’s Qwen large language models, which enables staff to access both historical and real-time insights on electricity usage and power demand contingency.
  • Energy Issue Tracking Systemthat digitalise workflows for identifying, escalating, and resolving energy anomalies, ensuring rapid responses and improving operational efficiency.
  • Codeveloped Sustainability Platformthat allows organisers to assess the full lifecycle footprint of Milano Cortina 2026, with a dedicated focus on generating long-term benefits for local communities.

Accelerating efficiency

Drawing on iconic, world-class winter sports venues, Milano Cortina 2026 unfolded across more than 22,000 square kilometres of northern Italy’s alpine mountains and historic cities. Milano Cortina 2026 marked the Winter Games with the widest geographical spread in Olympic history. Spanning tens of thousands of square kilometres across the Alps, the event utilized Alibaba Cloud’s systems to assist game judging, coordinate logistics and operations, ensuring the Games ran smoothly and efficiently.

The IOC has worked with Alibaba Cloud to debut a sophisticated Video Adjudication system for the Milano Cortina 2026. Built on Alibaba Cloud’s low-latency livestreaming technology, this solution has been integrated into the core competition infrastructure to improve officiating precision. By synchronized management of multi-signal video feeds, the system assists referees in identifying fouls and provides instant arbitration playback to resolve scoring disputes. The technology has been deployed in Freestyle Skiing and Snowboard Slopestyle events to ensure accuracy for the judging panel.

The Transportation Management System (TMS), built on Alibaba Cloud, seamlessly connected venues across vast distances and delivered precise mobility assurance for millions of Olympic stakeholders including IOC staff, athletes, volunteers, media and key personnel. Through the Milano Cortina 2026 Transport App and related system services, athletes and Olympic staff accessed personalised journey planning and real-time updates via connected official transport services. Throughout the Games, the app has mobilized over 80,000 individuals.

Other operational service applications — from e-voucher system supplying meals to tens of thousands of Olympic stakeholders, to meteorological service portal providing real-time weather information for Milano Cortina Organizing Committee to ensure the safety of outdoor competitions — also ran on Alibaba Cloud’s stable and resilient infrastructure.

In addition, the cloud provider’s Apsara Video technology has powered cloud-based live streaming and broadcasting for Milano Cortina 2026, enabling global media access to press conferences, IOC daily briefings, and post-competition athlete interviews in real time. This fully cloud-hosted Game Video Content Distribution service supported journalists with seamless video processing, editing, live and on-demand distribution, and secure download capabilities — all delivered through Alibaba Cloud’s resilient infrastructure.

An AI makeover on Olympic Tradition

Alibaba Cloud introduced an “Intelligent Pin Trading Station” in the Milano Olympic Village, adding an AI-enabled twist to one of the Games’ most cherished traditions.

Powered by Alibaba’s Qwen model, the station combines embodied devices with an AI system capable of understanding both language and visuals. Athletes place a pin into a capsule and interact naturally using voice and gestures. The AI interprets commands in real-time and guides a robotic arm to select a pin left by a previous participant. The result is a playful exchange that connects athletes through a tradition they already love, while broadening the range of people, countries, and stories represented in each trade.

The Intelligent Pin Trading Station demonstrates how cloud-based AI can support new forms of engagement—creating small moments of delight that encourage connection and discovery. Throughout the Games, Alibaba Cloud Intelligent Pin Station facilitated over 8,000 pin exchanges among athletes.

Intelligent by design

At Milano Cortina 2026, Alibaba Cloud’s Qwen large language models powered the first use of LLM technologies in Olympic history, advancing the IOC’s digital transformation and delivering a smarter, more connected Games. Qwen supported a range of applications, from enhancing global fan engagement to streamlining information management and operations across the Olympic ecosystem.

Key platforms — including the Olympic AI Assistant, NOC AI Assistant, and the Sports AI Platform — used Alibaba Cloud’s infrastructure to enable multilingual fan interactions, intelligent content search, and largescale media management. Collectively, these AI-driven systems set new benchmarks for accessibility, efficiency, and intelligence within the Olympic environment.

Broadcasting redefined

In broadcasting, the OBS Live Cloud Platform, powered by Alibaba Cloud, transformed how the Olympic Games were produced and delivered. Replacing traditional satellite operations, the cloud-based platform provided flexible, scalable, and high-quality content distribution of 442 live video feeds for 42 broadcasters worldwide.

Cloud broadcasting significantly reduces the physical footprint. Milano Cortina 2026’s International Broadcasting Centre was 25% smaller than Beijing 2022 and 30% smaller than Pyeongchang 2018.

Complementing this were advanced AI solutions such as the Real-Time 360º Replay systems and the Qwen-powered Automatic Media Description System (AMD). Together, these innovations modernised live production workflows, improved media turnaround speed, and set a new standard for intelligent broadcasting in the Olympic Movement. Throughout the Milano Cortina 2026, AMD has processed livestream signals of 391 competition sessions; meanwhile, Media Rights Holders (MRHs) had access to 4,198 video highlights of exciting moments from the competitions, all captured and produced by Alibaba Cloud’s Real-Time 360º Replay systems.

Through its longstanding collaboration with the IOC, Alibaba Cloud continues to transform the Olympic Games, making them more sustainable, efficient, and intelligent for all participants and audiences worldwide.

Alibaba Cloud ขับเคลื่อนประสิทธิภาพ ความชาญฉลาด และความยั่งยืนในการแข่งขันโอลิมปิก Milano Cortina 2026

Alibaba Cloud ขับเคลื่อนประสิทธิภาพ ความชาญฉลาด และความยั่งยืนในการแข่งขันโอลิมปิก Milano Cortina 2026

Alibaba Cloud ขับเคลื่อนประสิทธิภาพ ความชาญฉลาด และความยั่งยืนในการแข่งขันโอลิมปิก Milano Cortina 2026

  • ระบบการจัดการขนส่ง โชว์ศักยภาพ เคลื่อนพลบุคลากรโอลิมปิกมากกว่า 80,000 ราย
  • ผู้ถือลิขสิทธิ์สื่อได้รับสิทธิ์ในการเข้าถึงวิดีโอไฮไลต์ 4,198 รายการ ซึ่งผลิตขึ้นจากระบบ Real-Time 360º Replay ของ Alibaba Cloud
  • โมเดลต่าง ๆ ของ Qwen ขับเคลื่อนการนำเทคโนโลยี LLM มาใช้เป็นครั้งแรก เพื่อสนับสนุนการมีส่วนร่วมของแฟนกีฬาและระบบนิเวศของโอลิมปิก

อาลีบาบา กรุ๊ป (Alibaba Group) ในฐานะพันธมิตรหลักระดับโลก (Worldwide TOP Partner) ของคณะกรรมการโอลิมปิกสากล (IOC) เดินหน้าปรับโฉมภูมิทัศน์ดิจิทัลของการแข่งขันโอลิมปิกอย่างต่อเนื่อง สนับสนุนกระบวนการจัดการแข่งขันโอลิมปิกและพาราลิมปิกฤดูหนาว มิลาน-กอร์ตินา 2026 (Milano Cortina 2026) เพื่อสร้างประวัติศาสตร์หน้าใหม่ในฐานะมหกรรมกีฬาที่ล้ำสมัยและชาญฉลาดที่สุดเท่าที่เคยมีมา

อาลีบาบา คลาวด์ (Alibaba Cloud) ธุรกิจด้านเทคโนโลยีดิจิทัลและหน่วยงานหลักด้านอินเทลลิเจนซ์ของอาลีบาบา กรุ๊ป นำชุดโซลูชันที่ขับเคลื่อนด้วย AI และโซลูชันคลาวด์ ขับเคลื่อนการทำงานของ IOC และคณะกรรมการจัดการแข่งขัน Milano Cortina เพื่อติดตามและบริหารจัดการการใช้พลังงาน ขับเคลื่อนให้ระบบขนส่งต่าง ๆ มีประสิทธิภาพมากขึ้น ยกระดับการถ่ายทอดสด และส่งเสริมการใช้ LLM เป็นครั้งแรกของ IOC

นางเคอร์สตี โคเวนทรี ประธานคณะกรรมการโอลิมปิกสากล กล่าวว่า “การแข่งขันกีฬาโอลิมปิกทุกครั้งล้วนทิ้งร่องรอยนวัตกรรมทางเทคโนโลยีไว้ เทคโนโลยีคลาวด์และโมเดล Qwen ของ Alibaba ที่ขับเคลื่อนการแข่งขันในครั้งนี้ ได้สร้างมาตรฐานใหม่ทั้งในด้านความฉลาดล้ำสมัยและความคิดสร้างสรรค์”

ดร. เฟยเฟย ลี รองประธานอาวุโส อาลีบาบา คลาวด์ อินเทลลิเจนซ์ กรุ๊ป และประธานฝ่ายธุรกิจระหว่างประเทศ กล่าวว่า “การแข่งขันโอลิมปิก Milano Cortina 2026 ครั้งนี้ นับเป็นก้าวสำคัญในประวัติศาสตร์โอลิมปิกด้วยการนำเทคโนโลยีโมเดลภาษาขนาดใหญ่ (LLM) มาใช้เป็นครั้งแรก โดยใช้โมเดล Qwen ของ Alibaba เป็นตัวขับเคลื่อน นอกจากนี้ระบบคลาวด์และระบบที่ขับเคลื่อนด้วย AI ของบริษัทฯ ที่ใช้สนับสนุนการแข่งขัน Milano Cortina 2026 ครั้งนี้ คือเครื่องยืนยันถึงความทุ่มเทของเรา เพื่อทำให้ทุกแง่มุมและทุกความเคลื่อนไหวของการแข่งขันโอลิมปิกดำเนินไปอย่างชาญฉลาด มีการปฏิสัมพันธ์ที่แน่นแฟ้นกว่าเดิม และเปิดประตูสู่โอกาสและความเป็นไปได้ใหม่ ๆ ให้แก่มหกรรมกีฬานี้”

ความสำเร็จด้านความยั่งยืน

โซลูชันด้านความยั่งยืนที่ใช้ AI และโครงสร้างพื้นฐานคลาวด์ที่ประหยัดพลังงานของ Alibaba Cloud ช่วยให้สามารถวัดผลและวิเคราะห์การปล่อยคาร์บอน ณ การแข่งขัน Milano Cortina 2026 ได้อย่างแม่นยำ และนับเป็นโมเดลต้นแบบที่สามารถขยายผลให้เมืองเจ้าภาพในอนาคตสามารถจัดการแข่งขันโอลิมปิกที่ประหยัดพลังงานและลดการปล่อยคาร์บอนได้อย่างมีประสิทธิภาพมากขึ้น

ระบบสำคัญที่มีการพัฒนาและนำมาใช้งานจริง ได้แก่

  • ระบบจัดการข้อมูลด้านพลังงานทรงประสิทธิภาพ มีการนำไปใช้ครอบคลุมทุกสนามการแข่งขัน เพื่อช่วยให้คณะกรรมการจัดงาน Milano Cortina 2026 และ IOC สามารถติดตามและวิเคราะห์การใช้พลังงานรวมถึงการปล่อยคาร์บอนได้แบบเรียลไทม์ นอกจากนี้ IOC ยังกำลังทดสอบแชทบอทชาญฉลาดที่ขับเคลื่อนด้วย Qwen ซึ่งเป็นโมเดลภาษาขนาดใหญ่ของ Alibaba ซึ่งช่วยให้เจ้าหน้าที่เข้าถึงและเรียกดูข้อมูลเชิงลึกด้านการใช้ไฟฟ้าและแผนสำรองพลังงานได้ทันที ทั้งข้อมูลปัจจุบันที่เรียกดูได้แบบเรียลไทม์ และข้อมูลสถิติ
  • ระบบติดตามประเด็นด้านพลังงาน ที่ช่วยยกระดับกระบวนการทำงานให้อยู่ในรูปแบบดิจิทัล ไม่ว่าจะเป็นการตรวจระบุความผิดปกติ การแจ้งเหตุตามลำดับขั้น และการแก้ไขความผิดปกติของการใช้พลังงาน เพื่อให้เกิดการตอบสนองที่รวดเร็วและเพิ่มประสิทธิภาพในการดำเนินงาน
  • แพลตฟอร์มเพื่อความยั่งยืนที่พัฒนาร่วมกัน ช่วยให้ผู้จัดงานสามารถประเมินผลกระทบทางสิ่งแวดล้อมตลอดช่วงเวลาการจัดการแข่งขัน Milano Cortina 2026 มุ่งเน้นการสร้างประโยชน์ในระยะยาวให้แก่ชุมชนท้องถิ่นอย่างยั่งยืน

การขับเคลื่อนประสิทธิภาพอย่างก้าวกระโดด

ท่ามกลางฉากหลังของสถานที่จัดการแข่งขันกีฬาฤดูหนาวระดับโลกที่เปี่ยมไปด้วยมนต์ขลัง การแข่งขันโอลิมปิก Milano Cortina 2026 ได้แผ่ขยายอาณาเขตการจัดการแข่งขันครอบคลุมพื้นที่มากกว่า 22,000 ตารางกิโลเมตร ตั้งแต่แนวเทือกเขาแอลป์ทางตอนเหนือของอิตาลี ไปจนถึงย่านเมืองเก่าอันทรงคุณค่าทางประวัติศาสตร์ Milano Cortina 2026 นับเป็นการแข่งขันกีฬาฤดูหนาวที่มีการกระจายตัวทางภูมิศาสตร์อย่างกว้างขวางที่สุดในประวัติศาสตร์การจัดการแข่งขันกีฬาโอลิมปิก การแข่งขันครั้งนี้เลือกใช้ระบบต่าง ๆ ของ Alibaba Cloud เพื่อสนับสนุนการตัดสินเกมการแข่งขัน การประสานงานด้านโลจิสติกส์ และการดำเนินงานต่าง ๆ บนพื้นที่จัดงานที่ครอบคลุมหลายหมื่นตารางกิโลเมตรทั่วเทือกเขาแอลป์ เพื่อให้มั่นใจว่าการแข่งขันจะดำเนินไปอย่างราบรื่นและมีประสิทธิภาพ

IOC ร่วมกับ Alibaba Cloud เปิดตัวระบบตัดสินด้วยวิดีโอ (Video Adjudication system) ที่ทันสมัยเป็นครั้งแรก ณ การแข่งขัน Milano Cortina 2026 ระบบนี้ทำงานด้วยเทคโนโลยีการถ่ายทอดสดที่มีลาเทนซีต่ำของ Alibaba Cloud และได้มีการนำระบบนี้บูรณาการเข้ากับโครงสร้างพื้นฐานหลักของการแข่งขันเพื่อเพิ่มความแม่นยำในการตัดสิน ระบบนี้สามารถบริหารจัดการเชื่อมโยงสัญญาณวิดีโอจากหลายแหล่ง (synchronized management) ซึ่งช่วยให้กรรมการสามารถระบุการฟาวล์ และมอบภาพย้อนหลังให้ทันทีเพื่อใช้ในการตัดสินและยุติข้อโต้แย้งเรื่องคะแนน ได้มีการนำระบบนี้มาใช้งานจริงกับการแข่งขัน Freestyle Skiing และ Snowboard Slopestyle เพื่อให้คณะกรรมการมั่นใจว่าทำการตัดสินได้อย่างถูกต้องแม่นยำ

ระบบบริหารจัดการการขนส่ง (TMS) ที่สร้างอยู่บน Alibaba Cloud สามารถเชื่อมต่อกับสนามแข่งขันที่อยู่ห่างไกลได้อย่างราบรื่น ช่วยให้ผู้มีส่วนเกี่ยวข้องกับการแข่งขันหลายล้านคน ไม่ว่าจะเป็นเจ้าหน้าที่ของ IOC นักกีฬา อาสาสมัคร สื่อมวลชน และบุคลากรสำคัญเดินทางได้อย่างมั่นใจ ผ่านแอปพลิเคชัน Milano Cortina 2026 Transport และบริการระบบที่เกี่ยวข้องต่าง ๆ ที่ช่วยให้นักกีฬาและเจ้าหน้าที่โอลิมปิกใช้แผนการเดินทางเฉพาะตัวและได้รับข้อมูลอัปเดทแบบเรียลไทม์ผ่านการเชื่อมต่อกับบริการระบบขนส่งอย่างเป็นทางการ แอปพลิเคชันนี้อำนวยความสะดวกในการเดินทางให้กับผู้ใช้งานมากกว่า 80,000 ราย ตลอดการแข่งขันครั้งนี้ 

แอปพลิเคชันที่ให้บริการด้านการดำเนินงานอื่น ๆ ล้วนทำงานบนโครงสร้างพื้นฐานที่มั่นคงและยืดหยุ่นสูงของ Alibaba Cloud ไม่ว่าจะเป็นระบบ e-voucher สำหรับให้บริการด้านอาหารแก่บุคลากรและผู้เกี่ยวข้องในการจัดการแข่งขันโอลิมปิกหลายหมื่นคน ไปจนถึงพอร์ทัลบริการด้านอุตุนิยมวิทยาที่รายงานข้อมูลสภาพอากาศแบบเรียลไทม์ให้แก่คณะกรรมการจัดการแข่งขัน เพื่อดูแลให้การแข่งขันกีฬากลางแจ้งมีความปลอดภัย  

นอกจากนี้ยังมีการนำเทคโนโลยี Apsara Video ของ Alibaba Cloud มาใช้ขับเคลื่อนการสตรีมมิ่งและการถ่ายทอดสดผ่านคลาวด์ในการแข่งขัน Milano Cortina 2026 เพื่อช่วยให้สื่อมวลชนทั่วโลกเข้าถึงการแถลงข่าว การสรุปประเด็นประจำวันของ IOC และการสัมภาษณ์นักกีฬาหลังการแข่งขันได้แบบเรียลไทม์ บริการกระจายคอนเทนต์วิดีโอของการแข่งขัน (Game Video Content Distribution service) ที่โฮสต์อยู่บนคลาวด์อย่างเต็มรูปแบบนี้สนับสนุนการทำงานของนักข่าวทั้งในด้านการประมวลผล การตัดต่อ การเผยแพร่แบบสดและแบบเลือกชมย้อนหลัง (on-demand) รวมถึงความสามารถในการดาวน์โหลดที่ปลอดภัย ซึ่งทั้งหมดนี้ให้บริการผ่านโครงสร้างพื้นฐานที่แข็งแกร่งของ Alibaba Cloud

ปรับโฉมธรรมเนียมปฏิบัติของการแข่งขันโอลิมปิกด้วย AI

Alibaba Cloud เปิดตัว “Intelligent Pin Trading Station” หรือจุดแลกพินอัจฉริยะ ณ หมู่บ้านโอลิมปิกมิลาน โดยนำ AI มาสร้างสีสันและลูกเล่นใหม่ ๆ ให้กับหนึ่งในธรรมเนียมปฏิบัติที่ทรงคุณค่าและเป็นที่นิยมมากที่สุดอย่างหนึ่งของการแข่งขันกีฬาโอลิมปิก นั่นคือการแลกพินโอลิมปิกระหว่างนักกีฬาด้วยกัน

จุดแลกพินแห่งนี้ขับเคลื่อนด้วยโมเดล Qwen ของ Alibaba โดยผสานรวมอุปกรณ์อัจฉริยะเข้ากับระบบ AI ที่สามารถเข้าใจทั้งภาษาและภาพ เพียงนักกีฬาวางพินของตนลงในแคปซูลและโต้ตอบกับระบบด้วยเสียงและท่าทางที่เป็นธรรมชาติ จากนั้น AI จะตีความคำสั่งที่ได้รับแบบเรียลไทม์และสั่งการให้แขนกลเลือกพินที่ผู้เข้าร่วมคนก่อนหน้าวางไว้มาแลกเปลี่ยนให้ นำมาซึ่งการแลกเปลี่ยนที่สนุกสนานที่เชื่อมโยงนักกีฬาเข้าด้วยกันผ่านธรรมเนียมปฏิบัติที่เป็นที่ชื่นชอบของเหล่านักกีฬา ไปพร้อม ๆ กับการขยายขอบเขตของการแบ่งปันเรื่องราวและมิตรภาพระหว่างผู้คนต่างวัฒนธรรมจากประเทศที่หลากหลายได้อย่างกว้างขวาง

จุดแลกพินอัจฉริยะนี้ คือข้อพิสูจน์ว่า AI บนคลาวด์ สามารถสร้างรูปแบบการมีส่วนร่วมใหม่ ๆ ได้อย่างไร โดยการสร้างช่วงเวลาแห่งความประทับใจเล็ก ๆ ที่กระตุ้นให้เกิดการเชื่อมโยงและการค้นพบมิตรภาพใหม่ ๆ จุดแลกพินอัจฉริยะของ Alibaba Cloud ได้ช่วยอำนวยความสะดวกในการแลกเปลี่ยนพินระหว่างนักกีฬาไปมากกว่า 8,000 ครั้งตลอดการแข่งขันครั้งนี้

อัจฉริยะออกแบบได้ 

Alibaba Cloud นำ Qwen ซึ่งเป็นโมเดลภาษาขนาดใหญ่ของบริษัทฯ มาสร้างปรากฎการณ์การใช้เทคโนโลยี LLM เป็นครั้งแรกในประวัติศาสตร์โอลิมปิก ณ การแข่งขัน Milano Cortina 2026 เพื่อขับเคลื่อนการทรานส์ฟอร์มสู่ดิจิทัลของ IOC และการจัดมหกรรมกีฬาที่ชาญฉลาดและเชื่อมโยงถึงกันได้มากขึ้น โดย Qwen ได้สนับสนุนการทำงานของแอปพลิเคชันหลากหลาย ตั้งแต่การยกระดับการมีส่วนร่วมของแฟนกีฬาทั่วโลก ไปจนถึงการจัดระเบียบการบริหารจัดการข้อมูลและการดำเนินงานที่ครอบคลุมทุกภาคส่วนในระบบนิเวศโอลิมปิก

แพลตฟอร์มสำคัญต่าง ๆ เช่น Olympic AI Assistant, NOC AI Assistant และ Sports AI Platform ล้วนทำงานบนโครงสร้างพื้นฐานของ Alibaba Cloud เพื่อรองรับการปฏิสัมพันธ์กับแฟนกีฬาได้หลายภาษา การสืบค้นข้อมูลที่ชาญฉลาด และการบริหารจัดการสื่อจำนวนมาก ระบบที่ใช้ AI ขับเคลื่อนเหล่านี้ได้ร่วมกันสร้างบรรทัดฐานใหม่ให้กับความสามารถในการเข้าถึงข้อมูล ประสิทธิภาพ และความอัจฉริยะ ภายในระบบนิเวศของการจัดการแข่งขันโอลิมปิก 

นิยามใหม่ของการถ่ายทอดสด

แพลตฟอร์ม OBS Live Cloud บนโครงสร้างพื้นฐานของ Alibaba Cloud ได้พลิกโฉมกระบวนการผลิตและเผยแพร่ภาพการแข่งขันกีฬาโอลิมปิกไปอย่างสิ้นเชิง โดยเปลี่ยนจากระบบดาวเทียมแบบเดิมไปเป็นแพลตฟอร์มบนคลาวด์ที่มีความยืดหยุ่น ปรับขนาดการทำงานได้ และช่วยให้การส่งสัญญาณภาพสด 442 ช่องสัญญาณไปยังผู้ถ่ายทอดสด 42 รายทั่วโลกมีคุณภาพความคมชัดสูง 

การถ่ายทอดสดผ่านคลาวด์ช่วยลดการใช้พื้นที่ทางกายภาพลงอย่างมีนัยสำคัญ ศูนย์แพร่ภาพกระจายเสียงนานาชาติ (IBC) ของ Milano Cortina 2026 มีขนาดเล็กลงถึง 25% เมื่อเทียบกับการแข่งขัน Beijing 2022 และเล็กลง 30% เมื่อเทียบกับการแข่งขัน Pyeongchang 2018

โซลูชัน AI เช่น ระบบ Real-Time 360º Replay และ Qwen-powered Automatic Media Description System (AMD) คือกุญแจสำคัญที่ช่วยเติมเต็มความสามารถให้กับเทคโนโลยีเหล่านี้ นวัตกรรมเหล่านี้รวมตัวกันปรับปรุงให้กระบวนการผลิตรายการสดทันสมัย เพิ่มความเร็วในการผลิตและกระจายสื่อ รวมถึงสร้างมาตรฐานใหม่ให้กับการถ่ายทอดสดอัจฉริยะในทุกแง่มุมและความเคลื่อนไหวของโอลิมปิก ระบบ AMD ได้ดำเนินการประมวลผลสัญญาณถ่ายทอดสดรวมทั้งสิ้น 391 เซสชันการแข่งขันตลอดระยะเวลาการจัดงาน Milano Cortina 2026 ขณะเดียวกัน ผู้ถือลิขสิทธิ์สื่อยังสามารถเข้าถึงวิดีโอไฮไลต์ช่วงเวลาที่น่าตื่นเต้นจากการแข่งขันได้ถึง 4,198 รายการ ซึ่งทั้งหมดนี้ถูกบันทึกและผลิตขึ้นด้วยระบบ Real-Time 360º Replay ของ Alibaba Cloud

Alibaba Cloud ยังคงสานต่อความร่วมมือระยะยาวกับ IOC เพื่อทรานส์ฟอร์มการแข่งขันกีฬาโอลิมปิกให้มีความยั่งยืน มีประสิทธิภาพ และชาญฉลาดมากขึ้นอย่างต่อเนื่อง เพื่อมอบประสบการณ์เหนือระดับให้กับผู้เข้าร่วมและผู้ชมจากทุกมุมโลก