อีริคสันคว้าสัญญาร่วมบริหารเครือข่ายระยะยาวกับ Bharti Airtel ของอินเดีย

อีริคสันคว้าสัญญาร่วมบริหารเครือข่ายระยะยาวกับ Bharti Airtel ของอินเดีย

อีริคสันคว้าสัญญาร่วมบริหารเครือข่ายระยะยาวกับ Bharti Airtel ของอินเดีย

อีริคสัน (NASDAQ: ERIC) คว้าสัญญาระยะยาวการให้บริการด้านการจัดการในศูนย์ปฏิบัติการเครือข่าย หรือ NOC Managed Services (MS) จาก Bharti Airtel บริษัทโทรคมนาคมรายใหญ่ในอินเดีย ซึ่งเป็นการเสริมสร้างความร่วมมือที่มียาวนานระหว่างทั้งสองบริษัทให้แน่นแฟ้นยิ่งขึ้น โดยข้อตกลงเชิงกลยุทธ์นี้ยังตอกย้ำความเป็นผู้นำของอีริคสันในบริการด้านการจัดการหรือ Managed Services และสอดรับกับความมุ่งมั่นเพื่อนำเสนอบริการที่ยอดเยี่ยมให้กับผู้ใช้บริการของ Bharti Airtel

ภายใต้ข้อตกลงฉบับนี้ อีริคสันจะเปิดใช้ Intent-Based Operations ที่ขับเคลื่อนผ่านศูนย์ปฏิบัติการเครือข่าย หรือ Network Operations Center (NOC) เพื่อจัดการเครือข่ายที่ให้บริการของ Airtel ตั้งแต่ 4G, 5G NSA, 5G SA, Fixed Wireless Access (FWA), Private Networks และ Network Slicing

และในความร่วมมือนี้ อีริคสันจะเป็นผู้ดูแลและจัดการเครือข่ายทั่วประเทศอินเดียของ Airtel ผ่านศูนย์ NOC ที่ทันสมัย พร้อมขยายขนาดบริการ FWA และ Network Slicing ไปทั่วประเทศ

มร.รันดีป เซฆอน ประธานเจ้าหน้าที่บริหารฝ่ายเทคโนโลยีของ Bharti Airtel กล่าวว่า “เราตื่นเต้นที่ได้เสริมสร้างความร่วมมือกับอีริคสัน เพื่อมุ่งไปสู่เป้าหมายของเราในการสร้างเครือข่ายที่พร้อมสำหรับอนาคต และมอบประสบการณ์ที่ยอดเยี่ยมให้กับลูกค้า เราเชื่อว่าเทคโนโลยีเชิงนวัตกรรมเหล่านี้จะช่วยให้เราสามารถให้บริการตอบสนองความต้องการการใช้ดาต้าที่เพิ่มขึ้นของผู้บริโภคในอินเดียที่เชื่อมต่อผ่านระบบดิจิทัล”

มร. แอนเดรส วิเซนเต้ หัวหน้าประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ โอเชียเนียและอินเดียของอีริคสัน กล่าวว่า “ข้อตกลงสำคัญกับ Bharti Airtel ในครั้งนี้ เสริมสร้างความมุ่งมั่นของเราในการช่วยให้ Airtel มอบประสบการณ์ที่ดีที่สุดให้กับผู้ใช้บริการ ด้วยการใช้ประสิทธิภาพจาก Intent-Based NOC Operations จะทำให้ Airtel ปลดล็อกบริการที่มีความหลากหลายและตอบสนองความต้องการของลูกค้าได้ครอบคลุมยิ่งขึ้น และยังเปิดโอกาสการสร้างรายได้ใหม่ ๆ ให้กับ Airtel”

ความร่วมมือระหว่าง อีริคสัน กับ Bharti Airtel ที่ยาวนานกว่า 25 ปี ครอบคลุมเทคโนโลยีการสื่อสารเคลื่อนที่หลายยุคสมัย โดยเฉพาะอย่างยิ่งการประกาศครั้งนี้เกิดขึ้นจากการประกาศความร่วมมือระหว่าง Bharti Airtel และ อีริคสัน ในการพัฒนาเครือข่ายหลัก 5G เพื่อขับเคลื่อน 5G Evolution

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat Unlocks Generative AI for Any Model and Any Accelerator Across the Hybrid Cloud with Red Hat AI Inference Server

Red Hat AI Inference Server, powered by vLLM and enhanced with Neural Magic technologies, delivers faster, higher-performing and more cost-efficient AI inference across the hybrid cloud

Red Hat, the world’s leading provider of open source solutions, today announced Red Hat AI Inference Server, a significant step towards democratizing generative AI (gen AI) across the hybrid cloud. A new offering within Red Hat AI, the enterprise-grade inference server is born from the powerful vLLM community project and enhanced by Red Hat’s integration of Neural Magic technologies, offering greater speed, accelerator-efficiency and cost-effectiveness to help deliver Red Hat’s vision of running any gen AI model on any AI accelerator in any cloud environment. Whether deployed standalone or as an integrated component of Red Hat Enterprise Linux AI (RHEL AI) and Red Hat OpenShift AI, this breakthrough platform empowers organizations to more confidently deploy and scale gen AI in production.

Inference is the critical execution engine of AI, where pre-trained models translate data into real-world impact. It’s the pivotal point of user interaction, demanding swift and accurate responses. As gen AI models explode in complexity and production deployments scale, inference can become a significant bottleneck, devouring hardware resources and threatening to cripple responsiveness and inflate operational costs. Robust inference servers are no longer a luxury but a necessity for unlocking the true potential of AI at scale, navigating underlying complexities with greater ease.

Red Hat directly addresses these challenges with Red Hat AI Inference Server – an open inference solution engineered for high performance and equipped with leading model compression and optimization tools. This innovation empowers organizations to fully tap into the transformative power of gen AI by delivering dramatically more responsive user experiences and unparalleled freedom in their choice of AI accelerators, models, and IT environments.

vLLM: Extending inference innovation

Red Hat AI Inference Server builds on the industry-leading vLLM project, which was started by UC Berkeley in mid-2023. The community project delivers high-throughput gen AI inference, support for large input context, multi-GPU model acceleration, support for continuous batching, and more.

vLLM’s broad support for publicly available models – coupled with its day zero integration of leading frontier models including DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi and others, as well as open, enterprise-grade reasoning models like Llama Nemotron – positions it as a de facto standard for future AI inference innovation. Leading frontier model providers are increasingly embracing vLLM, solidifying its critical role in shaping gen AI’s future.

Introducing Red Hat AI Inference Server

Red Hat AI Inference Server packages the leading innovation of vLLM and forges it into the enterprise-grade capabilities of Red Hat AI Inference Server. Red Hat AI Inference Server is available as a standalone containerized offering or as part of both RHEL AI and Red Hat OpenShift AI.

Across any deployment environment, Red Hat  Inference Server provides users with a hardened, supported distribution of vLLM along with:

  • Intelligent LLM compression tools for dramatically reducing the size of both foundational and fine-tuned AI models, minimizing compute consumption while preserving and potentially enhancing model accuracy.
  • Optimized model repository, hosted in the Red Hat AI organization on Hugging Face, offers instant access to a validated and optimized collection of leading AI models ready for inference deployment, helping to accelerate efficiency by 2-4x without compromising model accuracy.
  • Red Hat’s enterprise support and decades of expertise in bringing community projects to production environments.
  • Third-party support for even greater deployment flexibility, enabling Red Hat AI Inference Server to be deployed on non-Red Hat Linux and Kubernetes platforms pursuant to Red Hat’s 3rd Party Support Policy.

Red Hat’s vision: Any model, any accelerator, any cloud.

The future of AI must be defined by limitless opportunity, not constrained by infrastructure silos. Red Hat sees a horizon where organizations can deploy any model, on any accelerator, across any cloud, delivering an exceptional, more consistent user experience without exorbitant costs. To unlock the true potential of gen AI investments, enterprises require a universal inference platform – a standard for more seamless, high-performance AI innovation, both today and in the years to come.

Just as Red Hat pioneered the open enterprise by transforming Linux into the bedrock of modern IT, the company is now poised to architect the future of AI inference. vLLM’s potential is that of a linchpin for standardized gen AI inference, and Red Hat is committed to building a thriving ecosystem around not just the vLLM community but also llm-d for distributed inference at scale. The vision is clear: regardless of the AI model, the underlying accelerator or the deployment environment, Red Hat intends to make vLLM the definitive open standard for inference across the new hybrid cloud.

Supporting Quotes

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“Inference is where the real promise of gen AI is delivered, where user interactions are met with fast, accurate responses delivered by a given model, but it must be delivered in an effective and cost-efficient way. Red Hat AI Inference Server is intended to meet the demand for high-performing, responsive inference at scale while keeping resource demands low, providing a common inference layer that supports any model, running on any accelerator in any environment.”

Ramine Roane, corporate vice president, AI Product Management, AMD

“In collaboration with Red Hat, AMD delivers out-of-the-box solutions to drive efficient generative AI in the enterprise. Red Hat AI Inference Server enabled on AMD Instinct™ GPUs equips organizations with enterprise-grade, community-driven AI inference capabilities backed by fully validated hardware accelerators.”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads need speed, consistency, and flexibility, which is exactly what the Red Hat AI Inference Server is designed to deliver. This innovation offers Cisco and Red Hat opportunities to continue to collaborate on new ways to make AI deployments more accessible, efficient and scalable—helping organizations prepare for what’s next.”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“Intel is excited to collaborate with Red Hat to enable Red Hat AI Inference Server on Intel® Gaudi® accelerators. This integration will provide our customers with an optimized solution to streamline and scale AI inference, delivering advanced performance and efficiency for a wide range of enterprise AI applications.”

John Fanelli, vice president, Enterprise Software, NVIDIA

“High-performance inference enables models and AI agents not just to answer, but to reason and adapt in real time. With open, full-stack NVIDIA accelerated computing and Red Hat AI Inference Server, developers can run efficient reasoning at scale across hybrid clouds, and deploy with confidence using Red Hat Inference Server with the new NVIDIA Enterprise AI validated design.”

 

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

เร้ดแฮทปล่อย Red Hat AI Inference Server ปลดล็อก นำ Generative AI ใช้กับ Model และ Accelerator ใดก็ได้ บน Hybrid Cloud ทุกแห่ง

Red Hat AI Inference Server ขับเคลื่อนโดย vLLM เพิ่มประสิทธิภาพด้วยเทคโนโลยีของ Neural Magic มอบการอนุมาน AI ที่เร็วขึ้น มีประสิทธิภาพสูง และคุ้มค่าใช้จ่าย ทำงานได้กับทุกไฮบริดคลาวด์

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI Inference Server ก้าวสำคัญที่จะทำให้ generative AI (gen AI) กลายเป็นเทคโนโลยีที่ใครก็ใช้ได้บนไฮบริดคลาวด์ทุกแห่ง โซลูชันใหม่นี้นำเสนออยู่ใน Red Hat AI เป็นเซิร์ฟเวอร์อนุมานระดับองค์กรที่เกิดจากโปรเจกต์จาก vLLM community อันทรงพลัง และเร้ดแฮทเพิ่มประสิทธิภาพด้วยการผสานรวมเข้ากับเทคโนโลยี Neural Magic ทำให้มีความเร็วมากขึ้น ช่วยเพิ่มประสิทธิภาพให้ accelerator และคุ้มค่าใช้จ่าย เป็นการตอบวิสัยทัศน์ของเร้ดแฮทในการมอบการใช้งานโมเดล gen AI ใด ๆ บน AI accelerator ใด ๆ ก็ได้ บนทุกสภาพแวดล้อมคลาวด์ แพลตฟอร์มที่ล้ำหน้านี้ช่วยให้องค์กรต่าง ๆ ใช้และสเกล gen AI สู่การทำงานเป็นรูปธรรมได้อย่างมั่นใจมากขึ้น ไม่ว่าจะใช้งานแบบสแตนด์อโลน หรือผสานเป็นส่วนประกอบของ Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI ก็ตาม

การอนุมานเป็นเครื่องมือทำงานที่สำคัญของ AI โดยโมเดลที่ผ่านการเทรนล่วงหน้าจะแปลงข้อมูลให้เป็นการใช้งานในสถานการณ์จริง ซึ่งเป็นจุดสำคัญของการปฏิสัมพันธ์กับผู้ใช้ ที่ต้องการการตอบสนองอย่างฉับไวและแม่นยำ การที่โมเดล gen AI ทั้งหลายขยายตัวอย่างรวดเร็วตามขนาดการใช้งานจริงและมีความซับซ้อน ทำให้การอนุมาน (inference) อาจกลายเป็นคอขวดที่เป็นอุปสรรคสำคัญ สิ้นเปลืองทรัพยากรฮาร์ดแวร์ และเป็นเหตุให้การตอบสนองไม่มีประสิทธิภาพ ทั้งยังทำให้ค่าใช้จ่ายในการดำเนินงานเพิ่มขึ้น ดังนั้น เซิร์ฟเวอร์การอนุมานที่มีประสิทธิภาพแข็งแกร่งไม่ใช่สิ่งฟุ่มเฟือยอีกต่อไป แต่เป็นสิ่งจำเป็นที่จะช่วยปลดล็อกให้ได้ใช้ศักยภาพที่แท้จริงของ AI ในวงกว้าง และการใช้งานที่ง่ายขึ้นอย่างมากจะช่วยขจัดความซับซ้อนที่ซ่อนอยู่ได้

เร้ดแฮทเจาะจงจัดการความท้าทายเหล่านี้ด้วย Red Hat AI Inference Server ซึ่งเป็นโซลูชันการอนุมานแบบโอเพ่นที่ออกแบบมาเพื่อมอบประสิทธิภาพที่สูง มีเครื่องมือบีบอัดและเพิ่มประสิทธิภาพโมเดลที่มีประสิทธิภาพชั้นนำติดตั้งมาพร้อม นวัตกรรมนี้ช่วยเสริมให้องค์กรใช้สมรรถนะของ gen AI ได้อย่างเต็มที่ด้วยการมอบประสบการณ์การตอบสนองที่ดีขึ้นอย่างมากให้กับผู้ใช้ และผู้ใช้มีอิสระในการเลือกใช้ AI accelerators เลือกใช้โมเดลและสภาพแวดล้อมไอทีได้ตามต้องการ

vLLM: การขยายนวัตกรรมด้านการอนุมาน

Red Hat AI Inference Server สร้างจากโปรเจกต์ vLLM ชั้นนำในวงการที่เริ่มต้นพัฒนาโดย University of California, Berkeley เมื่อกลางปี พ.ศ. 2566 โปรเจกต์ของคอมมิวนิตี้นี้ มอบการอนุมาน gen AI ที่มีปริมาณงานในช่วงเวลาหนึ่ง ๆ ที่สูง (high-throughput gen AI inference) รองรับอินพุตขนาดใหญ่, multi-GPU model acceleration, การแบทช์ต่อเนื่อง และอื่น ๆ อีกมาก

vLLM สนับสนุนการใช้งานในวงกว้างกับโมเดลต่าง ๆ ที่เปิดเป็นสาธารณะ ควบคู่กับการบูรณาการเข้ากับโมเดลชั้นนำต่าง ๆ ตั้งแต่ day zero ซึ่งรวมถึง DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi และอื่น ๆ รวมถึงโมเดลการใช้เหตุผลระดับองค์กรแบบเปิด เช่น Llama Nemotron นับได้ว่าเป็นมาตรฐานที่ได้รับการยอมรับและใช้กันโดยทั่วไปสำหรับนวัตกรรมการอนุมาน AI ในอนาคต การที่ผู้ให้บริการโมเดลระดับแนวหน้าต่างใช้ vLLM มากขึ้น ทำให้ vLLM มีบทบาทสำคัญต่ออนาคตของ gen AI

การเปิดตัว Red Hat AI Inference Server

Red Hat AI Inference Server มัดรวมนวัตกรรมชั้นนำของ vLLM และหลอมรวมเข้ากับความสามารถระดับองค์กรของ Red Hat AI Inference Server มีให้บริการทั้งแบบสแตนด์อโลนในรูปแบบคอนเทนเนอร์ หรือ ให้บริการเป็นส่วนหนึ่งของ RHEL AI และ Red Hat OpenShift AI

Red Hat AI Inference Server มอบการกระจาย vLLM ที่แข็งแกร่ง และใช้ได้กับสภาพแวดล้อมการใช้งานทุกแบบให้แก่ผู้ใช้ ซึ่งมาพร้อมด้วย:

  • Intelligent LLM compression tools เพื่อลดขนาดของโครงสร้างพื้นฐาน และปรับแต่งโมเดล AI อย่างละเอียด ลดการใช้การประมวลผลให้เหลือน้อยที่สุด ในขณะที่ยังคงรักษาและเพิ่มความแม่นยำของโมเดลได้
  • พื้นที่เก็บข้อมูลโมเดลที่ปรับให้เหมาะสม ซึ่งโฮสต์อยู่ใน Red Hat AI organization บน Hugging Face ช่วยให้เข้าถึงคอลเลกชันของโมเดล AI ชั้นนำที่ได้รับการตรวจสอบและปรับให้เหมาะสม และพร้อมสำหรับใช้ในการอนุมานได้ทันที ซึ่งช่วยเร่งประสิทธิภาพความเร็วได้ 2-4 เท่า โดยไม่กระทบต่อความแม่นยำของโมเดล
  • การสนับสนุนระดับองค์กรของเร้ดแฮท และความเชี่ยวชาญที่สั่งสมหลายทศวรรษในการนำโปรเจกต์ต่าง ๆ จากคอมมิวนิตี้มาสู่การผลิตใช้งานจริง
  • การสนับสนุนจากบุคคลภายนอก (third-party) เพื่อให้เกิดความยืดหยุ่นในการใช้ Red Hat AI Inference Server ได้บน non-Red Hat Linux และ แพลตฟอร์ม Kubernetes ต่าง ๆ ซึ่งเป็นไปตามนโยบายสนับสนุน third-party ของเร้ดแฮท

วิสัยทัศน์ของเร้ดแฮท: โมเดลใดก็ได้, accelerator ใดก็ได้, คลาวด์ใดก็ได้

อนาคตของ AI ต้องถูกกำหนดโดยโอกาสที่ไร้ขีดจำกัด และไม่ถูกจำกัดด้วยโครงสร้างพื้นฐานที่เป็นไซโล เร้ดแฮทมองเห็นแนวทางที่องค์กรต่าง ๆ จะสามารถใช้โมเดลใดก็ได้ กับ accelerator ใดก็ได้ บนคลาวด์ใด ๆ ก็ได้ และมอบประสบการณ์ที่ยอดเยี่ยมและสม่ำเสมอให้กับผู้ใช้งานด้วยค่าใช้จ่ายที่เหมาะสม องค์กรต่างต้องการแพลตฟอร์มการอนุมานที่เป็นสากล เป็นมาตรฐานให้กับนวัตกรรม AI ประสิทธิภาพสูงได้อย่างไม่ติดขัด ทั้งในวันนี้และอีกหลาย ๆ ปีที่จะตามมา เพื่อปลดล็อกศักยภาพที่แท้จริงจากการลงทุนด้าน gen AI

เร้ดแฮทพร้อมที่จะวางฐานรากสถาปัตยกรรมเพื่อเป็นฐานอนาคตของการอนุมาน AI เช่นเดียวกับการที่บริษัทฯ เคยบุกเบิกองค์กรแบบเปิดด้วยการทรานส์ฟอร์ม Linux ให้เป็นฐานของไอทียุคใหม่ ศักยภาพของ vLLM เป็นสิ่งสำคัญต่อการอนุมาน gen AI ที่เป็นมาตรฐาน เร้ดแฮทมุ่งมั่นสร้างระบบนิเวศที่ครบครันให้กับไม่เพียง vLLM community เท่านั้น แต่ยังรวมถึง llm-d สำหรับการอนุมานแบบกระจาย (distributed inference) อีกด้วย ด้วยวิสัยทัศน์ที่ชัดเจน ไม่ว่าจะเป็นโมเดล AI, underlying accelerator หรือสภาพแวดล้อมการใช้งานจะเป็นเช่นไร เร้ดแฮทตั้งใจทำให้ vLLM เป็นมาตรฐานเปิดที่สมบูรณ์แบบที่สุดสำหรับการอนุมานบนไฮบริดคลาวด์

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“การอนุมานเป็นการบอกว่าได้มีการใช้ประโยชน์อย่างแท้จริงจาก gen AI  โดยการปฏิสัมพันธ์ของผู้ใช้จะได้รับการตอบสนองที่รวดเร็วและแม่นยำจากโมเดลที่กำหนด แต่จะต้องได้รับการส่งมอบให้ใช้ด้วยวิธีการที่มีประสิทธิภาพและคุ้มค่าใช้จ่าย วัตถุประสงค์ของ Red Hat AI Inference Server คือการตอบสนองความต้องการด้านการอนุมานที่มีประสิทธิภาพสูงและมีปฏิสัมพันธ์ได้ตามต้องการ ในขณะเดียวกัน ก็รักษาความต้องการใช้ทรัพยากรให้อยู่ในระดับต่ำ จัดให้มีเลเยอร์การอนุมานทั่วไปที่รองรับโมเดลใดก็ได้ รันบน accelerator ใดก็ได้ บนทุกสภาพแวดล้อม”

Ramine Roane, corporate vice president, AI Product Management, AMD

“ความร่วมมือกับเร้ดแฮทช่วยให้ AMD นำเสนอโซลูชันล้ำสมัยเพื่อขับเคลื่อนให้องค์กรใช้ generative AI ได้อย่างมีประสิทธิภาพ Red Hat AI Inference Server ที่ใช้ขุมพลังกราฟิกการ์ด AMD Instinct™ ช่วยให้องค์กรต่าง ๆ มีขีดความสามารถในการอนุมานด้าน AI ที่ขับเคลื่อนโดยคอมมิวนิตี้ระดับองค์กร ซึ่งได้รับการสนับสนุนเบื้องหลังด้วย hardware accelerators ที่ผ่านการตรวจสอบอย่างครบถ้วน”

Jeremy Foster, senior vice president and general manager, Cisco

“AI workloads ต้องการความเร็ว ความสม่ำเสมอ และความยืดหยุ่น ซึ่งเป็นสิ่งที่ Red Hat AI Inference Server มี นวัตกรรมนี้เปิดแนวทางความร่วมมือใหม่ ๆ ระหว่างซิสโก้และเร้ดแฮท เพื่อทำให้การใช้ AI เข้าถึงได้มากขึ้น มีประสิทธิภาพและปรับขนาดได้ ซึ่งเป็นการช่วยให้องค์กรเตรียมพร้อมรับสิ่งที่จะเกิดขึ้นในอนาคต”

Bill Pearson, vice president, Data Center & AI Software Solutions and Ecosystem, Intel

“อินเทลรู้สึกตื่นเต้นที่ได้ร่วมมือกับเร้ดแฮท เพื่อใช้ Red Hat AI Inference Server กับ Intel® Gaudi® accelerators การบูรณาการนี้จะช่วยให้ลูกค้าของเรามีโซลูชันที่ได้รับการปรับให้เหมาะสม เพื่อเพิ่มประสิทธิภาพและปรับขนาดการอนุมาน AI และมอบสมรรถนะและประสิทธิภาพล้ำหน้าให้กับแอปพลิเคชัน AI ระดับองค์กรในวงกว้าง”

John Fanelli, vice president, Enterprise Software, NVIDIA

“การอนุมานประสิทธิภาพสูงไม่เพียงแต่ช่วยให้โมเดลและ AI agents ต่าง ๆ สามารถตอบคำถามได้เท่านั้น แต่ยังสามารถให้หรือใช้เหตุผลและปรับตัวได้แบบเรียลไทม์ โดย NVIDIA accelerated computing และ Red Hat AI Inference Server แบบฟูลสแตก (full-stack) และเป็นแบบเปิด จะช่วยให้นักพัฒนาสามารถเรียกใช้งานการทำงานเชิงให้เหตุผลบนไฮบริดคลาวด์ได้อย่างมีประสิทธิภาพในวงกว้างและปรับใช้ได้อย่างมั่นใจ โดยใช้ Red Hat Inference Server กับการออกแบบที่ผ่านการตรวจสอบใหม่ของ NVIDIA Enterprise AI”

พร็อพเพอร์ตี้กูรู กรุ๊ป เปิดตัวรายงานความยั่งยืนประจำปี 2567 สะท้อนความก้าวหน้าในการลดการปล่อยคาร์บอน ส่งเสริมการประกาศขาย-เช่าที่อยู่อาศัยแบบครอบคลุม และเพิ่มทางเลือกในการอยู่อาศัยอย่างยั่งยืน

พร็อพเพอร์ตี้กูรู กรุ๊ป เปิดตัวรายงานความยั่งยืนประจำปี 2567 สะท้อนความก้าวหน้าในการลดการปล่อยคาร์บอน ส่งเสริมการประกาศขาย-เช่าที่อยู่อาศัยแบบครอบคลุม และเพิ่มทางเลือกในการอยู่อาศัยอย่างยั่งยืน

พร็อพเพอร์ตี้กูรู กรุ๊ป เปิดตัวรายงานความยั่งยืนประจำปี 2567 สะท้อนความก้าวหน้าในการลดการปล่อยคาร์บอน ส่งเสริมการประกาศขาย-เช่าที่อยู่อาศัยแบบครอบคลุม และเพิ่มทางเลือกในการอยู่อาศัยอย่างยั่งยืน

  • พร็อพเพอร์ตี้กูรู กรุ๊ป เดินหน้าลดการปล่อยคาร์บอนอย่างต่อเนื่อง โดยบรรลุเป้าหมายการใช้พลังงานหมุนเวียน 100% สำหรับการดำเนินงานโดยตรง
  • จากผลการสำรวจโดยดีดีพร็อพเพอร์ตี้พบว่า ผู้ตอบแบบสอบถามกว่า 90% มีความสนใจที่จะซื้อที่อยู่อาศัยที่มีคุณสมบัติด้านความยั่งยืน และกว่า 93% ยินดีจ่ายเพิ่มสำหรับที่อยู่อาศัยเหล่านั้น
  • เพื่อตอบโจทย์ความต้องการที่เพิ่มขึ้นของผู้บริโภคด้านที่อยู่อาศัยที่ยั่งยืน เราได้มีการเปิดตัวฟีเจอร์ ‘เป็นมิตรต่อสิ่งแวดล้อม’ หรือ ‘Sustainable Living’ ในการค้นหาที่อยู่อาศัยบนเว็บไซต์ DDproperty.com

บริษัท พร็อพเพอร์ตี้กูรู กรุ๊ป จำกัด (จากนี้จะเรียกแทนว่า “กลุ่มบริษัท” หรือ “พร็อพเพอร์ตี้กูรู”) ผู้นำด้านเทคโนโลยีด้านอสังหาริมทรัพย์ชั้นนำของภูมิภาคเอเชียตะวันออกเฉียงใต้ (“PropTech”) ซึ่งเป็นบริษัทแม่ของ ‘ดีดีพร็อพเพอร์ตี้’ (DDproperty) แพลตฟอร์มอสังหาริมทรัพย์อันดับ 1 ของไทย ได้เผยแพร่รายงานความยั่งยืนประจำปี 2567 ภายใต้กลยุทธ์ ‘Gurus For Good’ ตอกย้ำพันธกิจในการมีส่วนร่วมสร้างเมืองที่ครอบคลุมและสามารถรับมือกับการเปลี่ยนแปลงสภาพภูมิอากาศท่ามกลางแรงกดดันที่เพิ่มขึ้นในเขตเมือง 

รายงานฉบับนี้ได้สะท้อนให้เห็นถึงการที่พร็อพเพอร์ตี้กูรูใช้ประโยชน์จากข้อมูล, เครื่องมือดิจิทัลและความร่วมมือเชิงกลยุทธ์ เพื่อผลักดันให้ความยั่งยืนเป็นหัวใจสำคัญของการพัฒนาในภาคอสังหาริมทรัพย์ โดยเฉพาะเมื่อมีการคาดการณ์ว่าเกือบ 63% ของประชากรทั้งหมดในภูมิภาคเอเชียตะวันออกเฉียงใต้จะอาศัยอยู่ในเขตเมืองภายในปี 2593

ด้วยจำนวนผู้ค้นหาอสังหาริมทรัพย์มากกว่า 32 ล้านรายต่อเดือน และตัวแทนอสังหาริมทรัพย์ที่ใช้งานอยู่กว่า 50,000 รายในสิงคโปร์, มาเลเซีย, เวียดนาม และไทย กลุ่มบริษัทได้นำเสนอโซลูชันนวัตกรรมและข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูล เพื่อตอบโจทย์ความท้าทายเร่งด่วนของตลาดอสังหาริมทรัพย์โดยตรง ซึ่งไฮไลต์ของรายงานความยั่งยืนประจำปี 2567 คือการเปิดตัวฟีเจอร์ ‘Everyone Welcome’ สำหรับอสังหาริมทรัพย์เพื่อเช่าในประเทศสิงคโปร์ เพื่อส่งเสริมทางเลือกในการอยู่อาศัยแบบครอบคลุมและรองรับความต้องการของคนทุกกลุ่ม (Inclusive Living) รวมถึงการเลือกใช้เครื่องมือที่ใส่ใจต่อสิ่งแวดล้อมอย่างต่อเนื่อง อาทิ ‘Green Score’ สำหรับโครงการที่อยู่อาศัยบนแพลตฟอร์ม PropertyGuru Singapore, การเปิดตัวฟีเจอร์ ‘เป็นมิตรต่อสิ่งแวดล้อม’ หรือ ‘Sustainable Living’ ในแพลตฟอร์มมาร์เก็ตเพลสของไทย DDproperty.com และฟีเจอร์ ‘Everyone Welcome’ ในแพลตฟอร์มมาร์เก็ตเพลสของมาเลเซีย PropertyGuru Malaysia

“ความต้องการที่อยู่อาศัยที่ยั่งยืนและรองรับคนทุกกลุ่มกำลังเพิ่มสูงขึ้น และที่พร็อพเพอร์ตี้กูรู เรากำลังตอบสนองด้วยโซลูชันที่นำไปปฏิบัติได้จริง” Cécile Corda หัวหน้าฝ่ายความยั่งยืนของพร็อพเพอร์ตี้กูรู กรุ๊ป กล่าว

“เราได้มีการจัดเตรียมเครื่องมือให้กับผู้ที่กำลังมองหาที่อยู่อาศัย เพื่อให้สามารถตัดสินใจเลือกวิถีชีวิตที่ยั่งยืนได้อย่างมีข้อมูล เรากำลังช่วยเพิ่มการรับรู้ ส่งเสริมพฤติกรรมเชิงบวก และสนับสนุนการสร้างเมืองที่มีความยืดหยุ่น ซึ่งท้ายที่สุดจะผลักดันให้เกิดการเปลี่ยนแปลงที่มีความหมายในตลาดที่อยู่อาศัย”

ในรายงานฉบับนี้ยังเน้นย้ำถึงความก้าวหน้าในการเดินหน้ายกระดับการลดการปล่อยคาร์บอนของกลุ่มบริษัทฯ และความมุ่งมั่นในการรับมือกับการเปลี่ยนแปลงสภาพภูมิอากาศ

จากเป้าหมายสู่การปฏิบัติด้านความยั่งยืน

ด้วยความมุ่งมั่นอย่างแน่วแน่ในการดำเนินการด้านสภาพภูมิอากาศ ซึ่งเป็นหัวใจหลักขององค์กรในการพยายามผลักดันความยั่งยืน หลังจากที่ได้จัดทำข้อมูลฐานการปล่อยก๊าซเรือนกระจก (GHG) แล้ว กลุ่มบริษัทฯ ได้มุ่งเน้นไปที่การลดการปล่อยก๊าซเรือนกระจก (GHG) ประเภทที่ 2 ซึ่งพร็อพเพอร์ตี้กูรูสามารถบรรลุเป้าหมายการปล่อยคาร์บอนสุทธิเป็นศูนย์ (Net-zero) สำหรับการดำเนินการโดยตรงของบริษัทผ่านการจัดซื้อพลังงานหมุนเวียน

นอกจากนี้ยังได้ปรับเปลี่ยนมาใช้โซลูชันคลาวด์ที่มีประสิทธิภาพด้านพลังงานมากยิ่งขึ้น โดยตระหนักว่าระบบโครงสร้างพื้นฐานด้านข้อมูลของบริษัทมีส่วนสำคัญต่อการใช้พลังงาน การเปลี่ยนแปลงครั้งนี้ช่วยลดรอยเท้าคาร์บอน (Carbon footprint) ของแพลตฟอร์มต่าง ๆ และสนับสนุนความก้าวหน้าในการลดการปล่อยคาร์บอนขององค์กรอย่างต่อเนื่อง

มอบเครื่องมือให้ผู้ค้นหาที่อยู่อาศัยเพื่อการตัดสินใจที่ยั่งยืน

จากผลสำรวจความพึงพอใจของผู้บริโภคในปี 2567 โดยดีดีพร็อพเพอร์ตี้ พบว่า ความต้องการใช้ชีวิตอย่างใส่ใจสิ่งแวดล้อมเพิ่มสูงขึ้นในประเทศไทย 90% ของผู้บริโภคชาวไทยแสดงความสนใจในการซื้อที่อยู่อาศัยที่มีคุณสมบัติด้านความยั่งยืน และ 93% ยินดีจ่ายเพิ่มขึ้นเพื่อคุณสมบัติดังกล่าว

ในฐานะผู้นำในการผนวกความยั่งยืนเข้าสู่กระบวนการค้นหาอสังหาริมทรัพย์ และตอบโจทย์ความต้องการของผู้บริโภคที่มองหาทางเลือกการอยู่อาศัยที่เป็นมิตรต่อสิ่งแวดล้อม กลุ่มบริษัทฯ ได้เปิดตัวฟีเจอร์ ‘เป็นมิตรต่อสิ่งแวดล้อม’ หรือ ‘Sustainable Living’ บนเว็บไซต์ DDproperty.com ในเดือนธันวาคม พ.ศ. 2567 ที่ผ่านมา เพื่อให้ความสำคัญกับที่อยู่อาศัยที่มีคุณสมบัติรักษ์โลก เช่น การติดตั้งแผงโซลาร์เซลล์ และจุดชาร์จรถยนต์ไฟฟ้า (EV) โดยฟีเจอร์นี้รองรับทั้งอสังหาริมทรัพย์แบบซื้อและแบบเช่า สามารถเข้าใช้งานได้ไม่ยาก เพียงเข้าไปที่หน้าประกาศซื้อหรือประกาศเช่า ใต้ช่องการค้นหาด้านบนจะมีตัวเลือกคุณสมบัติที่ต้องการ และฟีเจอร์ ‘เป็นมิตรต่อสิ่งแวดล้อม’ หรือ ‘Sustainable Living’ เป็นหนึ่งในตัวเลือกดังกล่าว 

และพร็อพเพอร์ตี้กูรูได้มีการเปิดตัวฟีเจอร์ Green Score ในปี 2564 เพื่อช่วยให้ผู้ใช้งานชาวสิงคโปร์สามารถระบุที่อยู่อาศัยที่มีคุณสมบัติด้านความยั่งยืนได้ง่ายขึ้น จากผลสำรวจความพึงพอใจของผู้บริโภคในสิงคโปร์ปี 2567 พบว่า 63% ของผู้มองหาที่อยู่อาศัยไว้วางใจ Green Score ในฐานะตัวชี้วัดของทางเลือกที่เป็นมิตรกับสิ่งแวดล้อม ซึ่งช่วยให้ตัดสินใจได้อย่างมีข้อมูลและใส่ใจสิ่งแวดล้อมมากขึ้น

นอกจากโซลูชันเหล่านี้แล้วพร็อพเพอร์ตี้กูรูยังได้นำเสนอข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูล (Data-driven insights) รวมถึงการวิเคราะห์ความเสี่ยงด้านสภาพภูมิอากาศและข้อมูลประวัติภัยพิบัติ เพื่อช่วยให้ผู้ที่อาจจะมีผลกระทบในวงการอสังหาริมทรัพย์รับมือกับความเสี่ยงจากสภาพภูมิอากาศและเตรียมพร้อมอสังหาริมทรัพย์ในอนาคต รวมทั้งส่งเสริมการพัฒนาเมืองที่มีความยืดหยุ่นและยั่งยืน

“การเปิดตัวฟีเจอร์ ‘เป็นมิตรต่อสิ่งแวดล้อม’ หรือ ‘Sustainable Living’ ของเรา คือการพิสูจน์ถึงความมุ่งมั่นในการช่วยสร้างอนาคตที่เป็นมิตรกับสิ่งแวดล้อมสำหรับประเทศไทย” นายวิทยา อภิรักษ์วิริยะ ผู้จัดการทั่วไป Think of Living และ ตลาดมาร์เก็ตเพลสประเทศไทย (ฝั่งดีเวลลอปเปอร์) ดีดีพร็อพเพอร์ตี้ กล่าว “เรากำลังมอบข้อมูลเชิงลึกที่ผู้ค้นหาที่อยู่อาศัยต้องการ โดยเน้นคุณสมบัติด้านความยั่งยืน เช่น แผงโซลาร์เซลล์และจุดชาร์จรถยนต์ไฟฟ้า เพื่อช่วยให้ผู้ที่กำลังมองหาที่อยู่อาศัย มีข้อมูลในการตัดสินใจเลือกที่อยู่อาศัยที่มีความยั่งยืนได้อย่างแท้จริง นี่คือการสร้างตลาดที่การใช้ชีวิตอย่างใส่ใจต่อสิ่งแวดล้อมเป็นเรื่องปกติ และทุกการตัดสินใจด้านอสังหาริมทรัพย์มีส่วนช่วยให้ประเทศไทยมีความยืดหยุ่นและเป็นมิตรกับสิ่งแวดล้อมมากขึ้น”

ส่งเสริมความเป็นอยู่ที่ดีของชุมชนและที่อยู่อาศัยที่ครอบคลุม

ในปี 2567 ทีม Gurus For Good ประจำประเทศไทยได้บริจาคเงินจำนวน 2,000 ดอลลาร์สิงคโปร์ ให้กับมูลนิธิ Fight 4 the Future เพื่อช่วยซ่อมแซมพื้นที่ออกกำลังกายในโรงฝึกศิลปะการต่อสู้สำหรับเด็ก ๆ นอกจากนี้ กลุ่มอาสาสมัครกูรูชาวไทยยังได้ใช้เวลาร่วมฝึกซ้อมกับเด็ก ๆ พร้อมทั้งแจกเสื้อยืด กล่องข้าว และคัพเค้กธีมเทศกาลฮาโลวีน อีกทั้งยังมอบของเล่น เสื้อผ้า และกระเป๋าให้กับเด็ก ๆ อีกด้วย

ไม่ว่าจะเป็นใคร ทุกคนควรมีที่อยู่อาศัยที่สามารถเรียกได้ว่าเป็นบ้าน แต่ความไม่เท่าเทียมยังคงเป็นอุปสรรคสำคัญสำหรับผู้มองหาที่อยู่อาศัย โดยเฉพาะอสังหาฯ สำหรับเช่า โดยหนึ่งในสี่ของผู้คนในสิงคโปร์เคยประสบกับการถูกเลือกปฏิบัติทางเชื้อชาติระหว่างการค้นหาที่อยู่อาศัย แม้ว่าสังคมที่หลากหลายทางวัฒนธรรมจะได้รับการยอมรับอย่างกว้างขวาง แต่ทัศนคติที่ไม่รู้ตัวและอคติยังคงส่งผลต่อโอกาสในการเช่าที่อยู่อาศัย

พร็อพเพอร์ตี้กูรูได้เปิดตัวฟีเจอร์ ‘Everyone Welcome’ บนแพลตฟอร์มในสิงคโปร์เมื่อเดือนธันวาคม 2567 โดยเป็นป้ายกำกับสำหรับประกาศเช่าที่เจ้าของบ้านเปิดรับผู้เช่าทุกเชื้อชาติ, เพศ, ศาสนา และรสนิยมทางเพศ 

โครงการริเริ่มนี้มีเป้าหมายเพื่อมอบประสบการณ์ในการหาที่อยู่อาศัยที่ปราศจากการเลือกปฏิบัติ พร้อมทั้งส่งเสริมให้ตัวแทนอสังหาริมทรัพย์และเจ้าของบ้านยอมรับในความหลากหลายและแนวทางที่ครอบคลุม ปัจจุบันหนึ่งในสี่ของประกาศเช่าทั้งหมดบนพร็อพเพอร์ตี้กูรู สิงคโปร์ มีการติดป้ายกำกับ ‘Everyone Welcome’ ช่วยให้ผู้มองหาบ้านสามารถค้นหาที่อยู่อาศัยที่เป็นมิตรต่อความหลากหลายได้ง่ายยิ่งขึ้น ฟีเจอร์ ‘Everyone Welcome’ นี้ยังได้เปิดตัวในแพลตฟอร์มพร็อพเพอร์ตี้กูรู มาเลเซียในเดือนเมษายน 2568 อีกด้วย

นี่เป็นส่วนหนึ่งของความมุ่งมั่นอย่างต่อเนื่องของกลุ่มบริษัทฯ ในการสร้างตลาดอสังหาริมทรัพย์ที่เป็นธรรม โดยนอกเหนือจากการเปิดตัวฟีเจอร์ดังกล่าว กลุ่มบริษัทฯ ยังได้กำหนดแนวทางการลงประกาศอย่างครอบคลุม ใช้เครื่องมือตรวจสอบภาษาที่อาจสื่อถึงการเลือกปฏิบัติในระบบ และเปิดช่องทางให้ผู้ใช้งานสามารถรายงานพฤติกรรมที่เข้าข่ายการเลือกปฏิบัติได้โดยตรง

จากความพยายามร่วมกันในหลายด้าน พร็อพเพอร์ตี้กูรูมุ่งมั่นที่จะลดอุปสรรคและสร้างเส้นทางการเข้าถึงที่อยู่อาศัยที่ครอบคลุมมากยิ่งขึ้น ซึ่งทุกคนสามารถค้นหาบ้านที่ตอบโจทย์และรู้สึกว่าได้รับการต้อนรับอย่างเท่าเทียม

แหล่งข้อมูลที่เกี่ยวข้อง – 

Nutanix Announces Cloud Native AOS to Extend the Enterprise Value of its Data Platform to Kubernetes Anywhere

Nutanix เปิดตัว Cloud Native AOS ขยายการใช้งาน Data Platform ขององค์กรไปยัง Kubernetes ใดก็ได้

Nutanix Announces Cloud Native AOS to Extend the Enterprise Value of its Data Platform toKubernetes Anywhere

New solution enables developers to simply build truly portable cloud-native applications with mission-critical data resiliency anywhere

.NEXT Conference – Nutanix (NASDAQ: NTNX), a leader in hybrid multicloud computing, announced the Cloud Native AOS solution, which extends Nutanix enterprise storage and advanced data services to hyperscaler Kubernetes® services and cloud-native bare-metal environments – without requiring a hypervisor.

As data becomes more distributed, users seek a consistent way to protect, replicate, and restore data across Kubernetes infrastructure in data centers, bare-metal edge locations and cloud-native hyperscalers. What’s been missing is a common data platform that can run across bare-metal, virtualized, and containerized infrastructure.

Cloud Native AOS completes this puzzle with storage and data services that can run directly on cloud-native infrastructure anywhere, in the cloud or on bare metal. By eliminating the need for a hypervisor, this new solution allows users to consolidate storage management across the distributed hybrid cloud.

This new solution simplifies day two intelligent operations for Kubernetes applications and their data – anywhere. Cloud Native AOS extends Nutanix’s proven and resilient AOS software  – the backbone of its platform for data, Platform-as-a-Service, and AI – to stateful, native Kubernetes clusters in the cloud and bare-metal environments.

“Nutanix has built a complete platform for enterprise-grade infrastructure with advanced data services in virtualized data centers,” said Thomas Cornely, SVP, Product Management at Nutanix. “Now we are extending the reach of our platform to users of cloud-native infrastructure on Kubernetes service in public clouds and on bare metal, delivering enterprise resiliency, day 2 operations, and security.”

Key benefits include:

  • Ready-to-Use Resilience for Any Application – Cloud Native AOS provides resilience for Kubernetes infrastructure by protecting containerized applications and their data with integrated disaster recovery between availability zones, clouds and on-premises.
  • Cloud-Native Mobility – Customers can build and deploy cloud-native applications with seamless migration of applications and data optimally located across sites, including the ability to move applications back to on-premises containerized environments.
  • Integrated Data Management – The solution empowers developers to use Kubernetes APIs to automate and provide self-service control over all aspects of data management for their applications.

“Networld is focused on container application runtime platforms. By utilizing Cloud Native AOS, not only can we enhance application portability and enable data storage across cloud availability zones and regions, but it also facilitates data migration and disaster recovery, including on-premises environments,” said Issei Tsuruzono, Corporate Officer and Head of Technology Division of Networld. “We expect this product to be groundbreaking for containerized applications. In addition, we are also planning to provide support to our partners in Japan.”

“Participating in the Early Access Program for Cloud Native AOS has been a great experience for us,” said Manfred Pichlbauer, IT Consultant at Bacher Systems.” Cloud Native AOS platform sets a new standard for speed, scalability, and reliability and is designed for the most demanding workloads. It empowers organizations to move faster, store smarter, and scale effortlessly—unlocking new levels of performance without compromise.”

Cloud Native AOS is currently in early access on Amazon EKS and will be generally available this Summer. Early access for on-premises containerized environments on bare-metal servers is expected to be available by the end of this calendar year.

For more technical information on Cloud Native AOS, see the technical blog.