เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์

พอร์ตโฟลิโอ AI ช่วยเพิ่มประสิทธิภาพให้กับ Red Hat OpenShift AI และ Red Hat Enterprise Linux AI เพื่อหนุนให้องค์กรธุรกิจประสบความสำเร็จในการปรับใช้กลยุทธ์ AI

เร้ดแฮท ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก ประกาศการอัปเดทล่าสุดให้กับ Red Hat AI กลุ่มผลิตภัณฑ์และบริการที่ออกแบบมาเพื่อช่วยให้พัฒนาและปรับใช้โซลูชัน AI บนไฮบริดคลาวด์ทุกแห่ง Red Hat AI เป็นแพลตฟอร์ม AI ระดับองค์กร เพื่อการเทรนและการอนุมานโมเดลที่มีประสิทธิภาพมากขึ้น มอบประสบการณ์การใช้งานที่เรียบง่าย และสามารถนำไปใช้บนไฮบริดคลาวด์ได้ทุกแห่งอย่างยืดหยุ่น

ธุรกิจต่างมองหาวิธีลดค่าใช้จ่ายในการใช้โมเดลภาษาขนาดใหญ่ (LLMs) ให้ได้ตามความต้องการและให้เพียงพอต่อกรณีการใช้งานขององค์กรที่เพิ่มขึ้น อย่างไรก็ตาม ธุรกิจเหล่านี้ก็ยังคงเผชิญกับความท้าทายในการบูรณาการโมเดลเหล่านั้นเข้ากับข้อมูลภายในขององค์กร ซึ่งเป็นตัวขับเคลื่อนกรณีใช้งานต่าง ๆ ขององค์กร ในขณะเดียวกันก็ต้องการเข้าถึงข้อมูลเหล่านี้ได้ทุกที่ ไม่ว่าข้อมูลนั้นจะอยู่ในดาต้าเซ็นเตอร์ บนพับลิคคลาวด์ต่าง ๆ หรือแม้แต่ที่ edge

Red Hat AI ประกอบด้วย Red Hat OpenShift AI และ Red Hat Enterprise Linux AI (RHEL AI) สามารถจัดการกับความกังวลดังกล่าวได้ด้วยแพลตฟอร์ม AI ระดับองค์กรที่ช่วยให้ผู้ใช้ปรับใช้โมเดลต่าง ๆ ได้อย่างมีประสิทธิภาพและเหมาะสมมากขึ้น ทำการปรับแต่งข้อมูลเฉพาะธุรกิจให้สามารถนำไปใช้ในการเทรนและการอนุมานบนสถาปัตยกรรมการประมวลผลแบบเร่งความเร็วที่หลากหลายบนไฮบริดคลาวด์ได้ทุกแห่ง

Red Hat OpenShift AI

Red Hat OpenShift AI เป็นแพลตฟอร์ม AI ที่สมบูรณ์แบบเพื่อการบริหารจัดการไลฟ์ไซเคิลของ AI เชิงคาดการณ์ (predictive AI) และ generative AI (gen AI) บนไฮบริดคลาวด์ รวมถึงความสามารถต่าง ๆ ของ machine learning operations (MLOps) และ LLMOps แพลตฟอร์มนี้มอบฟังก์ชันที่ใช้สร้างโมเดลเชิงคาดการณ์ต่าง ๆ และฟังก์ชันในการปรับแต่งโมเดล gen AI ทั้งยังมอบเครื่องมือที่ใช้บริหารจัดการโมเดล AI ได้อย่างง่ายดาย ไม่ว่าจะเป็นเรื่องของวิทยาการข้อมูล (data science) ไปป์ไลน์โมเดล และการติดตามตรวจสอบโมเดล ไปจนถึงการกำกับดูแล และอื่น ๆ

Red Hat OpenShift AI 2.18 ซึ่งเป็นเวอร์ชันล่าสุดของแพลตฟอร์มนี้ ได้รับการอัปเดทและเพิ่มความสามารถใหม่ ๆ เพื่อสนับสนุนวัตถุประสงค์ของ Red Hat AI เพื่อเพิ่มประสิทธิภาพและการปรับให้โมเดล AI เหมาะสมที่จะนำไปใช้บนไฮบริดคลาวด์ โดยมีคุณสมบัติสำคัญ เช่น

  • ให้บริการแบบกระจาย (distributed serving): ส่งบริการผ่านเซิร์ฟเวอร์การอนุมาน vLLM ช่วยให้ทีมไอทีแยกการให้บริการโมเดลที่อยู่บนหน่วยประมวลผลกราฟิก (GPU) หลายหน่วยออกจากกัน ซึ่งช่วยลดภาระของเซิร์ฟเวอร์ตัวเดียว ช่วยให้การเทรนและการปรับแต่งรวดเร็วขึ้น และใช้ทรัพยากรประมวลผลได้มีประสิทธิภาพมากขึ้น ไปพร้อม ๆ กับช่วยกระจายบริการต่าง ๆ ข้ามโหนดให้กับโมเดล AI ต่าง ๆ
  • มอบประสบการณ์การปรับแต่งโมเดลอย่างครบวงจร: ฟีเจอร์นี้ใช้ InstructLab และ Red Hat OpenShift AI data science pipelines ช่วยให้การปรับแต่ง LLMs อย่างละเอียดทำได้โดยไม่ยุ่งยาก สามารถปรับขนาดการใช้งาน เพิ่มประสิทธิภาพและตรวจสอบสภาพแวดล้อมการผลิตขนาดใหญ่ได้มากขึ้น และสามารถบริหารจัดการผ่านแดชบอร์ดของ Red Hat OpenShift AI
  • AI Guardrails: Red Hat OpenShift AI 18 ช่วยเพิ่มความแม่นยำ ประสิทธิภาพ ระยะเวลาในการตอบสนอง และความโปร่งใส ให้กับ LLM ผ่านเทคโนโลยีพรีวิวของ AI Guardrails เพื่อติดตามตรวจสอบและปกป้องทั้งการปฏิสัมพันธ์ของผู้ใช้ผ่านอินพุต และการเอาต์พุตของโมเดลได้ดีมากขึ้น AI Guardrails นำเสนอจุดตรวจจับเพิ่มเติม เพื่อช่วยทีมไอทีระบุและบรรเทาอันตรายที่อาจเกิดขึ้นจากเจตนาร้าย คำพูดที่หยาบคายหรือดูหมิ่น หรือการรั่วไหลของข้อมูลที่สามารถระบุตัวตนได้ ข้อมูลด้านการแข่งขัน หรือข้อมูลอื่นที่จำกัดการเข้าถึงโดยนโยบายของบริษัท 
  • การประเมินโมเดล: ใช้องค์ประกอบการประเมินโมเดลภาษา (Im-eval) เพื่อมอบข้อมูลสำคัญเกี่ยวกับคุณภาพโดยรวมของโมเดลนั้น ๆ เพื่อช่วยให้นักวิทยาศาสตร์ข้อมูลสามารถปรียบเทียบประสิทธิภาพของ LLMs ของตนที่ใช้ทำงานด้านต่าง ๆ ไม่ว่าจะเป็นการให้เหตุผลเชิงตรรกะ และคณิตศาสตร์ ไปจนถึงภาษาธรรมชาติ และอื่น ๆ ซึ่งท้ายที่สุดเป็นการช่วยสร้างโมเดล AI ที่มีประสิทธิภาพ มีความสามารถในการตอบสนอง และเจาะจงตามการใช้งานได้มากขึ้น

RHEL AI

RHEL AI เป็นแพลตฟอร์มโมเดลพื้นฐาน ในกลุ่มผลิตภัณฑ์ด้าน AI ของเร้ดแฮท แพลตฟอร์มนี้ใช้สำหรับการพัฒนา ทดสอบ และรัน LLMs เพื่อสนับสนุนแอปพลิเคชันระดับองค์กรได้อย่างสม่ำเสมอต่อเนื่อง ทั้งนี้ RHEL AI มอบโมเดล Granite LLMs และเครื่องมือปรับโมเดลให้สอดคล้องกันจาก InstructLab แพ็ครวมเป็น Red Hat Enterprise Linux server image ที่บูตได้ และสามารถนำไปใช้บนไฮบริดคลาวด์ใดก็ได้

RHEL 1.4 เปิดตัวเมื่อเดือนกุมภาพันธ์ 2568 มาพร้อมการเพิ่มประสิทธิภาพใหม่หลายรายการ รวมถึง

  • รองรับโมเดล Granite 3.1 8B ซึ่งเป็นรุ่นล่าสุดของตระกูลโมเดล Granite ที่เปิดเป็นโอเพ่นซอร์ส โมเดลนี้รองรับภาษาหลายภาษา เพื่อการอนุมานและการปรับแต่งอนุกรมวิธาน/ความรู้ (พรีวิวสำหรับนักพัฒนา) มาพร้อมความยาวบริบทขนาด 128k เพื่อเพิ่มประสิทธิภาพผลลัพธ์ในการทำสรุป และงานการสร้างแบบเสริมการเรียกค้นต่าง ๆ (RAG)
  • อินเทอร์เฟซกราฟิกสำหรับผู้ใช้งานแบบใหม่ เพื่อมีส่วนร่วมสนับสนุนทักษะและความรู้ พร้อมให้นักพัฒนาได้ใช้งานในขั้นพรีวิว เพื่อลดความซับซ้อนในการนำเข้าและรวมข้อมูล รวมถึงวิธีที่ผู้ใช้เพิ่มทักษะให้กับตนเอง และมีส่วนร่วมสนับสนุนโมเดล AI
  • Document Knowledge-bench (DK-bench) สำหรับเปรียบเทียบการปรับแต่งโมเดล AI ด้วยข้อมูลส่วนตัวที่เกี่ยวข้องกันได้อย่างไม่ยุ่งยาก ด้วยประสิทธิภาพเดียวกับโมเดลพื้นฐานที่ยังไม่ได้รับการปรับแต่ง

Red Hat AI InstructLab on IBM Cloud

องค์กรต่างมองหาโซลูชัน AI ที่ให้ความสำคัญกับความแม่นยำและความปลอดภัยของข้อมูลมากขึ้นเรื่อย ๆ ในขณะเดียวกันยังคงต้องควบคุมค่าใช้จ่าย และลดความซับซ้อน ให้เหลือต่ำที่สุดเท่าที่จะทำได้ Red Hat AI InstructLab เป็นบริการบน IBM Cloud ได้รับการออกแบบมาให้ใช้งานง่าย ปรับขนาดได้ และช่วยเพิ่มประสิทธิภาพด้านความปลอดภัยในการเทรนและพัฒนาโมเดล AI ต่าง ๆ การลดความซับซ้อนของการปรับแต่งโมเดลบน InstructLab ช่วยให้องค์กรสามารถสร้างโมเดลที่มีประสิทธิภาพมากขึ้นและปรับให้ตรงกับความต้องการเฉพาะของแต่ละองค์กร และยังคงอำนาจควบคุมข้อมูลของตนไว้ได้

การอบรมด้าน AI Foundations โดยไม่มีค่าใช้จ่าย

AI คือโอกาสในการทรานส์ฟอร์มที่สามารถเปลี่ยนโฉมวิธีการทำงานและการแข่งขันขององค์กรต่าง ๆ เร้ดแฮทนำเสนอคอร์สการอบรมด้าน AI Foundations ออนไลน์ โดยไม่มีค่าใช้จ่าย เพื่อสนับสนุนองค์กรต่าง ๆ ในบริบทที่เปลี่ยนแปลงตลอดเวลาในปัจจุบัน เร้ดแฮทมอบใบรับรองการเรียนหลักสูตรด้าน AI สองรายการ คือ สำหรับผู้นำอาวุโสที่มีประสบการณ์ และสำหรับมือใหม่ด้าน AI โดยให้ความรู้แก่ผู้ใช้ทุกระดับว่า AI สามารถช่วยทรานส์ฟอร์มการดำเนินงานทางธุรกิจได้อย่างไร สามารถเพิ่มประสิทธิภาพในการตัดสินใจและขับเคลื่อนนวัตกรรมได้อย่างไร โดยการอบรม AI Foundations นี้จะแนะนำผู้ใช้ว่าจะสามารถนำความรู้ที่ได้จากการอบรมนี้ไปใช้อย่างไรเมื่อใช้ Red Hat AI

การวางจำหน่าย

Red Hat OpenShift AI 2.18 และ Red Hat Enterprise Linux AI 1.4 วางจำหน่ายแล้ว สามารถดูข้อมูลเพิ่มเติมเกี่ยวกับฟีเจอร์เพิ่มเติม การเพิ่มประสิทธิภาพด้านต่าง ๆ การแก้ไขจุดบกพร่อง และวิธีการอัปเกรดเป็นเวอร์ชันล่าสุดของ Red Hat OpenShift AI ได้ที่นี่ และเวอร์ชันล่าสุดของ RHEL AI ได้ที่นี่

Red Hat AI InstructLab on IBM Cloud จะวางตลาดเร็ว ๆ นี้ ส่วนการอบรม AI Foundations จากเร้ดแฮทพร้อมให้บริการลูกค้าแล้ว

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat

“เร้ดแฮทตระหนักดีว่าองค์กรต่างต้องการแนวทางบริหารจัดการค่าใช้จ่ายที่เพิ่มขึ้นจากการนำ generative AI มาใช้ และนำกรณีใช้งานต่าง ๆ เข้าสู่การผลิตและใช้ในงานตามต้องการในวงกว้างมากขึ้น องค์กรเหล่านี้จำเป็นต้องจัดการความท้าทายในการบูรณาการโมเดล AI ต่าง ๆ เข้ากับข้อมูลภายในขององค์กร และทำให้สามารถปรับใช้โมเดลเหล่านี้ได้ทุกที่ไม่ว่าข้อมูลจะอยู่ ณ ที่ใดก็ตาม Red Hat AI ช่วยองค์กรจัดการความท้าทายดังกล่าว โดยช่วยให้องค์กรสามารถใช้ประโยชน์จากโมเดลเฉพาะทางได้มีประสิทธิภาพมากขึ้นด้วยการเทรนด้วยข้อมูลภายในของตน และช่วยให้อนุมานได้อย่างยืดหยุ่นไม่ว่าจะอยู่ในระบบภายในองค์กร บนคลาวด์ หรือที่ edge”

Régis Lesbarreres, advanced analytics and AI innovation manager, digital innovation, Airbus Helicopters

“ช่วงที่ Airbus Helicopters เริ่มต้นเส้นทางการนำ AI มาใช้ เราต้องการผสานรวม AI เข้ากับสถาปัตยกรรมที่เรามีอยู่แล้ว ต้องการลด shadow IT และรวบรวมการทำงานของ data scientists ของเราไว้บนแพลตฟอร์ม AI เดียว รวมถึงการปรับค่าใช้จ่ายให้เหมาะสม Red Hat OpenShift AI ช่วยให้เราบรรลุเป้าหมายความต้องการดังกล่าวทั้งหมด และทำให้เกิดกรณีใช้งานทางธุรกิจที่ใช้ AI เป็นครั้งแรกของเรา วิสัยทัศน์ด้าน AI ของเร้ดแฮท สอดคล้องกับวัตถุประสงค์ทางธุรกิจของเรา และช่วยให้เราตอบโจทย์ความต้องการ พร้อม ๆ กับคงความยืดหยุ่น การเข้าใช้งาน และความโปร่งใสไว้ได้ด้วย”

Javier Olaizola Casin, global managing partner, hybrid cloud and data, IBM Consulting

“ธุรกิจหันมาใช้ AI เพื่อทรานส์ฟอร์มกระบวนการสำคัญทางธุรกิจมากขึ้น และต้องการโซลูชัน AI ที่ยืดหยุ่น คุ้มค่าใช้จ่าย และปรับแต่งด้วยข้อมูลที่เชื่อถือได้ขององค์กรได้  Red Hat AI นำเสนอความสม่ำเสมอ เชื่อถือได้ และความเร็ว ที่องค์กรต้องใช้เพื่อสร้างและปรับใช้โมเดลและแอปพลิเคชัน AI กับการทำงานด้านต่าง ๆ บนไฮบริดคลาวด์ เพื่อตอบความต้องการที่เจาะจงของแต่ละองค์กร นอกจากนี้การรวมโดเมน เทคโนโลยี และความเชี่ยวชาญของ IBM Consulting เข้ากับเทคโนโลยี AI ของเร้ดแฮท ทำให้เราช่วยลูกค้าของเราขับเคลื่อนให้เกิด ROI จากการลงทุนทางเทคโนโลยีของตนได้เป็นอย่างดี”

Torsten Volks, principal analyst, application modernization, ESG

“ทีมงานและหน่วยธุรกิจขององค์กรระดับแนวหน้า ทำการตัดสินใจทางธุรกิจโดยพิจารณาจากข้อมูลเป็นหลัก และใช้ AI เป็นตัวขับเคลื่อน ดังนั้น ปัจจัยที่จะนำสู่ความสำเร็จที่สำคัญ คือ ความสามารถในการพัฒนา ปรับใช้ บูรณาการ ปรับขนาด และควบคุม ความสามารถของ AI ได้อย่างรวดเร็วทุกจุด ซึ่งความสามารถที่กล่าวมานี้ต้องการโครงสร้างรากฐาน AI ที่เปิดกว้างและขยายออกไปได้ ที่จะทำให้มั่นใจได้ว่าการบูรณาการณ์เข้ากับระบบและกระบวนการต่าง ๆ ที่มีอยู่เป็นไปอย่างราบรื่น มีความคล่องตัวในการปฏิบัติงาน และสามารถกำกับดูแลได้อย่างต่อเนื่อง การช่วยให้พนักงานและลูกค้าได้รับประโยชน์จากความสามารถต่าง ๆ ของ AI  ได้อย่างรวดเร็ว และครอบคลุมมากขึ้น เป็นสิ่งสำคัญต่อความต่อเนื่องของความสำเร็จทางธุรกิจ”

Anand Swamy, executive vice president  and global head of ecosystems, HCLTech

การผสานรวมความสามารถต่าง ๆ ของ Red Hat AI ซึ่งครอบคลุมถึง RHEL AI และ Red Hat OpenShift AI เพื่อมอบแพลตฟอร์มการใช้ AI ครบวงจร ด้วยบริการด้านโครงสร้างพื้นฐานแบบ cognitive และความเชี่ยวชาญด้าน AI ของ HCLTech ซึ่งเป็นส่วนหนึ่งของโซลูชัน HCLTech AI Foundry ช่วยให้ลูกค้าได้รับแนวทางที่ทรงประสิทธิภาพและคล่องตัวเพื่อใช้ปลดล็อกนวัตกรรมด้าน AI และก้าวข้ามความท้าทายต่าง ๆ ที่เกิดขึ้น เช่น ความปลอดภัยของข้อมูล การปรับขนาดเวิร์กโหลด AI และการลดค่าใช้จ่ายด้านโครงสร้างพื้นฐาน

Alibaba Cloud Releases Qwen2.5-Omni-7B: An End-to-end Multimodal AI Model

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

Alibaba Cloud Releases Qwen2.5-Omni-7B: An End-to-end Multimodal AI Model

Alibaba Cloud has launched Qwen2.5-Omni-7B, a unified end-to-end multimodal model in the Qwen series. Uniquely designed for comprehensive multimodal perception, it can process diverse inputs, including text, images, audio, and videos, while generating real-time text and natural speech responses. This sets a new standard for optimal deployable multimodal AI for edge devices like mobile phones and laptops.

Despite its compact 7B-parameter design, Qwen2.5-Omni-7B delivers uncompromised performance and powerful multimodal capabilities. This unique combination makes it the perfect foundation for developing agile, cost-effective AI agents that deliver tangible value, especially intelligent voice applications. For example, the model could be leveraged to transform lives by helping visually impaired users navigate environments through real-time audio descriptions, offering step-by-step cooking guidance by analyzing video ingredients, or powering intelligent customer service dialogues that really understand customer needs.

The model is now open-sourced on Hugging Face and GitHub, with additional access via Qwen Chat and Alibaba Cloud’s open-source community ModelScope. Over the past years, Alibaba Cloud has made over 200 generative AI models open-source.

High Performance Driven by Innovative Architecture

Qwen2.5-Omni-7B delivers remarkable performance across all modalities, rivaling specialized single-modality models of comparable size. Notably, it sets a new benchmark in real-time voice interaction, natural and robust speech generation, and end-to-end speech instruction following.

Its efficiency and high performance stem from its innovative architecture, including Thinker-Talker Architecture, which separates text generation (through Thinker) and speech synthesis  (through Talker) to minimize interference among different modalities for high-quality output; TMRoPE (Time-aligned Multimodal RoPE), a position embedding technique to better synchronize the video inputs with audio for coherent content generation; and Block-wise Streaming Processing, which enables low-latency audio responses for seamless voice interactions.

Qwen2.5-Omni-7B was pre-trained on a vast, diverse dataset, including image-text, video-text, video-audio, audio-text, and text data, ensuring robust performance across tasks.

With the innovative architecture and high-quality pre-trained dataset, the model excels in following voice command, achieving performance levels comparable to pure text input. For tasks that involve integrating multiple modalities, such as those evaluated in OmniBench – a benchmark that assesses models’ ability to recognize, interpret, and reason across visual, acoustic, and textual inputs – Qwen2.5-Omni achieves state-of-the-art performance.

Qwen2.5-Omni-7B also demonstrates high performance on robust speech understanding and generation capabilities through in-context learning (ICL). Additionally, after reinforcement learning (RL) optimization, Qwen2.5-Omni-7B showed significant improvements in generation stability, with marked reductions in attention misalignment, pronunciation errors, and inappropriate pauses during speech response.

Alibaba Cloud unveils Qwen2.5 last September and released Qwen2.5-Max in January, which was ranked 7th on Chatbot Arena, matching other top proprietary LLMs and demonstrates exceptional capabilities. Alibaba Cloud also open-sourced Qwen2.5-VL and Qwen2.5-1M for enhanced visual understanding and long context input handling.

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

อาลีบาบา คลาวด์ ปล่อย Qwen2.5-Omni-7B โมเดล Multimodal AI ครบวงจร

 อาลีบาบา คลาวด์ เปิดตัว Qwen2.5-Omni-7B โมเดลมัลติโหมด (multimodal model) ครบวงจรเป็นส่วนหนึ่งใน Qwen series โมเดลนี้ออกแบบมาโดยเน้นความสามารถในการเข้าใจประเภทของข้อมูลได้หลายรูปแบบและครอบคลุม สามารถประมวลผลอินพุตหลากหลาย รวมถึงข้อความ รูปภาพ เสียง และ วิดีโอ สามารถสร้างการตอบสนองด้วยข้อความและคำพูดที่เป็นธรรมชาติได้แบบเรียลไทม์ นับเป็นการตั้งมาตรฐานใหม่ให้กับ multimodal AI ที่สามารถปรับใช้กับอุปกรณ์ปลายทาง (edge devices) เช่น โทรศัพท์มือถือ และแล็ปท็อปได้อย่างเหมาะสม

โมเดลนี้มอบประสิทธิภาพที่ไม่มีแผ่ว และมอบความสามารถแบบมัลติโหมดที่ทรงพลัง แม้ว่าจะมีพารามิเตอร์ขนาดกะทัดรัดเพียง 7B เท่านั้น จึงเป็นการผสมผสานรากฐานที่สมบูรณ์แบบเข้ากับการพัฒนา AI agents ที่คล่องตัวและคุ้มค่า มอบคุณประโยชน์ที่จับต้องได้ โดยเฉพาะกับแอปพลิเคชันเสียงอัจฉริยะต่าง ๆ เช่น โมเดลนี้ช่วยเปลี่ยนให้คุณภาพชีวิตดีขึ้น โดยการช่วยนำทางผู้มีความบกพร่องทางการมองเห็น ผ่านคำอธิบายเสียงเกี่ยวกับสภาพแวดล้อมแบบเรียลไทม์ หรือ ให้คำแนะนำในการทำอาหารทีละขั้นตอนด้วยการวิเคราะห์ส่วนผสมจากวิดีโอ หรือ ขับเคลื่อนให้บริการลูกค้าอัจริยะสามารถใช้บทสนทนาที่เข้าใจความต้องการที่แท้จริงของลูกค้าได้

ปัจจุบันโมเดลนี้เปิดเป็นโอเพ่นซอร์สบน Hugging Face และ GitHub และสามารถเข้าใช้ผ่าน Qwen Chat และ ModelScope ซึ่งเป็นชุมชนโอเพ่นซอร์สของอาลีบาบา คลาวด์ ทั้งนี้ในหลายปีที่ผ่านมา อาลีบาบา คลาวด์ ได้เปิดให้โมเดล generative AI มากกว่า 200 โมเดลเป็นโอเพ่นซอร์ส

นวัตกรรมด้านสถาปัตยกรรม ขับเคลื่อนให้โมเดลมีประสิทธิภาพสูง

Qwen2.5-Omni-7B มอบประสิทธิภาพโดดเด่นให้กับโหมดทุกประเภท ได้ทัดเทียมกับโมเดลเฉพาะแบบโหมดเดียวต่าง ๆ (single-modality models) ที่มีขนาดใกล้เคียงกัน โดยเฉพาะอย่างยิ่ง โมเดลนี้ได้ตั้งมาตรฐานใหม่ด้านการปฏิสัมพันธ์ด้วยเสียงแบบเรียลไทม์ การสร้างเสียงพูดที่เป็นธรรมชาติและชัดเจน และการทำตามคำสั่งเสียงอย่างครบวงจรจากต้นจนจบ

ประสิทธิภาพและสมรรถนะที่สูงของโมเดลนี้มาจากการใช้สถาปัตยกรรมล้ำสมัย ซึ่งรวมถึง Thinker-Talker Architecture ที่แยกการสร้างข้อความ (ด้วย Thinker) และการสังเคราะห์เสียง (ด้วย Talker) ออกจากกัน เพื่อลดสัญญาณรบกวนจากโหมดต่าง ๆ ให้เหลือน้อยที่สุดเพื่อให้ได้เอาต์พุตคุณภาพสูง, TMRoPE (Time-aligned Multimodal RoPE) ซึ่งเป็นเทคนิคการฝังตำแหน่งเพื่อให้ซิงโครไนซ์อินพุตวิดีโอด้วยเสียงเพื่อสร้างเนื้อหาที่สอดคล้องกันได้ดีขึ้น, และ Block-wise Streaming Processing ที่ช่วยให้สามารถตอบสนองเสียงด้วยความรวดเร็วมีความหน่วงต่ำ ส่งผลให้การโต้ตอบด้วยเสียงเป็นไปอย่างราบรื่น

Qwen2.5-Omni-7B ได้รับการเทรนล่วงหน้าด้วยชุดข้อมูลที่หลากหลายและกว้างขวาง ซึ่งรวมถึง การเปลี่ยนภาพเป็นข้อความ, วิดีโอเป็นข้อความ, วิดีโอเป็นเสียง, ตัวอักษรเป็นข้อมูล เพื่อให้มั่นใจได้ว่าโมเดลจะสามารถทำงานได้ทุกแบบด้วยประสิทธิภาพสูง

สถาปัตยกรรมที่ล้ำสมัยและการเทรนล่วงหน้าด้วยชุดข้อมูลคุณภาพสูง ทำให้โมเดลนี้มีความเป็นเลิศด้านการทำตามคำสั่งเสียง และมีประสิทธิภาพเทียบเท่ากับการป้อนเป็นตัวอักษรข้อความล้วน ๆ สำหรับงานที่เกี่ยวข้องกับมัลติโหมด เช่น โมเดลที่ได้รับการประเมินผ่าน OmniBench ซึ่งเป็นเกณฑ์มาตรฐานที่ประเมินความสามารถของโมเดลต่าง ๆ ด้านการจดจำ การตีความ และการให้เหตุผล จากอินพุตที่เป็นภาพ เสียงและข้อความ จึงกล่าวได้ว่า Qwen2.5-Omni มีสมรรถนะล้ำสมัยที่สุดในปัจจุบัน

Qwen2.5-Omni-7B ยังแสดงให้เห็นว่ามีสมรรถนะในการทำความเข้าใจและการสร้างคำพูดที่ดีเยี่ยม และมีความสามารถในการสร้างคำพูดผ่านการเรียนรู้ลงลึกในเชิงบริบท (in-context learning: ICL) นอกจากนี้ หลังจากเสริมประสิทธิภาพด้วยการเรียนรู้แบบเสริมกำลัง (reinforcement learning: RL) หรือการเรียนรู้จากปฏิสัมพันธ์แบบลองผิดลองถูกที่เกิดขึ้นระหว่างทางของการเรียนรู้แล้ว Qwen2.5-Omni-7B ได้แสดงให้เห็นว่ามีความเสถียรในการสร้างคำพูดเพิ่มขึ้นอย่างมาก ลดความคลาดเคลื่อนในการให้ความสนใจ, ลดข้อผิดพลาดในการออกเสียง และลดการสะดุดหยุดลงระหว่างการตอบสนองด้วยคำพูดได้อย่างเห็นได้ชัด

อาลีบาบา คลาวด์ เปิดตัว Qwen2.5 เมื่อเดือนกันยายนปี 2567 และปล่อย Qwen2.5-Max สู่ตลาดในเดือนมกราคมปี 2568 และได้รับการจัดให้อยู่ในอันดับที่ 7 บน Chatbot Arena ซึ่งเทียบชั้นได้กับ LLM ชั้นนำทั้งหลายที่มีกรรมสิทธิ์ และยังแสดงให้เห็นถึงความสามารถที่โดดเด่นด้านต่าง ๆ  อาลีบาบา คลาวด์ยังได้เปิดโอเพ่นซอร์ส Qwen2.5-VL และ Qwen2.5-1M ตอบโจทย์การทำความเข้าใจภาพที่มีประสิทธิภาพมากขึ้น และจัดการกับอินพุตบริบทที่ยาว ๆ ได้ดีขึ้น

Binance TH, Binance Charity and Changpeng Zhao pledge to support up to $1.5 Million in the Earthquake-Affected Areas in Myanmar and Thailand.

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity and Changpeng Zhao pledge to support up to $1.5 Million in the Earthquake-Affected Areas in Myanmar and Thailand.

In response to the recent devastating earthquake centered in Myanmar and surrounding areas including Thailand. Binance Charity, together with Binance co-founder and former CEO Changpeng Zhao (CZ), will launch a joint effort to airdrop up to $1.5 million equivalent in BNB to the users of Binance.com living in affected areas of Myanmar, as well as the users of Binance’s subsidiary in Thailand, Binance TH by Gulf Binance, in Thailand to support relief efforts in the region.

Binance Charity 

For Thailand, the areas considered affected can be found on Binance TH (www.binance.th) FAQ section and Binance Charity (https://www.binance.charity/) website. The identification of the users will be based on their living address information provided to Binance TH by Gulf Binance. We expect the funds to reach eligible users at the latest by April 14, 2025.

“In times of crisis, every second counts,” CZ said. “Blockchain and digital assets have provided an effective and efficient means of delivering financial aid to disaster victims. We encourage more people to join us to lend a helping hand to the needy and the less fortunate at this critical moment.”

Binance CEO Richard Teng said, “We are deeply saddened by the devastating earthquake that struck Myanmar, Thailand and the surrounding regions. Our prayers go out to the victims, their families and all those affected by the tragedy. Binance stands in solidarity with the communities and we sincerely hope that our efforts can provide some relief during this challenging time.”

“I extend my deepest condolences to the families who have lost loved ones, and my heartfelt sympathies to everyone affected by the recent earthquake,” said Nirun Fuwattananukul, CEO of Binance TH by Gulf Binance. “In partnership with Binance Charity, we are committed to finding innovative ways to provide support during this time of crisis, and to demonstrate our care for our users and the wider community. We also encourage recipients of these donations to pay it forward—if possible—so that aid reaches those who may be in even greater need.”

Additionally, Binance TH recognizes the vital role played by various agencies, especially the Police K9 Unit, which has been instrumental in searching for survivors during this crisis. Binance TH by Gulf Binance will donate an additional 200,000 THB to the K9 USAR Thailand under the Environmental and Social Foundation, to support the training of dogs for future missions and special operations.

Binance Charity remains committed to providing unwavering support to those in need through the power of blockchain technology. Previously, it has launched philanthropic initiatives in Spain, Turkey, Argentina, Libya, Vietnam and more.

For more information, please visit our FAQ page.

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao – CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

Binance TH, Binance Charity และฉางเผิง จ้าว (Changpeng Zhao - CZ) มอบความช่วยเหลือเร่งด่วนรวมมูลค่า 1.5 ล้านดอลลาร์ แก่ผู้ประสบภัยแผ่นดินไหวในไทยและเมียนมา

จากเหตุการณ์แผ่นดินไหวครั้งรุนแรงที่เกิดขึ้นในประเทศเมียนมาและพื้นที่โดยรอบ รวมถึงประเทศไทย Binance Charity ร่วมกับนายฉางเผิง จ้าว (Changpeng Zhao หรือ CZ) ผู้ร่วมก่อตั้งและอดีตซีอีโอของ Binance ได้ประกาศโครงการช่วยเหลือ โดยจะทำการแจกจ่ายความช่วยเหลือผ่านการแอร์ดรอปเหรียญ BNB รวมมูลค่า 1.5 ล้านดอลลาร์สหรัฐ ให้กับผู้ใช้ Binance.com ที่อาศัยอยู่ในพื้นที่ที่ได้รับผลกระทบในเมียนมา และผู้ใช้ของ Binance TH by Gulf Binance ที่อยู่ในประเทศไทย เพื่อสนับสนุนความช่วยเหลือในภูมิภาคนี้

สำหรับประเทศไทย รายชื่อพื้นที่ที่ถือว่าได้รับผลกระทบสามารถตรวจสอบได้จากหน้า FAQ ของ Binance TH (https://www.binance.th/th/faq) และเว็บไซต์ของ Binance Charity (https://www.binance.charity/) โดยการระบุผู้ใช้ที่ได้รับสิทธิ์จะอ้างอิงจากที่อยู่ที่ได้ลงทะเบียนไว้กับ Binance TH by Gulf Binance โดยคาดว่าผู้ใช้ที่มีสิทธิ์จะได้รับเงินช่วยเหลือภายในวันที่ 14 เมษายน 2568

“ในช่วงเวลาวิกฤต ทุกวินาทีล้วนมีความหมาย” CZ กล่าว “เทคโนโลยีบล็อกเชนและสินทรัพย์ดิจิทัลได้พิสูจน์แล้วว่าเป็นวิธีการที่มีประสิทธิภาพในการส่งต่อความช่วยเหลือทางการเงินแก่ผู้ประสบภัย เราขอเชิญชวนทุกคนมาร่วมเป็นส่วนหนึ่งในการยื่นมือช่วยเหลือผู้ที่เดือดร้อนในช่วงเวลาสำคัญนี้” CZ กล่าวเสริม

นายริชาร์ด เทง ซีอีโอของ Binance กล่าวว่า “เรารู้สึกเสียใจอย่างยิ่งต่อเหตุแผ่นดินไหวที่เกิดขึ้นในเมียนมา ประเทศไทย และพื้นที่โดยรอบ ขอแสดงความเสียใจอย่างสุดซึ้งต่อผู้เสียชีวิต ครอบครัวของพวกเขา และทุกคนที่ได้รับผลกระทบจากโศกนาฏกรรมครั้งนี้ Binance ขอเป็นกำลังใจให้กับทุกชุมชนที่ได้รับผลกระทบ และหวังเป็นอย่างยิ่งว่าความช่วยเหลือของเราจะสามารถบรรเทาความเดือดร้อนได้ในบางส่วน”

นายนิรันดร์ ฟูวัฒนานุกูล ซีอีโอของ Binance TH by Gulf Binance กล่าว  “ผมขอแสดงความเสียใจอย่างสุดซึ้งต่อครอบครัวของผู้ที่ต้องสูญเสียคนที่รักและขอส่งกำลังใจให้กับทุกคนที่ได้รับผลกระทบจากเหตุการณ์แผ่นดินไหวครั้งนี้ เราได้ร่วมมือกับ Binance Charity เพื่อแสวงหาวิธีการที่สร้างสรรค์ในการช่วยเหลือในยามวิกฤต และเพื่อแสดงให้เห็นถึงความห่วงใยที่เรามีต่อผู้ใช้และชุมชนโดยรวม นอกจากนี้เราขอเชิญชวนผู้ที่ได้รับเงินช่วยเหลือหากเป็นไปได้ให้ส่งต่อความช่วยเหลือแก่ผู้อื่นที่อาจเดือดร้อนมากกว่า เพื่อให้ความช่วยเหลือไปถึงผู้ที่จำเป็นได้รับอย่างทั่วถึง”

นอกจากนี้ Binance TH เห็นความสำคัญของการปฏิบัติภารกิจของหน่วยงานต่าง ๆ และโดยเฉพาะอย่างยิ่งกองกำกับการสุนัขตำรวจที่เป็นอีกกำลังหลักเพื่อค้นหาผู้รอดชีวิตจากเหตุการณ์ดังกล่าว ซึ่ง Binance TH by Gulf Binance จะบริจาคเงินเพิ่มเติมจำนวน 200,000 บาท ให้กับ องค์การสุนัขกู้ภัยแห่งชาติ ภายใต้มูลนิธิเพื่อสิ่งแวดล้อมและสังคม เพื่อช่วยสนับสนุนการฝึกสุนัขสำหรับภารกิจและปฏิบัติการพิเศษต่าง ๆ  

Binance Charity ยังคงยึดมั่นในพันธกิจในการให้ความช่วยเหลือแก่ผู้ที่ต้องการ ด้วยพลังของเทคโนโลยีบล็อกเชน โดยก่อนหน้านี้ได้ดำเนินโครงการเพื่อสังคมในประเทศต่าง ๆ เช่น สเปน ตุรกี อาร์เจนตินา ลิเบีย เวียดนาม และอีกมากมาย