Standard Chartered และ Alibaba Group ลงนามความร่วมมือเชิงกลยุทธ์ด้านเทคโนโลยีและการสร้างความเติบโต รวมพลังพัฒนาและใช้เทคโนโลยี AI ที่ล้ำหน้า

Standard Chartered และ Alibaba Group ลงนามความร่วมมือเชิงกลยุทธ์ด้านเทคโนโลยีและการสร้างความเติบโต รวมพลังพัฒนาและใช้เทคโนโลยี AI ที่ล้ำหน้า

Standard Chartered และ Alibaba Group ลงนามความร่วมมือเชิงกลยุทธ์ด้านเทคโนโลยีและการสร้างความเติบโต

รวมพลังพัฒนาและใช้เทคโนโลยี AI ที่ล้ำหน้า

สแตนดาร์ดชาร์เตอร์ด (Standard Chartered) และบริษัทอาลีบาบา กรุ๊ป โฮลดิ้ง จำกัด (อาลีบาบา หรือ อาลีบาบา กรุ๊ป) ร่วมเป็นพันธมิตรเชิงกลยุทธ์เพื่อเร่งนำ AI มาใช้ในภาคบริการทางการเงินให้รวดเร็วยิ่งขึ้นโดยใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) ของอาลีบาบา คลาวด์

ภายใต้บันทึกความเข้าใจนี้ สแตนดาร์ดชาร์เตอร์ดจะทำงานร่วมกับอาลีบาบา คลาวด์ ในฐานะพันธมิตรเชิงกลยุทธ์ด้านเทคโนโลยี AI เพื่อเพิ่มประสิทธิภาพให้กับการดำเนินงาน และยกระดับประสบการณ์ลูกค้า ความร่วมมือนี้มีเป้าหมายเพื่อช่วยให้ธนาคารฯ เพิ่มความได้เปรียบทางการแข่งขัน ด้วยการใช้โซลูชันที่ชาญฉลาดและเทคโนโลยี AI ของอาลีบาบา คลาวด์ ซึ่งรวมถึงการพัฒนาบริการลูกค้า และข้อมูลเชิงลึกด้านการขายที่ช่วยให้ตัดสินใจได้อย่างชาญฉลาดโดยมี AI เป็นเทคโนโลยีเบื้องหลัง เพื่อให้ลูกค้ามีส่วนร่วมมากขึ้น ใช้การบริหารความเสี่ยงและการปฏิบัติตามกฎระเบียบที่ขับเคลื่อนด้วย AI ได้อย่างอัตโนมัติ และ ยกระดับทักษะความสามารถบุคลากรด้วยการเข้าร่วมเวิร์กช็อปด้าน AI และการได้รับการรับรองต่าง ๆ

ความร่วมมือครั้งนี้ยังเป็นการสนับสนุนการพัฒนากลยุทธ์ของอาลีบาบา กรุ๊ป ทั่วโลก โดยสแตนดาร์ดชาร์เตอร์ดให้บริการด้านการธนาคารที่ครอบคลุมที่ปรับแต่งให้ตรงตามความต้องการทางธุรกิจของกลุ่มธุรกิจอาลีบาบา กรุ๊ป ไม่ว่าจะเป็นการสนับสนุนทางการเงิน การสนับสนุนทางการเงินให้กับระบบซัพพลายเชน โซลูชันบริหารจัดการกองทุนข้ามประเทศ ไปจนถึงการกระชับความร่วมมือในตลาดการเงินเชิงลึก ทั้งนี้ทั้งสองฝ่ายจะเสริมสร้างความร่วมมือด้านการพัฒนาที่ยั่งยืนและด้านการเงินที่ยั่งยืนอย่างแข็งขัน

นายบิล วินเทอร์ส ประธานเจ้าหน้าที่บริหารกลุ่มสแตนดาร์ดชาร์เตอร์ด กล่าวว่า “เรากำลังลงทุนอย่างมากในเทคโนโลยีล้ำสมัยต่าง ๆ เช่น AI ซึ่งมีบทบาทเข้ามาปรับเปลี่ยนรูปแบบทางธุรกิจของเรา และพลิกโฉมอนาคตด้านการเงิน ผมรู้สึกตื่นเต้นที่ได้ต่อยอดความสัมพันธ์ที่มีอยู่กับอาลีบาบา กรุ๊ป ซึ่งเป็นผู้นำระดับโลกด้าน AI และด้านอื่น ๆ เช่น อีคอมเมิร์ซและค้าปลีก รวมถึงความมุ่งมั่นร่วมกันของเราในการสร้างสรรค์นวัตกรรมที่นำไปสู่การเปลี่ยนแปลงที่ตอบรับความต้องการได้อย่างเจาะจง เรามุ่งหวังว่า เมื่อรวมความสามารถทางเทคโนโลยีของอาลีบาบา กรุ๊ป เข้ากับความเชี่ยวชาญด้านการเงินของเรา เราจะสามารถใช้ศักยภาพของ AI อย่างเต็มที่ เพื่อต่อยอดงานด้านนวัตกรรมของเรา ในขณะที่ยังคงสร้างคุณค่าในระยะยาวให้กับลูกค้า ผู้ร่วมงาน และชุมชนของเรา” 

นายเอ็ดดี้ วู ซีอีโอของอาลีบาบา กรุ๊ป กล่าวเสริมว่า “AI ได้แสดงให้เห็นแล้วถึงศักยภาพในการขับเคลื่อนการเปลี่ยนแปลงเชิงโครงสร้างหรือเชิงปฏิรูป ไม่ว่าจะเป็นในภาคการศึกษาไปจนถึงการดูแลสุขภาพและการวิจัยทางวิทยาศาสตร์ เรารู้สึกตื่นเต้นที่ได้ร่วมมือกับสแตนดาร์ดชาร์เตอร์ด ซึ่งเป็นบริการด้านการเงินชั้นนำของโลก เพื่อกำหนดทิศทางการเปลี่ยนผ่านในภาคการเงิน การเป็นพันธมิตรเชิงกลยุทธ์ครั้งนี้จะเป็นการผสานรวมความเชี่ยวชาญของอาลีบาบา เข้ากับความรู้เชิงลึกในอุตสาหกรรมของสแตนดาร์ดชาร์เตอร์ด เพื่อปลดล็อกโอกาสและความเป็นไปได้ใหม่ ๆ” 

Alibaba Releases Wan2.2 to Uplift Cinematic Video Production

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

Alibaba Releases Wan2.2 to Uplift Cinematic Video Production

The Industry’s first open-source MoE large video generation models offering superb control for global creators and developers

Alibaba has released Wan2.2, the industry’s first open-source large video generation models incorporating the MoE (Mixture-of-Experts) architecture, that will significantly elevate the ability of creators and developers to produce cinematic-style videos with a single click. 

The Wan2.2 series feature a text-to-video model Wan2.2-T2V-A14B and image-to-video model Wan2.2-I2V-A14B, and Wan2.2-TI2V-5B, a hybrid model that supports both text-to-video and image-to-video generation tasks within a single unified framework. 

Built on the MoE architecture and trained on meticulously curated aesthetic data, Wan2.2-T2V-A14B and Wan2.2-I2V-A14B generates videos with cinematic-grade quality and aesthetics, offering creators precise control over key dimensions such as lighting, time of day, color tone, camera angle, frame size, composition, focal length, etc. 

The two MoE models also demonstrate significant enhancements in producing complex motions – including vivid facial expressions, dynamic hand gestures, and intricate sports movements. Additionally, the models deliver realistic representations with enhanced instruction following and adherence to physical laws.

To address the issue of high computational consumption in video generation caused by long tokens, Wan2.2-T2V-A14B and Wan2.2-I2V-A14B implement a two-expert design in the denoising process of diffusion models, including a high-noise expert focusing on overall scene layout and a low-noise expert to refine details and textures. Though both models comprise a total of 27 billion parameters, only 14 billion parameters are activated per step, reducing computational consumption by up to 50%.

Wan2.2 incorporates fine-grained aesthetic tuning through a cinematic-inspired prompt system that categorizes key dimensions such as lighting, illumination, composition, and color tone. This approach enables Wan2.2 to accurately interpret and convey users’ aesthetic intentions during the generation process. 

To enhance generalization capabilities and creative diversity, Wan2.2 was trained on a substantially larger dataset, featuring 65.6% increase in image data and 83.2% increase in video data compared to Wan2.1. Wan2.2 demonstrates enhanced performance in producing complex scenes and motions, as well as an enhanced capacity for artistic expression. 

A Compact Model to Enhance Efficiency and Scalability

Wan2.2 also introduces its hybrid model Wan2.2-TI2V-5B, a dense model utilizes a high-compression 3D VAE architecture to achieve a temporal and spatial compression ratio of 4x16x16, enhancing the overall information compression rate to 64. The TI2V-5B can generate a 5-second 720P video in several minutes on a single consumer-grade GPU, enabling efficiency and scalability to developers and content creators.  

Wan2.2 models are available to download on Hugging Face and GitHub, as well as Alibaba Cloud’s open-source community, ModelScope. A major contributor to the global open source community, Alibaba open sourced four Wan2.1 models in February 2025 and Wan 2.1-VACE (Video All-in-one Creation and Editing) in May 2025. To date, the models have attracted over 5.4 million downloads on Hugging Face and ModelScope. 

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

อาลีบาบา ปล่อย Wan2.2 ยกระดับการผลิตวิดีโอคุณภาพระดับภาพยนตร์

โมเดลสร้างวิดีโอแบบโอเพ่นซอร์สรุ่นแรกในอุตสาหกรรมที่ใช้สถาปัตยกรรม MoE ช่วยให้ครีเอเตอร์และนักพัฒนาทั่วโลกควบคุมการผลิตวิดีโอได้อย่างยอดเยี่ยม

อาลีบาบา เปิดตัว Wan2.2 โมเดลสร้างวิดีโอขนาดใหญ่แบบโอเพ่นซอร์สที่สร้างบนสถาปัตยกรรม MoE (Mixture-of-Experts) เป็นโมเดลแรกในอุตสาหกรรม เพื่อช่วยยกระดับความสามารถในการผลิตวิดีโอสไตล์ภาพยนตร์ให้กับครีเอเตอร์และนักพัฒนา ด้วยการคลิกเพียงครั้งเดียว

Wan2.2 series เป็นไฮบริดโมเดลที่รองรับการสร้างวิดีโอจากข้อความและจากภาพภายใต้เฟรมเวิร์กเดียวกัน ประกอบด้วยโมเดลแปลงข้อความเป็นวิดีโอ Wan2.2-T2V-A14B และโมเดลแปลงภาพเป็นวิดีโอ Wan2.2-12V-A14B และ Wan2.2-TI2V-5B 

Wan2.2-T2V-A14B และ Wan2.2-I2V-A14B สร้างขึ้นบนสถาปัตยกรรม MoE ได้รับการเทรนด้วยชุดข้อมูลภาพที่คัดสรรมาอย่างพิถีพิถัน ทำให้สามารถสร้างวิดีโอที่มีคุณภาพและสวยงามในเกรดภาพยนต์ ครีเอเตอร์สามารถควบคุมมิติสำคัญ ๆ ได้อย่างแม่นยำ เช่น แสง เวลาที่ต้องการ โทนสี มุมกล้อง ขนาดของเฟรม องค์ประกอบ และ ระยะโพกัส เป็นต้น

โมเดล MoE ทั้งสองนี้ ยังแสดงให้เห็นถึงประสิทธิภาพในการสร้างการเคลื่อนไหวที่ซับซ้อนได้อย่างโดดเด่น ไม่ว่าจะเป็นการแสดงออกทางสีหน้าที่สดใส ท่าทางมือที่เคลื่อนไหวแบบไดนามิก ไปจนถึงการเคลื่อนไหวที่ซับซ้อนของการเล่นกีฬา นอกจากนี้ยังช่วยให้การนำเสนอสมจริง ด้วยความสามารถในการทำตามคำสั่งและยึดหลักปฏิบัติตามกฎทางกายภาพได้ดีมากขึ้น

Wan2.2-T2V-A14B และ Wan2.2-I2V-A14B ใช้การออกแบบ แบบ two-expert ในกระบวนการลดเสียงรบกวนของโมเดลการแพร่กระจาย (diffusion model) ต่าง ๆ เพื่อแก้ปัญหาในการสร้างวิดีโอที่ต้องใช้ทรัพยากรประมวลผลสูงที่เกิดจากการใช้โทเค็นที่ใช้ได้ตลอดระยะเวลาของการสตรีมสื่อ (long tokens) ซึ่งรวมถึง high-noise expert ที่เน้นไปที่เค้าโครงของฉากในภาพรวม และ low-noise expert เพื่อปรับแต่งรายละเอียดและพื้นผิว ทั้งนี้แม้ว่าทั้งสองโมเดลจะมีพารามิเตอร์รวม 27 พันล้านพารามิเตอร์ แต่ในแต่ละขั้นตอนจะเปิดใช้งานเพียง 14 พันล้านพารามิเตอร์เท่านั้น ทำให้สามารถลดการใช้ทรัพยากรการประมวลผลลงได้มากถึง 50% 

Wan2.2 รองรับการปรับแต่งอย่างละเอียดผ่านระบบพรอมต์ที่ได้รับแรงบันดาลใจจากงานภาพยนตร์ โดยจัดหมวดหมู่มิติสำคัญต่าง ๆ เช่น แสง ความสว่าง องค์ประกอบภาพ และ โทนสี ช่วยให้ Wan2.2 สามารถตีความและถ่ายทอดเจตนารมณ์ของผู้ใช้งานได้อย่างแม่นยำตลอดกระบวนการสร้างวิดีโอ

Wan2.2 ได้รับการเทรนจากชุดข้อมูลที่มีขนาดใหญ่ขึ้นมาก เพื่อเพิ่มความสามารถให้ใช้ได้ในวงกว้างมากขึ้น และเพิ่มความหลากหลายของการสร้างสรรค์ โดยมีข้อมูลภาพเพิ่มขึ้น 65.6% และข้อมูลวิดีโอเพิ่มขึ้น 83.2% เมื่อเทียบกับ Wan2.1 ทำให้ Wan2.2 มีประสิทธิภาพในการสร้างฉากและการเคลื่อนไหวที่ซับซ้อน รวมถึงความสามารถในการแสดงออกทางศิลปะเพิ่มมากขึ้น

โมเดลขนาดกะทัดรัด เพื่อเพิ่มประสิทธิภาพและความสามารถในการปรับขนาด 

Wan2.2 มาพร้อม Wan2.2-TI2V-5B ซึ่งเป็นไฮบริดโมเดลของ Wan2.2 และเป็น dense model ที่ใช้สถาปัตยกรรม 3D VAE ที่มีอัตราการบีบอัดข้อมูลสูง เพื่อให้ได้ใช้อัตราส่วนการบีบอัดเชิงเวลาและเชิงพื้นที่ที่ 4x16x16 ซึ่งช่วยเพิ่มอัตราการบีบอัดข้อมูลโดยรวมที่ 64 ทั้งนี้ TI2V-5B สามารถสร้างวิดีโอยาว 5 วินาที และมีความละเอียด 720P ได้ในเวลาไม่กี่นาทีบน GPU ที่เป็นเกรดผู้บริโภคเพียงตัวเดียว เป็นการช่วยให้นักพัฒนาและคอนเทนต์ครีเอเตอร์สร้างสรรค์วิดีโอได้อย่างมีประสิทธิภาพและสามารถปรับขนาดได้ตามต้องการ

โมเดล Wan2.2 พร้อมให้ดาวน์โหลดแล้วบน Hugging Face และ GitHub รวมถึงบน ModelScope ซึ่งเป็นชุมชนด้านโอเพ่นซอร์สของอาลีบาบา คลาวด์ นอกจากนี้ อาลีบาบา ในฐานะหนึ่งในผู้มีส่วนร่วมหลักของชุมชนโอเพ่นซอร์สระดับโลก ได้เปิดโอเพ่นซอร์สโมเดล Wan2.1 สี่โมเดล เมื่อเดือนกุมภาพันธ์ 2568 และโอเพ่นซอร์ส Wan 2.1-VACE (โมเดลสร้างและตัดต่อวิดีโอแบบ all-in-one) เมื่อเดือนพฤษภาคม 2568  ปัจจุบัน โมเดลเหล่านี้มียอดดาวน์โหลดมากกว่า 5.4 ล้านครั้งบน Hugging Face และ ModelScope

Alibaba Unveils Cutting-Edge AI Coding Model Qwen3-Coder

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

Alibaba Unveils Cutting-Edge AI Coding Model Qwen3-Coder

Alibaba has launched Qwen3-Coder, its most advanced agentic AI coding model to date. Designed for high-performance software development, Qwen3-Coder excels in agentic AI coding tasks, from generating new codes and managing complex coding workflows to debugging across entire codebases.

Built on a Mixture-of-Experts (MoE) architecture, this open-sourced model Qwen3-Coder-480B-A35B-Instruct, which has a total of 480 billion parameters but activates 35 billion parameters per token, delivers efficiency without sacrificing performance. The model achieves competitive results against leading state-of-the-art (SOTA) models across key benchmarks in agentic coding, browser use, and tool use.

Additionally, Alibaba is open-sourcing Qwen Code, a powerful command-line interface (CLI) tool that enables developers to delegate engineering tasks to AI using natural language. Optimized with custom prompts and interaction protocols, Qwen Code unlocks the full potential of Qwen3-Coder for real-world agentic programming. The model also supports integration with the Claude Code interface, making it even easier for developers to execute their coding tasks.

Trained on an extensive dataset of codes and general text data, Qwen3-Coder is engineered for robust agentic coding. It natively supports a context window of 256K tokens, extendable up to 1 million tokens, enabling it to process vast codebases in a single session. Its superior performance stems not only from scaling across tokens, context length, and synthetic data during pre-training, but also from innovative post-training techniques such as long-horizon reinforcement learning (agent RL). This advancement allows the model to solve complex, real-world problems through multi-step interactions with external tools. As a result, Qwen3-Coder achieves SOTA performance among open-source models on SWE-Bench Verified (a benchmark for evaluating AI models’ ability to solve real-world software issues), even without test-time or inference scaling. 

Agentic AI coding is transforming software development by enabling more autonomous, efficient, and accessible programming workflows. With its open-source availability, strong agentic coding capabilities, and seamless compatibility with popular developer tools and interfaces, Qwen3-Coder is positioned as a valuable tool for global developers in software development.

The Qwen3-Coder-480B-A35B-Instruct model is now available on Hugging Face and GitHub. Developers can also access the model on Qwen Chat or via cost-effective APIs through Model Studio, Alibaba’s generative AI development platform.

Qwen-based coding models have already surpassed 20 million downloads globally. Tongyi Lingma, Alibaba Cloud’s Qwen-powered coding assistant, will soon be upgraded with Qwen3-Coder’s enhanced agentic capabilities. Since its launch in June 2024, Tongyi Lingma’s “AI Programmer” feature—offering code completion, optimization, debugging support, snippet search, and batch unit test generation—has generated over 3 billion lines of code.

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด AI ล้ำสมัย

อาลีบาบา เปิดตัว Qwen3-Coder โมเดลเขียนโค้ด agentic AI ของบริษัทฯ ที่ล้ำหน้าที่สุดในปัจจุบัน Qwen3-Coder ออกแบบมาเพื่อใช้ในการพัฒนาซอฟต์แวร์ที่ต้องการประสิทธิภาพสูง มีความสามารถเป็นเลิศในการเขียนโค้ด agentic AI ไม่ว่าจะเป็นการสร้างโค้ดใหม่และการจัดการกับเวิร์กโฟลว์ในการเขียนโค้ดที่ซับซ้อน ไปจนถึงการหาและแก้ไขข้อบกพร่อง (debugging) ชุดของซอร์สโค้ด (codebase) ทั้งหมด

Qwen3-Coder-480B-A35B-Instruct เป็นโมเดลโอเพ่นซอร์สที่สร้างบนสถาปัตยกรรม Mixture-of-Experts (MoE) มีพารามิเตอร์ทั้งหมด 480 พันล้านพารามิเตอร์ แต่เปิดใช้งาน 35 พันล้านพารามิเตอร์ต่อโทเค็น มอบประสิทธิภาพโดยไม่ลดทอนสมรรถนะ โมเดลนี้มีผลลัพธ์ที่แข่งขันได้กับโมเดลที่ล้ำสมัย (state-of-the-art: SOTA) ชั้นนำอื่น ๆ ในการวัดประสิทธิภาพสำคัญต่าง ๆ ในด้านการเขียนโค้ด agentic, การใช้เบราว์เซอร์ และ การใช้เครื่องมือ

นอกจากนี้ อาลีบาบายังได้เปิดโอเพ่นซอร์ส Qwen Code ซึ่งเป็นเครื่องมือ command-line interface (CLI) ทรงประสิทธิภาพที่ช่วยให้นักพัฒนาซอฟต์แวร์มอบหมายงานด้านวิศวกรรมให้กับ AI ด้วยการใช้ภาษาธรรมชาติ Qwen Code ได้รับการปรับให้เหมาะสมด้วยพรอมต์ที่กำหนดเอง (custom prompts) และโปรโตคอลการปฏิสัมพันธ์ต่าง ๆ ซึ่งเป็นการปลดล็อกศักยภาพทั้งหมดของ Qwen3-Coder ให้กับการเขียนโปรแกรม agentic ในโลกจริงได้อย่างเต็มรูปแบบ โมเดลนี้ยังรองรับการทำงานร่วมกับ Claude Code interface ซึ่งช่วยให้นักพัฒนาซอฟต์แวร์เขียนโค้ดได้ง่ายขึ้น

Qwen3-Coder ได้รับการเทรนกับชุดข้อมูลโค้ดและข้อมูลข้อความทั่วไปอย่างครอบคลุม และได้รับการออกแบบมาสำหรับการเขียนโค้ด agentic ได้อย่างทรงประสิทธิภาพ โดยปกติโมเดลนี้รองรับหน้าต่างบริบท (context window) ได้ 256K โทเค็น และสามารถขยายได้สูงสุด 1 ล้านโทเค็น ช่วยให้สามารถประมวลผล codebases ขนาดใหญ่ได้ในการสนทนาโต้ตอบเดียว (single session) 

ประสิทธิภาพทั้งหมดที่เหนือกว่านี้ไม่เพียงเกิดจากการปรับขนาดข้ามโทเค็น, ความยาวบริบท และข้อมูลสังเคราะห์ (synthetic data) ระหว่างการเทรนล่วงหน้าเท่านั้น แต่ยังมาจากเทคนิคที่เป็นนวัตกรรมต่าง ๆ ภายหลังการเทรน เช่น การเรียนรู้ของ agent ที่เกิดจากการเรียนรู้แบบลองผิดลองถูกในระยะยาว (long-horizon reinforcement learning: agent RL) 

ความล้ำหน้านี้ช่วยให้โมเดลสามารถแก้ปัญหาที่ซับซ้อนในโลกจริง ผ่านการปฏิสัมพันธ์โต้ตอบแบบหลายขั้นกับเครื่องมือภายนอกต่าง ๆ ส่งผลให้ Qwen3-Coder บรรลุผลทดสอบสมรรถนะ SOTA ในกลุ่มโมเดลโอเพ่นซอร์สจาก SWE-Bench Verified (เกณฑ์มาตรฐานสำหรับการประเมินความสามารถของโมเดล AI ต่าง ๆ ในการแก้ปัญหาซอฟต์แวร์ในโลกการใช้งานจริง) แม้จะไม่มีการปรับเวลาทดสอบหรือปรับขนาดการอนุมานก็ตาม

การเขียนโค้ด agentic AI กำลังพลิกโฉมการพัฒนาซอฟต์แวร์ ด้วยการทำให้เวิร์กโฟลว์การเขียนโปรแกรมมีความอิสระที่จะทำได้ด้วยตนเอง มีประสิทธิภาพ และเข้าถึงได้มากขึ้น การเปิดโอเพ่นซอร์สความสามารถในการเขียนโค้ด agentic ที่มีสมรรถนะสูง และความเข้ากันได้อย่างไม่ติดขัดกับเครื่องมือและอินเทอร์เฟซต่าง ๆ ที่นักพัฒนาซอฟต์แวร์นิยมใช้ ส่งให้ Qwen3-Coder เป็นเครื่องมือทรงคุณค่าสำหรับนักพัฒนาซอฟต์แวร์ทั่วโลก

 

โมเดล Qwen3-Coder-480B-A35B-Instruct พร้อมใช้งานแล้วบน Hugging Face และ GitHub นอกจากนี้นักพัฒนาซอฟต์แวร์ยังสามารถเข้าใช้โมเดลนี้บน Qwen Chat หรือผ่าน APIs ที่คุ้มค่าใช้จ่ายบน Model Studio ซึ่งเป็นแพลตฟอร์มการพัฒนา generative AI ของอาลีบาบา

โมเดลการเขียนโค้ดที่ใช้ Qwen มียอดดาวน์โหลดทะลุ 20 ล้านครั้งทั่วโลก Tongyi Lingma ผู้ช่วยเขียนโค้ดที่ขับเคลื่อนโดย Qwen จะได้รับการอัปเกรดความสามารถด้าน agentic ของ Qwen3-Coder เร็ว ๆ นี้ และนับตั้งแต่เปิดตัวเมื่อเดือนมิถุนายน 2567 ฟีเจอร์ “AI Programmer” ของ Tongyi Lingma ที่นำเสนอการเติมโค้ดให้สมบูรณ์, การเพิ่มประสิทธิภาพให้เหมาะสม, สนับสนุนการดีบัก, การค้นหาตัวอย่าง และการสร้างการทดสอบ batch unit ได้สร้างโค้ดมาแล้วมากกว่า 3 พันล้านบรรทัด