به گزارش ساوت چاینا مورنینگ پست، این سری مدلها به مجموعه مدلهای زبانی بزرگ (LLM) علیبابا افزوده شد؛ مدلهایی که از محبوبترین مدلهای متنباز هوش مصنوعی در جهان به شمار میروند.
بر اساس گزارش شاخص هوش مصنوعی ۲۰۲۵ دانشگاه استنفورد، علیبابا در رده سوم جهانی در حوزه مدلهای زبانی بزرگ (LLMs) قرار دارد.
طبق اعلام علیبابا، مدلهای جدید در اندازههای پارامتری مختلف ارائه شدهاند و از بیش از ۱۰۰ زبان (از جمله چندین زبان برنامهنویسی) پشتیبانی میکنند و توانایی قدرتمندی در بازیابی دادههای چندزبانه، بینزبانی و کُدی(code retrieval) دارند.
در حوزه هوش مصنوعی، مدلهایEmbedding به کامپیوتر کمک میکنند تا متنها را درک و پردازش کند، بهطوریکه متنها به نمایشهای عددی تبدیل میشوند. از آنجا که کامپیوترها دادهها را فقط بهصورت عددی پردازش میکنند، این فرآیند به آنها امکان میدهد معنای زبانی و مفهومی را بهتر دریابند و نتایجی دقیقتر و غیر وابسته به واژههای کلیدی ارائه دهند.
شرکت علیبابا که مقر آن در شهر هانگژو قرار دارد، اعلام کرد این سری جدید به بهینهسازی مداوم مدل پایه Qwen کمک خواهد کرد و منجر به افزایش کارایی در آموزش مدل و بهبود عملکرد سیستمهای Embedding و Reranking خواهد شد. سیستم Reranking ترتیب نتایج جستجو را برای انطباق بهتر با پرسش کاربر تنظیم میکند.
طبق بیانیه علیبابا، این مدل جدید از همان الگوی آموزش چندمرحلهای استفاده میکند که در مدلهای قبلی سری Embedding این شرکت نیز بهکار رفته بود.
این فرآیند سهمرحلهای آموزشی شامل این موارد میشود؛ بررسی اولیه تضادها (contrastive learning) با استفاده از حجم زیادی از دادههای خام برای ارزیابی توانایی سیستم در تشخیص ارتباط و تمایز بین دادهها؛ آزمایش مجدد این فرآیند با دادههای باکیفیتتر و منتخب و در نهایت ترکیب یافتههای دو مرحله قبل برای بهینهسازی نهایی عملکرد مدل است.
علیبابا مدلهای سری Qwen3 را یک «نقطه شروع جدید» توصیف و اعلام کرد که مشتاق است توسعهدهندگان بیشتری محصولات این شرکت را در کاربردهای متنوع به کار گیرند.
منبع: scmp