• امروز : دوشنبه - ۱۲ آبان - ۱۴۰۴
  • برابر با : Monday - 3 November - 2025
0

چارچوب استنتاجی گروه آنت که ۱۰ برابر سریع‌تر از راه‌حل انویدیا عمل می‌کند

  • کد خبر : 11663
  • ۱۲ آبان ۱۴۰۴ - ۹:۰۰
چارچوب استنتاجی گروه آنت که ۱۰ برابر سریع‌تر از راه‌حل انویدیا عمل می‌کند
آنت، غول فین‌تک چینی یک چارچوب متن‌باز برای استنتاج مدل‌های هوش مصنوعی از نوعی نسبتاً جدید از مدل‌ها معرفی کرده است که می‌تواند سیستم‌های هوش مصنوعی را کارآمدتر سازد و حتی از چارچوب پیشنهادی شرکت آمریکایی انویدیا نیز پیشی بگیرد.

به گزارش ساوت چاینا مورنینگ پست، این شرکت وابسته به گروه علی‌بابا اعلام کرد که چارچوب جدید با نام dInfer  برای مدل‌های زبانی انتشار (diffusion language models) طراحی شده است — نوعی نسل تازه از مدل‌ها که خروجی‌ها را به‌صورت موازی تولید می‌کنند، در حالی که مدل‌های «خودتولیدی» (autoregressive)  مانند آنچه در ChatGPT  به‌کار می‌رود، متن را به‌صورت دنباله‌دار از چپ به راست می‌سازند.

مدل‌های انتشار در حال حاضر به‌طور گسترده در تولید تصویر و ویدئو مورد استفاده قرار می‌گیرند.

به گفته شرکت آنت، چارچوب dInfer تا سه برابر سریع‌تر از vLLM ، چارچوب متن‌باز توسعه‌یافته در دانشگاه کالیفرنیا، برکلی و تا ۱۰ برابر سریع‌تر از چارچوب Fast-dLLM شرکت انویدیا عمل می‌کند.

مدل‌های زبانی خودتولیدی، از GPT-3.5  شرکت OpenAI تا دیپ‌سیک-R1، تاکنون موتور اصلی رونق چت‌بات‌ها بوده‌اند، زیرا در درک و تولید زبان انسانی قدرت بالایی دارند. با این حال، پژوهشگران دانشگاهی در سراسر جهان در حال بررسی مدل‌های زبانی انتشار هستند تا به قابلیت‌های پیشرفته‌تری دست یابند.

حرکت آنت در این مسیر جدید نشان می‌دهد که شرکت‌های بزرگ فناوری چین در حال تقویت تلاش‌های خود در زمینه بهینه‌سازی الگوریتم‌ها و نرم‌افزارها هستند تا کمبود دسترسی به تراشه‌های پیشرفته هوش مصنوعی را جبران کنند.

طبق نتایج آزمایش‌های داخلی بر روی مدل انتشار اختصاصی این شرکت به نام LLaDA-MoE، چارچوب dInfer  توانسته است در بنچ‌مارک تولید کد HumanEval  به میانگین سرعت ۱۰۱۱ توکن در ثانیه دست یابد؛ در حالی که Fast-dLLM  انویدیا تنها ۹۱ توکن در ثانیه و مدل Qwen-2.5-3B علی‌بابا با چارچوب vLLM  حدود ۲۹۴ توکن در ثانیه تولید کرده‌اند.

به گفته شرکت، این نتایج به رفع یکی از مهم‌ترین محدودیت‌های مدل‌های زبانی انتشار — یعنی هزینه محاسباتی بالا — کمک کرده است.

پژوهشگران آنت در گزارش فنی منتشرشده همراه این رونمایی نوشتند: ما باور داریم که dInfer هم‌زمان یک جعبه‌ابزار عملی و یک پلتفرم استاندارد برای تسریع پژوهش و توسعه در حوزه در حال رشد مدل‌های زبانی انتشار (dLLMs)  فراهم می‌کند.

این اعلامیه در ادامه موجی از فعالیت‌های مرتبط با هوش مصنوعی در شرکت مستقر در هانگژو منتشر شد. شرکت آنت از یک مدل استدلالی با یک تریلیون پارامتر نیز رونمایی کرد، یکی از بزرگ‌ترین مدل‌های متن‌باز در جهان که گفته می‌شود در آزمون‌های استدلال عملکردی بسیار قوی داشته است.

اپراتور سرویس پرداخت موبایلی علی‌پی در سال ۲۰۲۳ با معرفی یک مدل زبانی بزرگ مالی وارد رقابت مدل‌های هوش مصنوعی شد. پرتفوی کنونی این شرکت شامل مجموعه مدل‌های Ling  (مدل‌های زبانی بدون استدلال)،Ring  (مدل‌های استدلالی)، Ming (مدل‌های چندوجهی)، و LLaDA-MoE  (مدل آزمایشی انتشار) است.

همچنین شرکت در حال توسعه یک چارچوب یادگیری مداوم به نام AWorld  است که برای پشتیبانی از عامل‌های هوش مصنوعی خودمختار طراحی شده تا بتوانند وظایف کاربران را به‌طور مستقل انجام دهند.

مدیران آنت باور دارند که هوش مصنوعی عمومی (AGI) باید یک کالای عمومی باشد، دستاوردی مشترک برای آینده هوشمند بشریت.

هوش مصنوعی عمومی یا AGI  به سامانه‌ای نظری از هوش مصنوعی اشاره دارد که می‌تواند در بیشتر وظایف اقتصادی از انسان پیشی بگیرد. شرکت‌هایی مانند OpenAI  و علی‌بابا نیز AGI را به‌عنوان هدف نهایی خود تعیین کرده‌اند، هرچند پژوهشگران هنوز درباره امکان دستیابی به آن با معماری‌های فعلی مدل‌ها اختلاف نظر دارند.

در همین حال، سایر شرکت‌های فناوری چین نیز در حال آزمایش الگوهای متفاوت مدل‌های زبانی هستند. در اواخر ژوئیه، شرکت بایت دنس از مدل زبانی انتشار Seed Diffusion Preview رونمایی کرد که گفته می‌شود تا پنج برابر سریع‌تر از مدل‌های خودتولیدی مشابه عمل می‌کند.

منبع: scmp

لینک کوتاه : https://techchina.ir/?p=11663

ثبت دیدگاه

قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.