• امروز : پنج شنبه - ۱۴ فروردین - ۱۴۰۴
  • برابر با : Thursday - 3 April - 2025
0

پردازنده‌های گرافیکی چینی در شبیه‌سازی ابررایانه‌ها ۱۰ برابر بهتر از تراشه‌های انویدیا

  • کد خبر : 9438
  • ۰۹ اسفند ۱۴۰۳ - ۹:۰۰
پردازنده‌های گرافیکی چینی در شبیه‌سازی ابررایانه‌ها ۱۰ برابر بهتر از تراشه‌های انویدیا
بر اساس نتایج یک مطالعه، محققان رایانه در چین با استفاده از پردازنده‌های گرافیکی ساخت داخل، نسبت به ابررایانه‌های قدرتمند ایالات‌متحده که به سخت‌افزار پیشرفته انویدیا متکی هستند، تقریباً 10 برابر افزایش عملکرد داشته‌اند.

به گزارش ساوت چاینا مورنینگ پست، این دستاورد به پیامدهای ناخواسته احتمالی تشدید تحریم‌های فناوری واشنگتن اشاره می‌کند و در عین حال سلطه تراشه‌های ساخت آمریکا را که مدت‌ها برای تحقیقات علمی پیشرفته حیاتی تلقی می‌شد، به چالش می‌کشد.

به گفته محققان، تکنیک‌های نوآورانه بهینه‌سازی نرم‌افزار آن‌ها را قادر می‌سازد تا بهره‌وری را در رایانه‌های مجهز به واحدهای پردازش گرافیکی (GPU) طراحی‌شده چینی بهبود بخشند تا در محاسبات علمی خاص از ابررایانه‌های ایالات‌متحده پیشی بگیرند.

اگرچه برخی بهینه‌سازی نرم‌افزار به‌تنهایی نمی‌تواند شکاف‌های سخت‌افزاری را به طور نامحدود پر کند، این توسعه بر استراتژی گسترده‌تر پکن برای کاهش خطرات نقاط حساس در فناوری‌های حیاتی تأکید دارد.

دانشمندان اغلب برای مدل‌سازی شرایط دنیای واقعی، مانند طرح‌هایی برای دفاع در برابر سیل یا غرقابی شهری، بر شبیه‌سازی‌ها تکیه می‌کنند. اما چنین بازتولیدهایی، به ویژه شبیه‌سازی‌های در مقیاس بزرگ و با وضوح بالا، زمان و منابع محاسباتی قابل‌توجهی را طلب می‌کنند و کاربرد گسترده‌تر چنین رویکردی را محدود می‌کنند.

چالش‌های پیش روی دانشمندان چینی سخت‌تر است. برای سخت‌افزار، تولید پردازنده‌های گرافیکی پیشرفته مانند A100 و H100 تحت سلطه تولیدکنندگان خارجی است. از جنبه نرم‌افزاری، انویدیا مستقر در ایالات‌متحده، اکوسیستم نرم‌افزاری CUDA خود را از اجرا بر روی سخت‌افزار شخص ثالث محدود کرده است، بنابراین مانع توسعه الگوریتم‌های مستقل می‌شود.

محققین چینی آزمایشگاه دولتی هیدرولوژی منابع آب و مهندسی هیدرولیک در دانشگاه نانجینگ، شروع به کاوش در یک رویکرد محاسباتی موازی “چند گره، چند GPU” بر اساس CPU ها و GPU های داخلی کردند.

کلید موفقیت در محاسبات موازی، انتقال کارآمد داده و هماهنگی کار بین چندین گره است که در نتیجه از دست دادن عملکرد به حداقل می‌رسد.

در سال ۲۰۲۱، تیم  تحقیقاتی آمریکا در آزمایشگاه ملی Oak Ridge، یک مدل پیش‌بینی سیل “چند گره، چند GPU”، معروف به TRITON را با استفاده از ابررایانه Summit معرفی کردند. با وجود استفاده از ۶۴ گره، “سرعت” – یا افزایش سرعت پردازش – فقط حدود شش برابر بود.

محققین چینی معماری جدیدی را پیشنهاد کردند که چندین GPU را در یک گره واحد ترکیب می‌کرد تا محدودیت‌های عملکرد پردازنده‌ها و پردازنده‌های گرافیکی داخلی را جبران کند.

طبق این مقاله، این مدل بر روی یک پلتفرم محاسباتی x86 همه منظوره داخلی راه‌اندازی شده است. پردازنده‌های مورداستفاده پردازنده‌های داخلی Hygon با شماره مدل ۷۱۸۵ با ۳۲ هسته، ۶۴ رشته و سرعت کلاک ۲٫۵ گیگاهرتز بودند. پردازنده‌های گرافیکی نیز داخلی بودند و با ۱۲۸ گیگابایت حافظه و پهنای باند شبکه ۲۰۰ گیگابیت بر ثانیه پشتیبانی می‌شدند.

این مدل با استفاده از ۲۰۰ گره محاسباتی و ۸۰۰ پردازنده گرافیکی، فرآیند تکامل سیل را تنها در سه دقیقه شبیه‌سازی کرد و به سرعتی بیش از ۱۶۰ برابر دست یافت.

شبیه‌سازی سیل‌ها در مقیاس حوضه رودخانه تنها در چند دقیقه به این معنی است که شبیه‌سازی بلادرنگ تکامل سیل و سناریوهای مختلف بارش باران را می‌توان با سرعت بیشتری و با جزئیات بیشتر انجام داد. این امر می‌تواند کنترل سیل و تلاش‌های پیشگیری از بلایا را افزایش دهد، مدیریت مخزن را در زمان واقعی بهبود بخشد و در نهایت تلفات جانی و مالی را کاهش دهد.

کد تحقیق در یک وب‌سایت منبع باز موجود است. این یافته‌ها را می‌توان نه تنها برای مدل‌سازی سیل، بلکه برای شبیه‌سازی سیستم‌های پیچیده در زمینه‌هایی مانند آب‌وهوا شناسی، رسوب‌گذاری و برهمکنش‌های آب سطحی-آب‌های زیرزمینی نیز به کار برد.

منبع: scmp

لینک کوتاه : https://techchina.ir/?p=9438

ثبت دیدگاه

قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.