جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

27 آبان 1404

|

3

|

0 نظر

|

کدخبر: 10386

|

همکاری d-Matrix و Alchip در توسعه ۳D DRAM برای هوش مصنوعی

دو شرکت d-Matrix و Alchip اعلام کرده‌اند که در قالب یک همکاری مشترک، نخستین راهکار ۳D DRAM ویژه شتاب‌دهی عملیات استنتاج هوش مصنوعی را توسعه می‌دهند؛ راهکاری که طبق ادعای سازندگان، تا ۱۰ برابر سریع‌تر از حافظه‌های HBM4 عمل خواهد کرد. این پیشرفت می‌تواند سرعت اجرای مدل‌های بزرگ هوش مصنوعی را افزایش داده و استفاده از هوش مصنوعی را در سیستم‌های بلادرنگ و دستگاه‌های لبه‌ای متحول کند، هرچند هنوز باید عملکرد واقعی آن در نمونه‌های تجاری سنجیده شود.

همکاری d-Matrix و Alchip در توسعه ۳D DRAM برای هوش مصنوعی

ارائه نخستین راهکار ۳D DRAM برای شتاب‌دهی استنتاج هوش مصنوعی

شرکت‌های d-Matrix و Alchip از یک همکاری استراتژیک جدید خبر داده‌اند که هدف آن توسعه «اولین راهکار ۳D DRAM مخصوص شتاب‌دهی استنتاج هوش مصنوعی» است. این پروژه بر پایه فناوری‌های نوین طراحی تراشه، پکیجینگ سه‌بعدی و معماری‌های حافظه‌ای پیشرفته شکل گرفته تا گلوگاه‌های سرعت و مصرف انرژی در استنتاج مدل‌های بزرگ هوش مصنوعی را کاهش دهد. این همکاری می‌تواند مسیر تازه‌ای برای نسل آینده شتاب‌دهنده‌های AI باز کند.


چرا این فناوری از حافظه‌های پرسرعت فعلی مهم‌تر است؟

طبق اعلام رسمی دو شرکت، راهکار جدید می‌تواند حداکثر «۱۰ برابر سریع‌تر» از سیستم‌های مبتنی بر HBM4 عمل کند. HBM4 نسل جدیدی از حافظه‌های High-Bandwidth Memory است که امروزه در پیشرفته‌ترین GPUها و شتاب‌دهنده‌های AI استفاده می‌شود. اگر ادعای این سرعت در عمل تحقق یابد، ۳D DRAM می‌تواند یک جهش بزرگ در پهنای باند مؤثر حافظه و کاهش تأخیر (latency) ایجاد کند؛ دو عاملی که مستقیماً بر سرعت استنتاج مدل‌های بزرگ زبان، پردازش تصویر و برنامه‌های مولد اثر می‌گذارند.


رفع یکی از اصلی‌ترین محدودیت‌های AI: سرعت و بهره‌وری انرژی

یکی از موانع جدی در توسعه هوش مصنوعی امروزی، محدودیت سرعت استنتاج (Inference) است؛ به‌ویژه برای مدل‌های بزرگ که میلیاردها پارامتر دارند. GPUهای مدرن هنوز با محدودیت‌هایی مثل انتقال داده سنگین بین حافظه و هسته پردازشی روبه‌رو هستند. معماری ۳D DRAM می‌تواند این انتقال داده را بسیار سریع‌تر کند و وابستگی به HBM را کاهش دهد. نتیجه نهایی، استنتاج سریع‌تر با مصرف انرژی کمتر است؛ موضوعی که برای مراکز داده، سرویس‌های ابری و حتی کاربردهای داخلی شرکت‌ها اهمیت زیادی دارد.


از دستگاه‌های لبه‌ای تا سیستم‌های بلادرنگ

اگر این فناوری مطابق وعده‌ها عمل کند، می‌تواند نقش مهمی در گسترش هوش مصنوعی به دستگاه‌های لبه‌ای (Edge Devices) مثل خودروهای خودران، ربات‌های صنعتی، پهپادها، تجهیزات پزشکی و حتی گوشی‌های هوشمند داشته باشد. همچنین سیستم‌های بلادرنگ (Real-Time) مثل تشخیص لحظه‌ای تصویر، کنترل ربات، سیستم‌های امنیتی و پردازش صوت می‌توانند با سرعت بسیار بیشتری کار کنند. این پیشرفت می‌تواند مصرف انرژی این دستگاه‌ها را نیز کاهش دهد و هزینه استفاده از مدل‌های AI را کمتر کند.


فناوری هنوز تجاری نشده؛ نتایج نهایی باید در عمل سنجیده شود

با وجود تمام وعده‌ها، باید توجه داشت که این راهکار هنوز به‌طور کامل تجاری نشده و تست‌های میدانی آن آغاز نشده است. در حوزه سخت‌افزار، فاصله بین «اعلام اولیه» تا «عملکرد واقعی» می‌تواند قابل توجه باشد. بنابراین اگرچه این همکاری نوید یک جهش بزرگ در توان پردازشی AI را می‌دهد، اما باید تا ارائه نمونه‌های واقعی و ارزیابی عملکرد نهایی منتظر ماند.


برای مشاهده جدیدترین اخبار، به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها