جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

17 دی 1404

|

2

|

0 نظر

|

کدخبر: 10728

|

لنوو با سرورهای بهینه‌شده برای AI Inference هزینه هوش مصنوعی سازمان‌ها را هدف گرفت

شرکت Lenovo در نمایشگاه CES 2026 از نسل جدید سرورهای سازمانی خود رونمایی کرد؛ سرورهایی که به‌طور اختصاصی برای بارهای کاری AI Inference طراحی شده‌اند و با مدل پرداخت مصرف‌محور TruScale، هزینه پیاده‌سازی هوش مصنوعی را برای کسب‌وکارها به‌طور محسوسی کاهش می‌دهند.

لنوو

لنوو در CES 2026 لاس‌وگاس مجموعه‌ای تازه از سرورهای سازمانی را معرفی کرد که تمرکز اصلی آن‌ها اجرای سریع و مداوم Inference در هوش مصنوعی است؛ مرحله‌ای که برخلاف آموزش مدل‌ها، به‌صورت دائمی اجرا می‌شود و خروجی‌های آنی و عملیاتی تولید می‌کند.

در این رونمایی، خانواده ThinkSystem و ThinkEdge در اندازه‌ها و توان‌های مختلف معرفی شدند تا پاسخ‌گوی نیازهای متنوع سازمان‌ها باشند. مدل ThinkSystem SR675i V3 به‌عنوان قدرتمندترین گزینه، برای پردازش‌های سنگین با «مقیاس‌پذیری عظیم» طراحی شده است. این سرور می‌تواند بارهای کاری بزرگ را با تراکم بالای GPU مدیریت کند.

به گفته «اشلی گوراخپوروالا»، رئیس بخش راهکارهای زیرساختی لنوو، سازمان‌ها امروز به هوش مصنوعی نیاز دارند که «در همان لحظه تولید داده، آن را به بینش قابل‌اقدام تبدیل کند». به‌زعم او، زیرساخت‌های جدید Inference-محور لنوو، تصمیم‌گیری سریع‌تر، امنیت بالاتر و نوآوری شتابان‌تر را ممکن می‌سازند.

لنوو همچنین از ThinkSystem SR650i به‌عنوان گزینه‌ای با استقرار آسان و توان پردازشی GPU متراکم یاد کرد؛ در کنار آن، ThinkEdge SE455i برای محیط‌های لبه‌ای مانند خرده‌فروشی، مخابرات و صنایع طراحی شده است. این مدل جمع‌وجور، امکان اجرای Inference «در هر جایی که داده قرار دارد» را با دوام صنعتی فراهم می‌کند.

این سرورها به پردازنده‌های AMD سری EPYC و شتاب‌دهنده‌های محاسباتی Nvidia مجهز هستند و با فناوری خنک‌سازی مایع Neptune لنوو، گرما مستقیماً از منبع دفع می‌شود تا پایداری و بهره‌وری افزایش یابد.

نکته کلیدی این معرفی، عرضه سرورها با مدل TruScale است؛ مدلی «پرداخت به‌ازای مصرف» که بدون هزینه اولیه، دسترسی به سخت‌افزار On-Premises را فراهم می‌کند و هزینه ماهانه را بر اساس مصرف واقعی محاسبه می‌کند. لنوو می‌گوید این رویکرد به سازمان‌ها کمک می‌کند بدون فدا کردن امنیت، چابکی یا بودجه، به اوج کارایی برسند.

این حرکت لنوو در ادامه راهبرد اخیر این شرکت برای بهره‌گیری از افزایش تقاضای Inference و همچنین به‌روزرسانی‌های ذخیره‌سازی All-Flash و زیرساخت‌های Hyperconverged انجام شده است؛ راهکارهایی که هدفشان استخراج «حداکثر ارزش» از انبوه داده‌های سازمانی است.


برای مشاهده جدیدترین اخبار، به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: