جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

12 آذر 1404

|

4

|

0 نظر

|

کدخبر: 10486

|

کمبود استانداردهای ایمنی در شرکت‌های بزرگ هوش مصنوعی؛ هشدار درباره ریسک مدل‌های پیشرفته

یک گزارش تحلیلی جدید فاش می‌کند که بسیاری از غول‌های فعال در حوزه هوش مصنوعی هنوز فاقد استانداردهای ایمنی لازم برای مدل‌های بسیار پیشرفته هستند. کارشناسان هشدار می‌دهند شکاف میان سرعت توسعه مدل‌ها و نبود چارچوب‌های نظارتی می‌تواند ریسک‌های گسترده‌ای برای کاربران و زیرساخت‌های دیجیتال ایجاد کند.

کمبود استانداردهای ایمنی در شرکت‌های بزرگ هوش مصنوعی

یک گزارش تحلیلی تازه نشان می‌دهد که بسیاری از بازیگران اصلی صنعت هوش مصنوعی از جمله شرکت‌هایی مانند OpenAI، Anthropic و Meta هنوز فاصله قابل توجهی تا رعایت استانداردهای ایمنی برای ابزارهای پیشرفته دارند. این یافته‌ها در حالی منتشر می‌شود که بحث درباره «خطرات مدل‌های قدرتمند» هر روز داغ‌تر می‌شود و دولت‌ها و پژوهشگران نسبت به نبود شفافیت و کنترل‌های سختگیرانه هشدار می‌دهند.

بر اساس این گزارش، شرکت‌های ذکرشده در زمینه‌هایی مانند نظارت بر رفتار مدل‌ها، جلوگیری از سو‌استفاده، محدودسازی قدرت مدل‌های سطح AGI، و ارائه گزارش‌های دقیق ریسک عملکردی بسیار کمتر از حد انتظار دارند. اگرچه اغلب شرکت‌ها از تعهدات کلی به «AI امن» سخن می‌گویند، اما بررسی‌ها نشان می‌دهد تنها بخش کوچکی از این وعده‌ها در عمل اجرایی شده است.

کمبود استانداردهای ایمنی در شرکت‌های بزرگ هوش مصنوعی

کارشناسان می‌گویند سرعت توسعه مدل‌های قدرتمند، بسیار بیشتر از سرعت تدوین مقررات و استانداردهای صنعتی است. همین شکاف موجب شده برخی از فناوری‌های نوظهور در شرایطی توسعه یابند که هیچ چارچوب روشنی برای ارزیابی خطراتشان وجود ندارد. در گزارش اشاره شده که حتی شرکت‌های پیشرو نیز برنامه‌های مشخص برای آزمون‌های استرس، پروتکل‌های جلوگیری از نشت توانایی‌ها و سازوکارهای مستقل ممیزی ندارند.

در این میان، برخی تحلیلگران بر این باورند که رقابت شدید بین شرکت‌های بزرگ برای پیشتازی در دنیای هوش مصنوعی، موجب شده موضوعات ایمنی در اولویت پایین‌تری قرار گیرد. آن‌ها هشدار می‌دهند که اگر چنین روندی ادامه یابد، صنعت با ریسک‌هایی مواجه می‌شود که نه‌تنها کاربران، بلکه زیرساخت‌های دیجیتال و حتی فرایندهای سیاسی و اقتصادی را تحت تأثیر قرار خواهد داد.

در پایان گزارش تأکید شده که بدون استانداردهای مشترک و الزام‌آور، توسعه فناوری‌های فوق‌پیشرفته می‌تواند پیامدهایی غیرقابل‌پیش‌بینی داشته باشد. به اعتقاد نویسندگان، همکاری جهانی میان شرکت‌ها، دانشگاه‌ها و نهادهای قانون‌گذار ضروری است تا اطمینان حاصل شود آینده هوش مصنوعی نه‌فقط قدرتمند، بلکه ایمن و قابل‌اعتماد باشد.


برای مشاهده جدیدترین اخبار، به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: