جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

7 آبان 1404

|

3

|

0 نظر

|

کدخبر: 10120

|

توقف توسعه‌ی هوش مصنوعی فوق‌هوشمند تا زمان اثبات ایمنی

در ۲۲ اکتبر ۲۰۲۵، مؤسسه‌ی بین‌المللی Future of Life Institute با انتشار نامه‌ای سرگشاده از دولت‌ها، شرکت‌ها و مراکز پژوهشی خواست تا توسعه‌ی هوش مصنوعی فوق‌هوشمند (AGI) را متوقف کنند. هدف از این اقدام، اطمینان از ایمنی و کنترل‌پذیری کامل این فناوری است. این نامه را بیش از ۸۰۰ کارشناس، از جمله پژوهشگران MIT و … ادامه مطلب

توقف توسعه هوش مصنوعی فوق‌هوشمند

در ۲۲ اکتبر ۲۰۲۵، مؤسسه‌ی بین‌المللی Future of Life Institute با انتشار نامه‌ای سرگشاده از دولت‌ها، شرکت‌ها و مراکز پژوهشی خواست تا توسعه‌ی هوش مصنوعی فوق‌هوشمند (AGI) را متوقف کنند. هدف از این اقدام، اطمینان از ایمنی و کنترل‌پذیری کامل این فناوری است.
این نامه را بیش از ۸۰۰ کارشناس، از جمله پژوهشگران MIT و دانشگاه آکسفورد، و مدیران سابق شرکت‌های بزرگ فناوری امضا کرده‌اند. انتشار آن موجی از بحث و نگرانی در جامعه علمی و سیاسی ایجاد کرده است.

به گزارش TIME و تأیید Reuters، در متن نامه آمده است:

«اگر جامعه جهانی نتواند ثابت کند که هوش مصنوعی فوق‌هوشمند تحت کنترل انسان باقی می‌ماند، توسعه‌ی آن باید فوراً متوقف شود. پیشرفت بدون ایمنی، قمار با آینده‌ی بشر است.»

نگرانی اصلی: کنترل، ایمنی و تصمیم‌گیری انسانی

امضاکنندگان هشدار داده‌اند که AGI ممکن است در آینده‌ای نزدیک از مرز توانایی‌های انسان عبور کند. نبود نظارت کافی می‌تواند باعث دستکاری اطلاعات، حملات سایبری پیشرفته، یا تصمیم‌گیری خودکار در حوزه‌های حیاتی شود.
کارشناسان می‌گویند مسئله فقط قدرت محاسباتی نیست. توانایی یادگیری مستقل و تغییر اهداف توسط این سیستم‌ها، کنترل آن‌ها را دشوار می‌کند.

مؤسسه‌ی Future of Life اعلام کرده است که بدون چارچوب‌های بین‌المللی و قوانین الزام‌آور، رقابت شرکت‌های بزرگ فناوری می‌تواند خطرناک باشد. این مؤسسه خواستار همکاری فوری میان دولت‌ها، دانشگاه‌ها و صنعت برای طراحی قوانین جهانی هوش مصنوعی و ایجاد مراکز نظارتی مستقل شده است.

واکنش جهانی به نامه

سازمان‌های بین‌المللی مانند یونسکو و اتحادیه اروپا از ایده‌ی توقف موقت توسعه‌ی AGI استقبال کرده‌اند. برخی کشورها نیز پیشنهاد ایجاد نهاد نظارت جهانی بر هوش مصنوعی را مطرح کرده‌اند تا هر فناوری پیش از عرضه عمومی از نظر امنیتی و اخلاقی بررسی شود.
در مقابل، بعضی مدیران فناوری هشدار داده‌اند که این محدودیت‌ها می‌تواند نوآوری را کند کند. با این حال، بسیاری از کارشناسان تأکید دارند که این نگرانی نباید مانع توسعه‌ی مسئولانه AI شود.

یکی از پژوهشگران MIT گفت:

«اکنون باید از خود بپرسیم: آیا فناوری در خدمت ماست یا ما در خدمت فناوری؟»

آینده‌ی مسئولانه؛ فناوری با چاشنی انسانیت

این نامه می‌تواند نقطه‌ی عطفی در تاریخ فناوری باشد. تحلیل‌گران معتقدند اگر جامعه جهانی در این مقطع حساس اقدام نکند، هوش مصنوعی ممکن است از یک ابزار مفید به تهدیدی غیرقابل‌پیش‌بینی تبدیل شود.
هدف از توقف توسعه، جلوگیری از پیشرفت نیست؛ بلکه ایجاد زمان برای طراحی ابزارهای نظارتی، تست‌های ایمنی و چارچوب‌های اخلاقی است تا نسل آینده‌ی فناوری در خدمت بشریت باقی بماند.

 

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: