جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

9 دی 1404

|

6

|

0 نظر

|

کدخبر: 10674

|

هشدار یکی از معماران هوش مصنوعی: چرا دادن حقوق انسانی به AI می‌تواند خطرناک باشد؟

یوشوا بنجیو، دانشمند برجسته و از پیشگامان هوش مصنوعی، در گفت‌وگویی تازه هشدار داده است که مطرح شدن ایده اعطای حقوق انسانی به هوش مصنوعی می‌تواند جامعه را از مسئولیت واقعی انسان‌ها در قبال این فناوری دور کند. به باور او، هوش مصنوعی ابزار است، نه موجود اخلاقی، و هرگونه تصمیم یا پیامد آن باید به انسان‌ها نسبت داده شود.

اخلاق در AI

یوشوا بنجیو، دانشمند برجسته و از پیشگامان هوش مصنوعی، در گفت‌وگویی تازه هشدار داده است که مطرح شدن ایده اعطای حقوق انسانی به هوش مصنوعی می‌تواند جامعه را از مسئولیت واقعی انسان‌ها در قبال این فناوری دور کند. به باور او، هوش مصنوعی ابزار است، نه موجود اخلاقی، و هرگونه تصمیم یا پیامد آن باید به انسان‌ها نسبت داده شود.


بازگشت یک بحث جنجالی در عصر هوش مصنوعی

با پیشرفت سریع مدل‌های زبانی و سیستم‌های هوش مصنوعی که توانایی گفت‌وگو، تحلیل و حتی تصمیم‌گیری مستقل دارند، بحث‌هایی درباره جایگاه اخلاقی و حقوقی این فناوری در سطح جهانی مطرح شده است. برخی صاحب‌نظران معتقدند اگر هوش مصنوعی رفتاری شبیه انسان از خود نشان دهد، شاید در آینده نیاز به تعریف نوعی «حقوق» برای آن وجود داشته باشد. با این حال، این دیدگاه با واکنش انتقادی بسیاری از پژوهشگران برجسته روبه‌رو شده است.


بنجیو: هوش مصنوعی نه آگاه است و نه مسئول

یوشوا بنجیو، برنده جایزه تورینگ و یکی از چهره‌های تأثیرگذار در توسعه یادگیری عمیق، در گفت‌وگوی خود با روزنامه معتبر The Guardian تأکید می‌کند که هوش مصنوعی، حتی در پیشرفته‌ترین شکل‌هایش، فاقد آگاهی، تجربه ذهنی و درک اخلاقی است. به گفته او، سیستم‌های هوش مصنوعی صرفاً بر اساس داده‌ها و الگوریتم‌ها عمل می‌کنند و نمی‌توانند مسئولیت اخلاقی یا حقوقی تصمیم‌های خود را بپذیرند.

او هشدار می‌دهد که انسان‌انگاری فناوری می‌تواند به سوءبرداشت‌های خطرناک منجر شود و مرز میان ابزار و عامل انسانی را مخدوش کند.


نگرانی اصلی: انتقال مسئولیت از انسان به ماشین

از نگاه بنجیو، مهم‌ترین خطر اعطای حقوق به هوش مصنوعی، پیامدهای حقوقی و اجتماعی آن است. او معتقد است در چنین شرایطی ممکن است شرکت‌های فناوری یا نهادهای تصمیم‌گیر تلاش کنند مسئولیت خطاها، تبعیض‌ها یا آسیب‌های ناشی از سیستم‌های هوش مصنوعی را به خود AI نسبت دهند. این رویکرد، به باور او، می‌تواند پاسخگویی را تضعیف کرده و مسیر پیگیری حقوقی را برای افراد آسیب‌دیده دشوار کند.

به همین دلیل، بنجیو بر ضرورت تدوین و اجرای دقیق قوانین و مقررات هوش مصنوعی تأکید می‌کند؛ قوانینی که به‌روشنی مشخص کنند مسئولیت نهایی همواره بر عهده انسان‌ها باقی می‌ماند.


اخلاق و مسئولیت اجتماعی؛ محور مغفول توسعه فناوری

این پژوهشگر برجسته معتقد است که مسئله اصلی در توسعه هوش مصنوعی، صرفاً پیشرفت فنی نیست، بلکه پیامدهای اجتماعی و اخلاقی آن است. او می‌گوید بدون توجه جدی به اخلاق و مسئولیت اجتماعی در AI، حتی فناوری‌هایی که با نیت مثبت طراحی شده‌اند می‌توانند به ابزارهای آسیب‌زا تبدیل شوند.

به باور بنجیو، جامعه باید پیش از هر چیز درباره نحوه استفاده از هوش مصنوعی، حدود اختیارات آن و نقش انسان در تصمیم‌گیری‌ها به توافق برسد.


تأثیرات اجتماعی و دغدغه اعتماد عمومی

بنجیو همچنین هشدار می‌دهد که مطرح شدن ایده حقوق برای هوش مصنوعی می‌تواند احساس بی‌اعتمادی در میان شهروندان ایجاد کند. بسیاری از مردم نگران‌اند که تصمیم‌های مهم زندگی‌شان، از استخدام و آموزش گرفته تا سلامت و عدالت، به سیستم‌هایی سپرده شود که نه احساس دارند و نه پاسخگو هستند. این نگرانی‌ها، اگر نادیده گرفته شوند، می‌توانند شکاف میان فناوری و جامعه را عمیق‌تر کنند.


آینده هوش مصنوعی از نگاه انسان‌محور

در پایان، یوشوا بنجیو خواستار گفت‌وگویی گسترده و جهانی درباره آینده هوش مصنوعی می‌شود؛ گفت‌وگویی که تنها محدود به مهندسان نباشد و فیلسوفان، حقوق‌دانان، سیاست‌گذاران و نهادهای فرهنگی را نیز در بر بگیرد. از نگاه او، آینده‌ای امن و پایدار برای هوش مصنوعی تنها زمانی ممکن است که این فناوری در خدمت انسان باقی بماند و مسئولیت تصمیم‌ها همواره به انسان‌ها بازگردد، نه به ماشین‌ها.


برای مشاهده اخبار بیشتر به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: