جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

21 آبان 1404

|

7

|

0 نظر

|

کدخبر: 10310

|

قانون تازه بریتانیا علیه سوءاستفاده هوش مصنوعی از کودکان

در ۱۲ نوامبر ۲۰۲۵، دولت بریتانیا با تصویب یکی از مهم‌ترین قوانین و مقررات هوش مصنوعی، گامی بزرگ برای جلوگیری از تولید تصاویر سوءاستفاده از کودکان برداشت. بر اساس این قانون تازه، شرکت‌های فناوری و نهادهایی مانند Internet Watch Foundation (IWF) موظف‌اند پیش از عرضه مدل‌های هوش مصنوعی، آن‌ها را از نظر توانایی تولید محتوای … ادامه مطلب

اخلاق در آموزش هوش مصنوعی

در ۱۲ نوامبر ۲۰۲۵، دولت بریتانیا با تصویب یکی از مهم‌ترین قوانین و مقررات هوش مصنوعی، گامی بزرگ برای جلوگیری از تولید تصاویر سوءاستفاده از کودکان برداشت. بر اساس این قانون تازه، شرکت‌های فناوری و نهادهایی مانند Internet Watch Foundation (IWF) موظف‌اند پیش از عرضه مدل‌های هوش مصنوعی، آن‌ها را از نظر توانایی تولید محتوای غیرقانونی بررسی و محدود کنند.

این تصمیم پس از انتشار گزارشی از IWF گرفته شد. در این گزارش آمده بود که در سال ۲۰۲۵ تعداد تصاویر سوءاستفاده‌گرانه‌ی تولیدشده با AI بیش از دو برابر شده است. آمار نشان می‌دهد این عدد از ۱۹۹ مورد در سال ۲۰۲۴ به ۴۲۶ مورد در ۲۰۲۵ رسیده است. نگرانی اصلی مربوط به تصاویر کودکان زیر دو سال است که رشد چشمگیری داشته‌اند.

رویکرد تازه در نظارت بر هوش مصنوعی

تا پیش از این قانون، تنها تولید یا نگهداری چنین تصاویری جرم محسوب می‌شد. اما در قانون جدید، نظارت از مرحله‌ی آموزش و طراحی مدل‌ها آغاز می‌شود. شرکت‌ها باید از همان لحظه‌ی توسعه‌ی سیستم، جلوی تولید محتوای غیرقانونی را بگیرند.

وزیر علوم و فناوری بریتانیا، «Liz Kendall»، به BBC گفت:

«ما نمی‌توانیم اجازه دهیم سرعت پیشرفت فناوری از توان ما برای حفاظت از کودکان جلو بزند. اخلاق باید در قلب توسعه‌ی هوش مصنوعی باشد.»

این قانون بخشی از استراتژی جدید بریتانیاست. تمرکز آن بر اخلاق در آموزش هوش مصنوعی و امنیت دیجیتال است؛ دو حوزه‌ای که در ماه‌های اخیر توجه بسیاری از کارشناسان را جلب کرده‌اند.

چالش‌های اجرای قانون

کارشناسان معتقدند اجرای این قانون ساده نیست. از یک‌سو، تشخیص خودکار محتوای سوءاستفاده‌گرانه نیاز به داده‌های حساس دارد. از سوی دیگر، نگهداری این داده‌ها ممکن است با قوانین حریم خصوصی در تضاد باشد.
با این حال، دولت بریتانیا اعلام کرده با شرکت‌هایی مانند Google DeepMind و OpenAI همکاری می‌کند تا راه‌حلی میان امنیت و نوآوری پیدا کند.

نگاهی جهانی به ماجرا

در همین زمان، اتحادیه اروپا نیز در چارچوب AI Act به دنبال مقررات مشابهی است. این قانون می‌تواند الگوی جهانی برای نظارت بر قوانین و مقررات هوش مصنوعی باشد. هدف اصلی، پیشگیری از تولید محتوای غیرقانونی پیش از انتشار آن است.

نتیجه‌گیری

قانون تازه‌ی بریتانیا نشانه‌ی تغییر رویکرد جهانی در برخورد با اخلاق و مسئولیت در فناوری‌های هوش مصنوعی است. اگرچه اجرای آن دشوار است، اما می‌تواند نقطه‌ی آغازی برای ترکیب امنیت اجتماعی با نوآوری فناورانه باشد. در این مسیر، حفاظت از کرامت انسانی دیگر مانعی برای پیشرفت نیست، بلکه بخشی از آن خواهد بود.

 

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: