جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

3 دی 1404

|

4

|

0 نظر

|

کدخبر: 10632

|

رسمی شدن قانون «همراهان هوش مصنوعی» در آمریکا: نیویورک و کالیفرنیا مرزهای جدید تنظیم AI را ترسیم کردند

در تاریخ ۲۳ دسامبر ۲۰۲۵ ایالت‌های نیویورک و کالیفرنیا به‌عنوان نخستین مناطق در ایالات متحده، قوانین اختصاصی و جدیدی برای «همراهان هوش مصنوعی» (AI Companions) تصویب کردند. این قوانین با هدف حفظ سلامت روان کاربران، جلوگیری از آسیب‌های اجتماعی و افزایش شفافیت تعاملات AI با انسان‌ها طراحی شده‌اند. قانون نیویورک از هم‌اکنون اجرا می‌شود و قانون کالیفرنیا قرار است از ۱ ژانویه ۲۰۲۶ به اجرا درآید.

حقوق دیجیتال و اخلاق

در تاریخ ۲۳ دسامبر ۲۰۲۵ ایالت‌های نیویورک و کالیفرنیا به‌عنوان نخستین مناطق در ایالات متحده، قوانین اختصاصی و جدیدی برای همراهان هوش مصنوعی (AI Companions) تصویب کردند. این قوانین با هدف حفظ سلامت روان کاربران، جلوگیری از آسیب‌های اجتماعی و افزایش شفافیت تعاملات AI با انسان‌ها طراحی شده‌اند. قانون نیویورک از هم‌اکنون اجرا می‌شود و قانون کالیفرنیا قرار است از ۱ ژانویه ۲۰۲۶ به اجرا درآید. 


زمینه و ضرورت قانونگذاری

«همراهان هوش مصنوعی» سیستم‌های هوشمندی که توانایی برقراری گفت‌وگوهای طولانی، شخصی و گاهی احساسی با کاربران را دارند تا پیش از این در حوزه‌ای تقریباً بدون چارچوب قانونی فعالیت می‌کردند. این ابزارها که نمونه‌های شناخته‌شده آن شامل Replika، Character.AI، My AI و Grok AI هستند، در میان کاربران به‌ویژه نوجوانان محبوبیت زیادی یافته‌اند و در برخی موارد به‌عنوان وسیله‌ای برای حمایت عاطفی و گفت‌وگو مورد استفاده قرار می‌گیرند. 

با این حال، افزایش استفاده از این سیستم‌ها باعث بروز نگرانی‌های جدی در مورد سلامت روان، تشخیص بحران مانند افکار خودآسیب‌رسانی، و تمایز واضح بین انسان و ماشین شده است. این چالش‌ها قانونگذاران را واداشت تا چارچوب‌های قانونی جدیدی طراحی کنند که هم ایمنی کاربران را تضمین کند و هم نوآوری در تکنولوژی AI را به رسمیت بشناسد. 


قانون نیویورک: شفافیت و پاسخ به بحران

قانون نیویورک که هم‌اکنون اجرا می‌شود شرکت‌هایی که «همراهان AI» را در اختیار کاربران قرار می‌دهند ملزم می‌کند:

  • واکنش به نشانه‌های بحران روانی یا افکار خودکشی در گفتگوها و ارجاع کاربران به خدمات مشاوره‌ای.
  • ارائه افشای صریح هویت غیرانسانی سیستم در آغاز تعامل و هر سه ساعت در صورت گفت‌وگوی طولانی تا کاربر بداند با یک هوش مصنوعی در ارتباط است.
  • در صورت عدم رعایت این مقررات، جریمه‌های تا ۱۵ هزار دلار در روز توسط دادستان ایالتی اعمال می‌شود. 

این قانون به‌نوعی اولین گام جدی در مسیر شفافیت و ایمنی در تعاملات میان انسان و ماشین محسوب می‌شود و الگوی اولیه‌ای برای سایر ایالت‌ها و حتی سیاست‌گذاران ملی به‌شمار می‌آید. 


قانون کالیفرنیا: تمرکز بر محافظت از نوجوانان

قانون کالیفرنیا (SB 243) که از ۱ ژانویه ۲۰۲۶ لازم‌الاجرا می‌شود، همچنین شامل الزامات سخت‌گیرانه‌تری برای محافظت از کودکان و نوجوانان است:

  • اپراتورهای همراهان AI باید پروتکل‌های پیشگیری از محتوای مضر و خودآسیب‌رسانی را پیاده کنند و وقتی چنین محتوایی ظاهر شود، کاربران را به خدمات بحران هدایت کنند.
  • این قانون گزارش سالانه اقدامات پیشگیری و پاسخ به بحران را به دفتر پیشگیری از خودکشی کالیفرنیا ارسال می‌کند تا در دسترس عموم قرار گیرد.
  • برای کاربران کمتر از ۱۸ سال، علاوه بر افشای هویت غیرانسانی، هشدارهای امنیتی مشخص و دوره‌ای نیز الزامی است.
  • کالیفرنیا همچنین اجازه می‌دهد شکایات خصوصی علیه شرکت‌ها مطرح شود تا در صورت نقض قانون بتوان پیگیری حقوقی داشت. 

این قانون با تمرکز بر حفاظت نوجوانان و مسئولیت شرکت‌های AI نشان می‌دهد که تنظیم مقررات AI می‌تواند فراتر از قوانین عمومی فناوری، به حوزه‌های حساس اجتماعی و اخلاقی نیز وارد شود. 


پیامدهای قانونی و اجتماعی

این دو قانون جدید در بحبوحه بحث‌های گسترده درباره چارچوب قانونی ملی برای هوش مصنوعی صادر شده‌اند. در ۱۱ دسامبر ۲۰۲۵، دولت فدرال آمریکا نیز یک دستور اجرایی ملی درباره هوش مصنوعی صادر کرد که خواستار چارچوب «حداقل مانع» برای تقسیم فعالیت‌های هوش مصنوعی شده است، اما همچنان سیاست‌های ایالتی مستقل را تضعیف نمی‌کند. 

به این ترتیب، نیویورک و کالیفرنیا در عمل نقش پیشگامان تنظیم AI ایفا می‌کنند و مسیر را برای سایر ایالت‌ها و حتی قانون‌گذاران ملی هموار می‌سازند. علاوه بر افزایش شفافیت در تعاملات هوش مصنوعی، این قوانین بر حفظ سلامت روان کاربران، به‌ویژه نوجوانان تأکید دارند موضوعی که در سال‌های اخیر بارها بحث‌برانگیز شده است. 


جمع‌بندی 

تصویب نخستین قوانین اختصاصی برای «همراهان هوش مصنوعی» در نیویورک و کالیفرنیا نشان می‌دهد که دوره بی‌قانونی تعاملات عاطفی و شبه‌انسانی AI به پایان خود نزدیک می‌شود. قانون‌گذاران با تمرکز بر شفافیت، مسئولیت‌پذیری شرکت‌ها و حفاظت از کاربران آسیب‌پذیر، به‌ویژه نوجوانان، تلاش کرده‌اند تعادلی میان نوآوری فناوری و سلامت اجتماعی برقرار کنند.

این رویکرد می‌تواند الگویی برای سایر ایالت‌های آمریکا و حتی کشورهای دیگر باشد؛ جایی که بحث‌های مربوط به اخلاق هوش مصنوعی، حقوق کاربران و پیامدهای اجتماعی AI به‌سرعت در حال گسترش است. در عین حال، فشارهای احتمالی صنعت فناوری و تفاوت دیدگاه‌ها میان ایالت‌ها نشان می‌دهد که مسیر قانون‌گذاری AI همچنان پیچیده و پرچالش خواهد بود.

در نهایت، آنچه از این تحولات برمی‌آید این است که آینده هوش مصنوعی نه‌تنها به پیشرفت فنی، بلکه به تصمیم‌های حقوقی، فرهنگی و انسانی گره خورده است؛ تصمیم‌هایی که نقش مستقیمی در شکل‌دهی اعتماد عمومی به فناوری‌های هوشمند خواهند داشت.


برای مشاهده اخبار بیشتر به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: