گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
- برگه نخست
- نوشته ها
- رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
در ماههای اخیر، بسیاری از پلتفرمهای بزرگ فناوری، ابزارهای هوش مصنوعی جدیدی معرفی کردهاند که ادعا میکنند میتوانند نیازهای احساسی کاربران را تحلیل کرده و پیشنهادهای روانشناختی ارائه دهند. برخی چتباتها حتی با لحن همدلانه و ادبیات رواندرمانی طراحی شدهاند، طوری که کاربر احساس میکند در حال گفتوگو با یک انسان واقعی است.
این روند باعث شده میلیونها کاربر در سراسر جهان برای بیان احساسات، مشکلات شخصی و حتی بحرانهای عاطفی، به جای مراجعه به روانشناس، به سراغ چتباتها بروند.
اما طبق گزارش جدید منتشرشده امروز، متخصصان معتقدند این ابزارها تنها میتوانند پشتیبان باشند، نه «درمانگر».
نگرانیهای اصلی متخصصان چیست؟
۱) تشخیصهای اشتباه و تحلیل سطحی
هوش مصنوعی اگرچه میتواند متن را پردازش کند، اما نمیتواند تجربه انسانی، زمینه فرهنگی، زبان بدن، یا نشانههای احساسی غیرکلامی را تحلیل کند.
در نتیجه، پاسخ چتباتها ممکن است سطحی، کلیشهای یا حتی کاملاً اشتباه باشد.
نمونهها:
- در برخی آزمایشها، چتبات در پاسخ به جملههای غمانگیز، پیشنهادهای اشتباه و غیرعلمی داده است.
- گاهی جملات حساس را «شوخی یا اغراق» تعبیر کرده و پاسخ نامناسب داده است.
۲) احتمال وابستگی عاطفی به هوش مصنوعی
یکی از نگرانیهای مهم این است که کاربر به دلیل لحن همدلانه چتبات، دچار وابستگی روانی شود.
این وابستگی:
- روابط انسانی واقعی را تضعیف میکند
- آسیبپذیری روانی را افزایش میدهد
- باعث میشود فرد در مواجهه با بحرانها فقط به AI رجوع کند
۳) نبود مسئولیتپذیری درمانی
درمانگران انسانی تحت قوانین، مجوزها و پروتکلهای اخلاقی فعالیت میکنند.
اما چتباتها:
- مسئولیت حقوقی ندارند
- قابل پیگیری نیستند
- ممکن است توصیهای بدهند که برای کاربر خطرناک باشد
یک متخصص سلامت روان در این گزارش گفته:
«AI میتواند همصحبت خوبی باشد، اما نمیتواند مسئولیت زندگی انسان را بپذیرد.»
۴) مسائل حریم خصوصی و دادههای احساسی
کاربران معمولاً بدون فکر، جزئیات بسیار شخصی را برای چتباتها مینویسند.
این اطلاعات میتواند:
- ذخیره شود
- برای آموزش مدلها استفاده شود
- حتی در معرض خطر نقض دادهها قرار گیرد
که به گفته کارشناسان، یک تهدید بزرگ برای امنیت روانی و شخصی افراد است.
آیا هوش مصنوعی جایگزین رواندرمانگر میشود؟
نتیجهگیری کارشناسان در این گزارش بسیار روشن است: نه.
هوش مصنوعی حتی در پیشرفتهترین حالت نیز نمیتواند:
- علتهای پنهان مشکلات روانی را کشف کند
- تاریخچه روانی فرد را درک کند
- نشانههای غیرکلامی مانند اضطراب، لکنت، مکثهای احساسی یا گریه را تشخیص دهد
- در شرایط بحران مداخله انسانی انجام دهد
اما میتواند در نقش کمکدرمانگر دیجیتال مفید باشد، مثل:
- ثبت احساسات روزانه
- ارائه تمرینهای تنفسی و ذهنآگاهی
- یادآوری جلسات واقعی با درمانگر
- تحلیل ساده گفتگوها
جمعبندی
اگرچه هوش مصنوعی میتواند ابزار ارزشمندی در مسیر سلامت روان باشد، اما نباید به عنوان جایگزین متخصص انسانی مورد استفاده قرار گیرد.
این فناوری یک همراه کمکی قدرتمند است، اما درمان واقعی همچنان نیازمند درک انسانی، همدلی واقعی و مسئولیتپذیری حرفهای است.
برای مشاهده اخبار بیشتر به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.
- صدور مجوز اپراتورهای هوش مصنوعی؛ گام جدید دولت برای توسعه اقتصاد دیجیتال
- هوش مصنوعی، موتور محرک افزایش بهرهوری در زنجیره حملونقل کشور
- رونمایی از دستیار هوشمند صنعت حملونقل در کشور با محوریت هوش مصنوعی
- افتتاح نهمین نمایشگاه حملونقل با تمرکز بر هوش مصنوعی و تقویت جایگاه لجستیکی ایران
- رصدخانه نخبگان با هوش مصنوعی وارد فاز عملیاتی شد
- مهدی خسروی: تحول نمایشگاههای ایران با هوش مصنوعی؛ از ثبتنام هوشمند تا تجربه دیجیتال
- راهاندازی نخستین اپراتور هوش مصنوعی و داده در کشور تا پایان سال
- رونمایی Ideagen از Mazlan؛ ورود نسل تازه Agentic AI به مدیریت انطباق با قوانین
- OpenAI وضعیت «Code Red» اعلام کرد؛ رقابت شدید با Google Gemini اوج گرفت
- Fujitsu از فناوری نوین پیشبینی رفتار انسان و اشیاء برای ارتقای ایمنی همکاری انسان و ربات رونمایی کرد
- کسب رتبه سوم بریکس توسط تیم دانشگاه تهران با طرح ترکیبی انسان–ماشین در مدلسازی احتراق
- ایران در آستانه جهش دیجیتال؛ عارف: کشور میتواند هاب منطقهای فناوری اطلاعات شود
- آغاز صدور پروانه اپراتور هوش مصنوعی در کشور گام جدید دولت در توسعه اقتصاد دیجیتال
- علیبابا با عینک هوش مصنوعی Quark وارد بازار گجتهای پوشیدنی شد
- هشدار نسبت به عقبماندگی ایران در هوش مصنوعی تأکید بر ضرورت سرمایهگذاری فوری
- هوش مصنوعی در گزارشهای پلیسی؛ هشدار جدی درباره اعتماد عمومی
- سرمایهگذاری Disney در OpenAI؛ آغاز عصر جدید هوش مصنوعی در صنعت سرگرمی
- سامسونگ در مسیر آینده هوشمند؛ عرضه ۸۰۰ میلیون دستگاه مجهز به هوش مصنوعی در سال ۲۰۲۶
- هوش مصنوعی در سلامت: پنج ترند نوظهور که اواخر اکتبر ۲۰۲۵ صنایع را دگرگون میکنند
- مایکروسافت تیم «سوپرهوش پزشکی» را برای تحول جهانی در تشخیص بیماری راهاندازی کرد
- SuiSensor؛ اپلیکیشن هوش مصنوعی ، سلامت روان نوجوانان را نجات میدهد!
- آنتروپیک و گوگل در آستانه قرارداد چنددهمیلیارددلاری ابری
- همکاری تاریخی سه غول موسیقی با استارتاپ Klay برای تولید آهنگ با هوش مصنوعی
- ۵۰۰ میلیون دلار برای هوش مصنوعی انسانیتر
- پیشنهاد چین برای سازمان بینالمللی همکاری در هوش مصنوعی
- هوش مصنوعی ۲۰۲۵: گزارش جامع Stanford HAI از روند جهانی و آینده فناوری
- موج نوین قانونگذاری هوش مصنوعی: چگونه دنیا بین نوآوری و ایمنی تعادل برقرار میکند؟
- هشدار بریتانیا درباره مشاورههای مالی نادرست چتباتهای هوش مصنوعی
- هوش مصنوعی وارد مرحله تازهای شد؛ آیندهای که زودتر از انتظار از راه رسید
- شرکتهای حقوقی در تیررس هکرهای هوش مصنوعی: چرا و چگونه؟
نظر خود را وارد کنید
آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.