گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
- برگه نخست
- نوشته ها
- رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
در ماههای اخیر، بسیاری از پلتفرمهای بزرگ فناوری، ابزارهای هوش مصنوعی جدیدی معرفی کردهاند که ادعا میکنند میتوانند نیازهای احساسی کاربران را تحلیل کرده و پیشنهادهای روانشناختی ارائه دهند. برخی چتباتها حتی با لحن همدلانه و ادبیات رواندرمانی طراحی شدهاند، طوری که کاربر احساس میکند در حال گفتوگو با یک انسان واقعی است.
این روند باعث شده میلیونها کاربر در سراسر جهان برای بیان احساسات، مشکلات شخصی و حتی بحرانهای عاطفی، به جای مراجعه به روانشناس، به سراغ چتباتها بروند.
اما طبق گزارش جدید منتشرشده امروز، متخصصان معتقدند این ابزارها تنها میتوانند پشتیبان باشند، نه «درمانگر».
نگرانیهای اصلی متخصصان چیست؟
۱) تشخیصهای اشتباه و تحلیل سطحی
هوش مصنوعی اگرچه میتواند متن را پردازش کند، اما نمیتواند تجربه انسانی، زمینه فرهنگی، زبان بدن، یا نشانههای احساسی غیرکلامی را تحلیل کند.
در نتیجه، پاسخ چتباتها ممکن است سطحی، کلیشهای یا حتی کاملاً اشتباه باشد.
نمونهها:
- در برخی آزمایشها، چتبات در پاسخ به جملههای غمانگیز، پیشنهادهای اشتباه و غیرعلمی داده است.
- گاهی جملات حساس را «شوخی یا اغراق» تعبیر کرده و پاسخ نامناسب داده است.
۲) احتمال وابستگی عاطفی به هوش مصنوعی
یکی از نگرانیهای مهم این است که کاربر به دلیل لحن همدلانه چتبات، دچار وابستگی روانی شود.
این وابستگی:
- روابط انسانی واقعی را تضعیف میکند
- آسیبپذیری روانی را افزایش میدهد
- باعث میشود فرد در مواجهه با بحرانها فقط به AI رجوع کند
۳) نبود مسئولیتپذیری درمانی
درمانگران انسانی تحت قوانین، مجوزها و پروتکلهای اخلاقی فعالیت میکنند.
اما چتباتها:
- مسئولیت حقوقی ندارند
- قابل پیگیری نیستند
- ممکن است توصیهای بدهند که برای کاربر خطرناک باشد
یک متخصص سلامت روان در این گزارش گفته:
«AI میتواند همصحبت خوبی باشد، اما نمیتواند مسئولیت زندگی انسان را بپذیرد.»
۴) مسائل حریم خصوصی و دادههای احساسی
کاربران معمولاً بدون فکر، جزئیات بسیار شخصی را برای چتباتها مینویسند.
این اطلاعات میتواند:
- ذخیره شود
- برای آموزش مدلها استفاده شود
- حتی در معرض خطر نقض دادهها قرار گیرد
که به گفته کارشناسان، یک تهدید بزرگ برای امنیت روانی و شخصی افراد است.
آیا هوش مصنوعی جایگزین رواندرمانگر میشود؟
نتیجهگیری کارشناسان در این گزارش بسیار روشن است: نه.
هوش مصنوعی حتی در پیشرفتهترین حالت نیز نمیتواند:
- علتهای پنهان مشکلات روانی را کشف کند
- تاریخچه روانی فرد را درک کند
- نشانههای غیرکلامی مانند اضطراب، لکنت، مکثهای احساسی یا گریه را تشخیص دهد
- در شرایط بحران مداخله انسانی انجام دهد
اما میتواند در نقش کمکدرمانگر دیجیتال مفید باشد، مثل:
- ثبت احساسات روزانه
- ارائه تمرینهای تنفسی و ذهنآگاهی
- یادآوری جلسات واقعی با درمانگر
- تحلیل ساده گفتگوها
جمعبندی
اگرچه هوش مصنوعی میتواند ابزار ارزشمندی در مسیر سلامت روان باشد، اما نباید به عنوان جایگزین متخصص انسانی مورد استفاده قرار گیرد.
این فناوری یک همراه کمکی قدرتمند است، اما درمان واقعی همچنان نیازمند درک انسانی، همدلی واقعی و مسئولیتپذیری حرفهای است.
برای مشاهده اخبار بیشتر به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.
- مهدی خسروی: تحول نمایشگاههای ایران با هوش مصنوعی؛ از ثبتنام هوشمند تا تجربه دیجیتال
- راهاندازی نخستین اپراتور هوش مصنوعی و داده در کشور تا پایان سال
- رونمایی Ideagen از Mazlan؛ ورود نسل تازه Agentic AI به مدیریت انطباق با قوانین
- OpenAI وضعیت «Code Red» اعلام کرد؛ رقابت شدید با Google Gemini اوج گرفت
- Fujitsu از فناوری نوین پیشبینی رفتار انسان و اشیاء برای ارتقای ایمنی همکاری انسان و ربات رونمایی کرد
- کسب رتبه سوم بریکس توسط تیم دانشگاه تهران با طرح ترکیبی انسان–ماشین در مدلسازی احتراق
- ایران در آستانه جهش دیجیتال؛ عارف: کشور میتواند هاب منطقهای فناوری اطلاعات شود
- آغاز صدور پروانه اپراتور هوش مصنوعی در کشور گام جدید دولت در توسعه اقتصاد دیجیتال
- علیبابا با عینک هوش مصنوعی Quark وارد بازار گجتهای پوشیدنی شد
- هشدار نسبت به عقبماندگی ایران در هوش مصنوعی تأکید بر ضرورت سرمایهگذاری فوری
- برگزاری نخستین نمایشگاه تخصصی هوش مصنوعی ایران در دیماه ۱۴۰۴
- توسعه توپ هوشمند نشتیاب ایرانی با دقت ±۱۰ متر و صرفهجویی ۱۰ میلیون دلاری
- تأخیر یکساله در اجرای قوانین «هوش مصنوعی پرخطر» اتحادیه اروپا
- تحلیل دادههای زیستی و تصاویر پاتولوژی با هوش مصنوعی در دانشگاه تهران
- تقویت همکاریهای منطقهای در فیبر نوری و زیرساختهای هوش مصنوعی در اجلاس باکو
- آغاز صدور پروانه اپراتور هوش مصنوعی در کشور گام جدید دولت در توسعه اقتصاد دیجیتال
- فدرال رزرو نیویورک: تأثیر هوش مصنوعی بر بازار کار آمریکا
- برگزاری نخستین رقابت ملی پیشنهاد رساله دکتری هوش مصنوعی در دانشکده مدیریت Mays
- معاملات رمزارز با هوش مصنوعی؛ پیشتازی DeepSeek و Qwen چین
- AidKit برنده جایزه Best Use of AI در Globee Awards 2025 شد
- هشدار جدی در لندن؛ نمایندگان بریتانیا خواستار مقررات سختگیرانه برای قدرتمندترین سیستمهای هوش مصنوعی شدند
- Quantum + AI شتابدهنده نوآوری کوانتومی در سنگاپور
- اتحادیه اروپا سامانه محرمانه گزارش تخلفات «قانون هوش مصنوعی» را فعال کرد
- هوش مصنوعی Mirai؛ پیشبینی سرطان پستان تا پنج سال آینده
- حریم خصوصی کاربران در برابر طرح جدید متا و چتباتهای هوش مصنوعی
- اقتصاد هوش مصنوعی در عربستان سعودی و چشمانداز ۲۰۳۰
- گوگل با ادغام دو قابلیت AI، جستجو را ساده و مکالمهمحور میکند
- آغاز آموزش رایگان برنامهنویسی و هوش مصنوعی برای دانشآموزان کرمانشاه
- همکاری استراتژیک Vodacom و Google Cloud برای ساخت نسل جدید زیرساخت هوش مصنوعی در آفریقا
- مدلهای چینی هوش مصنوعی و رقابت تازه آنها در سیلیکونولی
نظر خود را وارد کنید
آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.