گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
- برگه نخست
- نوشته ها
- رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
رشد انفجاری درمان آنلاین با AI؛ پشت پرده یک روند نگرانکننده
گزارش جدید منتشرشده در تاریخ ۳۰ نوامبر ۲۰۲۵ نشان میدهد که استفاده از چتباتها و دستیارهای هوش مصنوعی برای دریافت مشاورههای احساسی و روانی با سرعتی بیسابقه رو به افزایش است. اما در کنار این استقبال، متخصصان سلامت روان هشدار دادهاند که این روند خطرناکتر از آن است که به نظر میرسد و ممکن است به تصمیمگیریهای اشتباه، وابستگی عاطفی به AI و تشخیصهای نادرست منجر شود.
در ماههای اخیر، بسیاری از پلتفرمهای بزرگ فناوری، ابزارهای هوش مصنوعی جدیدی معرفی کردهاند که ادعا میکنند میتوانند نیازهای احساسی کاربران را تحلیل کرده و پیشنهادهای روانشناختی ارائه دهند. برخی چتباتها حتی با لحن همدلانه و ادبیات رواندرمانی طراحی شدهاند، طوری که کاربر احساس میکند در حال گفتوگو با یک انسان واقعی است.
این روند باعث شده میلیونها کاربر در سراسر جهان برای بیان احساسات، مشکلات شخصی و حتی بحرانهای عاطفی، به جای مراجعه به روانشناس، به سراغ چتباتها بروند.
اما طبق گزارش جدید منتشرشده امروز، متخصصان معتقدند این ابزارها تنها میتوانند پشتیبان باشند، نه «درمانگر».
نگرانیهای اصلی متخصصان چیست؟
۱) تشخیصهای اشتباه و تحلیل سطحی
هوش مصنوعی اگرچه میتواند متن را پردازش کند، اما نمیتواند تجربه انسانی، زمینه فرهنگی، زبان بدن، یا نشانههای احساسی غیرکلامی را تحلیل کند.
در نتیجه، پاسخ چتباتها ممکن است سطحی، کلیشهای یا حتی کاملاً اشتباه باشد.
نمونهها:
- در برخی آزمایشها، چتبات در پاسخ به جملههای غمانگیز، پیشنهادهای اشتباه و غیرعلمی داده است.
- گاهی جملات حساس را «شوخی یا اغراق» تعبیر کرده و پاسخ نامناسب داده است.
۲) احتمال وابستگی عاطفی به هوش مصنوعی
یکی از نگرانیهای مهم این است که کاربر به دلیل لحن همدلانه چتبات، دچار وابستگی روانی شود.
این وابستگی:
- روابط انسانی واقعی را تضعیف میکند
- آسیبپذیری روانی را افزایش میدهد
- باعث میشود فرد در مواجهه با بحرانها فقط به AI رجوع کند
۳) نبود مسئولیتپذیری درمانی
درمانگران انسانی تحت قوانین، مجوزها و پروتکلهای اخلاقی فعالیت میکنند.
اما چتباتها:
- مسئولیت حقوقی ندارند
- قابل پیگیری نیستند
- ممکن است توصیهای بدهند که برای کاربر خطرناک باشد
یک متخصص سلامت روان در این گزارش گفته:
«AI میتواند همصحبت خوبی باشد، اما نمیتواند مسئولیت زندگی انسان را بپذیرد.»
۴) مسائل حریم خصوصی و دادههای احساسی
کاربران معمولاً بدون فکر، جزئیات بسیار شخصی را برای چتباتها مینویسند.
این اطلاعات میتواند:
- ذخیره شود
- برای آموزش مدلها استفاده شود
- حتی در معرض خطر نقض دادهها قرار گیرد
که به گفته کارشناسان، یک تهدید بزرگ برای امنیت روانی و شخصی افراد است.
آیا هوش مصنوعی جایگزین رواندرمانگر میشود؟
نتیجهگیری کارشناسان در این گزارش بسیار روشن است: نه.
هوش مصنوعی حتی در پیشرفتهترین حالت نیز نمیتواند:
- علتهای پنهان مشکلات روانی را کشف کند
- تاریخچه روانی فرد را درک کند
- نشانههای غیرکلامی مانند اضطراب، لکنت، مکثهای احساسی یا گریه را تشخیص دهد
- در شرایط بحران مداخله انسانی انجام دهد
اما میتواند در نقش کمکدرمانگر دیجیتال مفید باشد، مثل:
- ثبت احساسات روزانه
- ارائه تمرینهای تنفسی و ذهنآگاهی
- یادآوری جلسات واقعی با درمانگر
- تحلیل ساده گفتگوها
جمعبندی
اگرچه هوش مصنوعی میتواند ابزار ارزشمندی در مسیر سلامت روان باشد، اما نباید به عنوان جایگزین متخصص انسانی مورد استفاده قرار گیرد.
این فناوری یک همراه کمکی قدرتمند است، اما درمان واقعی همچنان نیازمند درک انسانی، همدلی واقعی و مسئولیتپذیری حرفهای است.
برای مشاهده اخبار بیشتر به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.
- مهدی خسروی: تحول نمایشگاههای ایران با هوش مصنوعی؛ از ثبتنام هوشمند تا تجربه دیجیتال
- راهاندازی نخستین اپراتور هوش مصنوعی و داده در کشور تا پایان سال
- رونمایی Ideagen از Mazlan؛ ورود نسل تازه Agentic AI به مدیریت انطباق با قوانین
- OpenAI وضعیت «Code Red» اعلام کرد؛ رقابت شدید با Google Gemini اوج گرفت
- Fujitsu از فناوری نوین پیشبینی رفتار انسان و اشیاء برای ارتقای ایمنی همکاری انسان و ربات رونمایی کرد
- کسب رتبه سوم بریکس توسط تیم دانشگاه تهران با طرح ترکیبی انسان–ماشین در مدلسازی احتراق
- ایران در آستانه جهش دیجیتال؛ عارف: کشور میتواند هاب منطقهای فناوری اطلاعات شود
- آغاز صدور پروانه اپراتور هوش مصنوعی در کشور گام جدید دولت در توسعه اقتصاد دیجیتال
- علیبابا با عینک هوش مصنوعی Quark وارد بازار گجتهای پوشیدنی شد
- هشدار نسبت به عقبماندگی ایران در هوش مصنوعی تأکید بر ضرورت سرمایهگذاری فوری
- برگزاری نخستین نمایشگاه تخصصی هوش مصنوعی ایران در دیماه ۱۴۰۴
- توسعه توپ هوشمند نشتیاب ایرانی با دقت ±۱۰ متر و صرفهجویی ۱۰ میلیون دلاری
- تأخیر یکساله در اجرای قوانین «هوش مصنوعی پرخطر» اتحادیه اروپا
- تحلیل دادههای زیستی و تصاویر پاتولوژی با هوش مصنوعی در دانشگاه تهران
- تقویت همکاریهای منطقهای در فیبر نوری و زیرساختهای هوش مصنوعی در اجلاس باکو
- سومین رویداد آموزشی «نکستشیفت»
- اروپا عقبنشینی کرد؛ اصلاحات قوانین پایداری شرکتها زیر فشار انتقادها تغییر کرد
- مایکروسافت با تیم «سوپرهوش» مسیر جدیدی در تشخیص پزشکی باز میکند
- موج جدید Refounding در استارتاپها: بازتأسیس کامل برای ادغام عمیق با هوش مصنوعی
- همکاری داسو سیستمز و Mistral AI برای ساخت «هوش مصنوعی حاکمیتی» در صنایع حساس گسترش یافت
- استارتاپ هوش مصنوعی Reflection AI با حمایت Nvidia به ارزش ۵.۵ میلیارد دلار رسید
- امنیت سایبری در عصر هوش مصنوعی؛ چرا «امنیت حملهمحور» ضروری شده است؟
- IBM و Pearson ابزارهای آموزش مبتنی بر هوش مصنوعی را توسعه میدهند
- DeepMind گوگل آزمایشگاه تحقیقاتی جدید هوش مصنوعی را در سنگاپور افتتاح کرد
- مایکروسافت Copilot با بهروزرسانی پاییزی و ۱۲ قابلیت تازه
- AIaaS: انقلاب هوش مصنوعی بهعنوان سرویس و فرصتهای نوین کسبوکار
- هوش مصنوعی در گزارشهای پلیسی؛ هشدار جدی درباره اعتماد عمومی
- هوش مصنوعی در ایران؛ پروژه ملی و جایگاه جهانی کشور
- Virtual Geneticist®؛ هوش مصنوعی جدید در تفسیر ژنومیک
- OpenAI به ارزشگذاری ۵۰۰ میلیارد دلار رسید
نظر خود را وارد کنید
آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.