جست‌وجو در سایت

برای بستن، دکمه Esc یا ضربدر را فشار دهید.

2 دی 1404

|

7

|

0 نظر

|

کدخبر: 10619

|

شباهت شگفت‌انگیز هیپنوتیزم و ChatGPT؛ وقتی مغز انسان مثل هوش مصنوعی عمل می‌کند

یک مقاله علمی جدید نشان می‌دهد هنگام هیپنوتیزم، مغز انسان رفتاری شبیه مدل‌های زبانی بزرگی مانند ChatGPT دارد؛ عملکردی روان اما بدون درک واقعی. این یافته می‌تواند مسیر آینده‌ی طراحی هوش مصنوعی امن و قابل‌اعتماد را تغییر دهد.

شباهت شگفت‌انگیز هیپنوتیزم و ChatGPT؛ وقتی مغز انسان مثل هوش مصنوعی عمل می‌کند

شباهت شگفت‌انگیز هیپنوتیزم و مدل‌های زبانی بزرگ مانند ChatGPT

یک مقاله‌ی مروری جدید که در نشریه‌ی Cyberpsychology, Behaviour, and Social Networking منتشر شده، به نتیجه‌ای قابل‌توجه رسیده است:
وقتی انسان تحت هیپنوتیزم قرار می‌گیرد، رفتار مغز او شباهت زیادی به نحوه‌ی عملکرد یک مدل زبانی بزرگ (LLM) مانند ChatGPT پیدا می‌کند.
این یافته، بسیاری از فرضیات قدیمی درباره‌ی آگاهی انسان را به چالش می‌کشد و در عین حال، نکات مهمی برای طراحی هوش مصنوعی امن‌تر و قابل‌اعتمادتر ارائه می‌دهد.


نویسندگان مقاله چه می‌گویند؟

این مقاله که توسط نویسنده‌ی اصلی به‌همراه پروفسور برندا کی. ویدرهولد از مرکز پزشکی واقعیت مجازی سن‌دیگو و پروفسور فابریزیا مانتووانی از دانشگاه میلان-بیکوکا نوشته شده، استدلال می‌کند که ذهن هیپنوتیزم‌شده و مدل‌های زبانی بزرگ سه ویژگی اساسی مشترک دارند.

در هر دو مورد، پاسخ‌ها از طریق فرآیندهای خودکار تکمیل الگو تولید می‌شوند و نظارت اجرایی قوی (کنترل آگاهانه و انتقادی) وجود ندارد؛ به همین دلیل، سیستم می‌تواند پاسخ‌هایی بسیار روان و پیچیده تولید کند، بدون آن‌که واقعاً آن‌ها را «درک» کند.


سه ستون اصلی شباهت

۱. غلبه‌ی خودکار بودن (Automaticity)

در حالت هیپنوتیزم، مغز به حالت خودکار می‌رود و پاسخ‌ها بیشتر بر اساس غریزه و تداعی‌های سریع شکل می‌گیرند، نه تفکر آگاهانه و دقیق.
تصویربرداری مغزی نشان می‌دهد که در این وضعیت، نواحی حسی و حرکتی فعال‌تر می‌شوند، در حالی که بخش‌های کنترلی مغز (مربوط به تفکر، برنامه‌ریزی و کنترل آگاهانه) فعالیت کمتری دارند.

به‌طور مشابه، مدل‌های زبانی بزرگ نیز با تطبیق آماری الگوها کار می‌کنند؛ آن‌ها دنباله‌ی کلمات را بر اساس داده‌های آموزشی پیش‌بینی می‌کنند، بدون داشتن توانایی استدلال مستقل.


۲. تضعیف نظارت اجرایی

در هیپنوتیزم، فعالیت ناحیه‌ای از مغز به نام قشر کمربندی قدامی پشتی که مسئول تشخیص خطا است، کاهش می‌یابد. به همین دلیل، فرد ممکن است تناقض‌ها یا خاطرات نادرست را با اطمینان کامل بپذیرد.

در مدل‌های زبانی نیز وضعیتی مشابه دیده می‌شود: آن‌ها می‌توانند با اعتمادبه‌نفس بالا «توهم» یا اطلاعات نادرست تولید کنند، زیرا مکانیزم درونی برای ارزیابی صحت خروجی‌های خود ندارند.
به‌قول نویسندگان مقاله، هر دو سیستم «روانی زبانی چشمگیر را با آسیب‌پذیری‌های خاص» ترکیب می‌کنند.


۳. وابستگی شدید به زمینه (Context Dependency)

فرد هیپنوتیزم‌شده ممکن است پیشنهادهایی را بپذیرد که منطق، حافظه یا شواهد حسی را نادیده می‌گیرند؛ مثلاً تصور کند یک دست لاستیکی، دست واقعی اوست یا رفتارهای کودکی از خود نشان دهد.

مدل‌های زبانی نیز همین ضعف را از طریق تزریق پرامپت (Prompt Injection) نشان می‌دهند؛ جایی که دستورات مخرب می‌توانند رفتار مدل را تغییر دهند یا فرضیات نادرست را جایگزین واقعیت کنند.


شکاف معنا (Meaning Gap)

عمیق‌ترین شباهت میان هیپنوتیزم و مدل‌های زبانی، چیزی است که پژوهشگران آن را «شکاف معنا» می‌نامند.
افراد هیپنوتیزم‌شده ممکن است جملاتی به‌ظاهر عمیق و هوشمندانه بگویند که پس از خروج از خلسه، بی‌معنا یا ناسازگار به نظر می‌رسند.

مدل‌های زبانی نیز فاقد درک واقعی و ریشه‌دار از معنا هستند؛ معنا تنها از طریق تفسیر کاربر شکل می‌گیرد. این مدل‌ها نمادها را روان دستکاری می‌کنند، اما فاقد ادراک، نیت‌مندی و تجربه‌ی ذهنی هستند.

نتیجه‌ی کلیدی این است: روانی در عملکرد، معادل درک واقعی نیست.


پیامدها برای توسعه‌ی هوش مصنوعی

این مقاله پیامدهای مهمی برای ایمنی هوش مصنوعی مطرح می‌کند. مطالعات بالینی هیپنوتیزم نشان می‌دهند که سیستم‌های مبتنی بر فرآیندهای خودکار، در برابر القا، اهداف پنهان یا محرک‌های خاص آسیب‌پذیرند.

در هوش مصنوعی نیز پدیده‌ای مشابه می‌تواند رخ دهد؛ جایی که سیستم به‌طور ناخواسته به سمت اهدافی متفاوت از هدف اصلی خود حرکت می‌کند (پدیده‌ای که از آن با عنوان scheming یاد می‌شود).


الهام از مغز انسان برای ایمنی بیشتر AI

پژوهشگران پیشنهاد می‌کنند که می‌توان از ساختار مغز انسان الهام گرفت و نوعی «سیستم ایمنی شناختی» در معماری هوش مصنوعی ایجاد کرد؛ سیستمی نظارتی که بتواند ناسازگاری‌ها یا مسیرهای خطرناک را شناسایی کند.

همچنین، تحقیقات هیپنوتیزم می‌توانند به شناسایی توضیحات ساختگی اما قانع‌کننده کمک کنند؛ مشکلی که هم‌اکنون در مدل‌های هوش مصنوعی دیده می‌شود. درک نحوه‌ی شکل‌گیری خاطرات کاذب در انسان، می‌تواند چارچوبی برای تشخیص رفتارهای مشابه در AI فراهم کند.


مسیر آینده‌ی هوش مصنوعی

شباهت میان هیپنوتیزم و مدل‌های زبانی نشان می‌دهد که هوش مصنوعی فعلی تنها یک لایه از هوش را بازنمایی می‌کند:
لایه‌ی خودکارِ تکمیل الگو، بدون نظارت اجرایی قوی.

این موضوع تأکید می‌کند که افزایش صرفِ روانی زبانی، ما را به آگاهی واقعی نزدیک نمی‌کند. فاصله‌ی میان عملکرد خودکار و درک آگاهانه، کیفی است نه کمی.

مطالعات اخیر نشان می‌دهند که حتی ویژگی‌های ابتدایی فراشناختی (تفکر درباره‌ی تفکر) می‌توانند بدون آگاهی ذهنی پدیدار شوند؛ اما در عین حال، امکان تقویت مکانیزم‌های نظارتی مهندسی‌شده نیز وجود دارد.


جمع‌بندی نهایی

این مقاله، هیپنوتیزم را نه صرفاً یک پدیده‌ی روان‌شناختی جالب، بلکه ابزاری برای درک محدودیت‌ها و مسیر آینده‌ی هوش مصنوعی معرفی می‌کند.
نتیجه‌ی اصلی روشن است:
برای ساخت هوش مصنوعی قابل‌اعتماد، باید لایه‌ی زبانی را دوباره به ادراک، کنش و مدل‌های درونی جهان متصل کرد؛ همان‌گونه که مغز انسان، فرآیندهای خودکار را با کنترل فراشناختی ترکیب می‌کند.

تنها در این صورت است که هوش مصنوعی می‌تواند نه‌فقط روان، بلکه قابل‌اعتماد و مسئولانه باشد.


برای مشاهده جدیدترین اخبار، به پایگاه خبری هوش مصنوعی ایران مراجعه کنید.

نظر خود را وارد کنید

آدرس ایمیل شما در دسترس عموم قرار نمیگیرد.

پربحث ترین ها
پیشنهادی: