خانه » مقالات » بی‌اعتمادی در اتاق درمان؛ چگونه پای چت‌جی‌پی‌تی به روان‌درمانی باز شد؟
بی‌اعتمادی در اتاق درمان؛ چگونه پای چت‌جی‌پی‌تی به روان‌درمانی باز شد؟
برخی درمانگران در جلسات درمانی از هوش مصنوعی استفاده می‌کنند. آن‌ها با این کار اعتماد و حریم خصوصی مراجعانشان را به خطر می‌اندازند
دوشنبه, ۲۴ آذر ۱۴۰۴
زمان تقریبی مطالعه ۳۱ دقیقه
استفادهٔ پنهانی روانشناسان از چت‌بات‌ها چگونه می‌تواند رابطه‌ای که اساسش بر اعتماد بنا شده را از هم بپاشد. در این مقاله از افرادی می‌گوییم که به‌ناگاه متوجه شدند پیام‌ها و پاسخ‌های درمانگرشان از چت‌جی‌پی‌تی آمده و چطور همین یافته، احساس خیانت، ناامنی و نقص حریم خصوصی را برایشان رقم زده است. هم‌زمان توضیح خواهیم داد جذابیت این ابزار برای روانشناسان چیست، چه خطرهایی برای حریم خصوصی و سلامت روان مراجعین ایجاد می‌شود و چرا شفافیت و رعایت اصول حرفه‌ای در این زمینه بیش از هر زمان دیگری ضروری است.

اگر به‌خاطر یک بدبیاری فنی نبود، دکلن[۱] هرگز متوجه نمی‌شد درمانگرش از ChatGPT استفاده می‌کند. اتصال اینترنت در یکی از جلسات آنلاین‌شان ضعیف بود، بنابراین دکلن پیشنهاد داد دوربین‌ها را خاموش کنند. اما درمانگرش به‌جای خاموش کردن تصویر، ناخواسته صفحه لپتاپ خود را به اشتراک گذاشت.

دکلن، ۳۱ ساله و ساکن لس‌آنجلس می‌گوید: «ناگهان دیدم دارد از ChatGPT استفاده می‌کند». «او حرف‌های من را وارد چت‌جی‌پی‌تی می‌کرد و سپس خلاصه یا گزیده‌ای پاسخ‌ها را دریافت می‌کرد.»

دکلن آن‌قدر شوکه شده بود که به روی خود نیاورد و تا پایان جلسه، تحلیل‌های لحظه‌‌ای ChatGPT را که روی صفحه درمانگر ظاهر می‌شد می‌دید. اوضاع وقتی عجیب‌تر شد که پاسخ‌های چت‌جی‌پی‌تی جلوتر از پاسخ‌های درمانگر در صحبت‌های دکلن انعکاس پیدا کرد.

دکلن می‌گوید که بهترین مراجع دنیا شده بود، چون چت‌جی‌پی‌تی می‌گفت: «فکر نمی‌کنی که شیوهٔ فکر کردنت کمی سیاه و سفید است؟» و وی می‌گفت: «می‌دونی، فکر می‌کنم شاید واقعا شیوهٔ فکر کردنم کمی سیاه و سفید باشد.» و درمانگرش می‌گفت: «دقیقاً». دکلن مطمئن بود که این جلسه رؤیایی درمانگرش بود.

یکی از بسیار سوال‌های بی‌جوابی که ذهن دکلن را درگیر کرده بود این بود که آیا این کار قانونی است؟ وقتی او در جلسه بعد موضوع را مطرح کرد، «خیلی خجالت‌آور بود، مثل یک  طلاق عجیب بود»، درمانگر به گریه افتاد. او برای دکلن توضیح داد که احساس کرده درمان به بن‌بست رسیده و به دنبال جواب در جای دیگری می‌گشته. دکلن با خنده می‌گوید که: «با این حال بابت همان جلسه هم از من ویزیت گرفت».

رشد انفجاری مدل‌های زبانی بزرگ (LLM) در چند سال گذشته پیامدهایی غیرمنتظره برای حوزه روان‌درمانی داشته است، عمدتاً چون هرروزه تعداد بیشتری از مردم به جای مراجعه به روان‌درمانگران از چت‌جی‌پی‌تی و ابزارهای مشابه استفاده می‌کنند. اما درباره اینکه برخی درمانگران از ابزارهای هوش مصنوعی در کارشان استفاده می‌کنند کمتر بحث شده است. مانند بسیاری از حرفه‌های دیگر، هوش مصنوعی مولد وعدهٔ افزایش بهره‌وری را داده، اما استفاده از آن می‌تواند داده‌های حساس مراجعان را به خطر بیندازد و باعث تضعیف رابطه‌ای شود که پایه و اساس آن اعتماد است.

اوضاع وقتی عجیب‌تر شد که پاسخ‌های چت‌جی‌پی‌تی جلوتر از پاسخ‌های درمانگر در صحبت‌های دکلن انعکاس پیدا کرد.

احساس بدبینی

دکلن تنها نیست و من این را از تجربهٔ شخصی خودم می‌گویم. وقتی اخیراً ایمیلی از روان‌درمانگرم دریافت کردم که طولانی‌تر و آراسته‌تر از حد معمول بود، ابتدا احساس دلگرمی کردم. پیام او مهربانانه و حاوی تاییدی بی قید و شرط بود و طولانی بودنش باعث شد فکر کنم او برای خواندن و فکر کردن به موضوعات حساس ایمیل قبلیم وقت گذاشته است.

اما کمی بیشتر که دقت کردم ایمیل او کمی عجیب به نظر می‌آمد. فونت جدیدی داشت و چند نشانهٔ همیشگی متون نوشته شده توسط هوش مصنوعی در آن دیده می‌شد: استفاده فراوان از خط تیره آمریکایی (در حالی که هر دو اهل انگلیس هستیم)، سبک نوشتاری بی‌فاعل (بی‌احساسات)، و عادت پاسخ‌دادن خط‌به‌خط به هر بخش ایمیل قبلی من.

وقتی که فهمیدم احتمالاً چت‌جی‌پی‌تی در نوشتن آن پیام نقش داشته، احساس مثبتی که بهم دست داده بود خیلی زود از دست رفت و جای خود را به ناامیدی و بی‌اعتمادی داد. از درمانگرم که پرسیدم استفاده از چت‌جی‌پی‌تی را تایید کرد.

با اینکه به من اطمینان داد که ایمیل‌های طولانی را فقط برای AI دیکته می‌کند، باز هم مطمئن نبودم که چه اندازه از پیام از خود اوست و چه مقدار از چت‌بات. همچنین این شک که شاید تمام ایمیل من را در چت‌جی‌پی‌تی کپی پیست کرده باشد هیچوقت من را رها نکرد.

یک روز در اینترنت جست‌وجو کردم تا ببینم دیگران هم تجربهٔ مشابه داشته‌اند یا نه. مثال‌های فراوانی پیدا کردم از افرادی که پیام‌هایی از درمانگران خود دریافت کرده بودند که مشکوک به تولید با هوش مصنوعی بود. بسیاری از آن‌ها، از جمله دکلن، به ردیت[۲] پناه آورده بودند تا حمایت عاطفی و کمک بگیرند.

برای نمونه هوپ[۳]، ۲۵ ساله و ساکن سواحل شرقی آمریکا، مرگ سگش را در دایرکت به درمانگرش اطلاع داده بود. «حتماً خیلی سخت است که سگت دیگر کنار تو نیست»، پاسخی که خیلی زود گرفت و به‌ظاهر دلگرم‌کننده و همدلانه بود. با این حال پاسخ AI که تصادفاً در بالای آن پاسخ باقی مانده بود کار را خراب کرد: «این هم یک نسخه انسانی‌تر، صمیمی‌تر و با لحن ملایم و محاوره‌ای.»

هوپ می‌گوید «واقعاً خیلی غافلگیر و گیج شدم، احساس خیلی عجیبی داشت. بعد کم‌کم احساس کردم بهم خیانت شده… قطعاً روی اعتمادم به او اثر گذاشت.» این مسئله برای او خیلی مشکل‌آفرین بود، چون «یکی از دلایلی که پیشش می‌رفتم همین مشکلات عدم اعتمادم بود.»

هوپ که باور داشت درمانگرش فردی توانا و همدل است، می‌گوید «هرگز فکر نمی‌کردم او احساس کند باید از AI کمک بگیرد.» درمانگرش وقتی با حقیقت روبرو شد عذرخواهی کرد و توضیح داد که چون خودش هیچ‌وقت حیوان خانگی نداشته، برای ابراز احساس مناسب به AI مراجعه کرده است.

دوراهی افشاگری

شاید استدلال اینکه AI می‌تواند به درمانگران در برقراری بهتر ارتباط با مراجعان کمک کند، اندکی حقیقت داشته باشد. در یک مطالعهٔ جدید در سال ۲۰۲۵ که در مجلهٔ PLOS Mental Health منتشر شد، از روان‌درمانگران خواسته شد با کمک چت‌جی‌پی‌تی به روایت‌هایی که شبیه مشکلاتی است که مراجعان معمولا مطرح می‌کنند پاسخ دهند. یک گروه ۸۳۰ نفره از شرکت‌کنندگان نه‌تنها نتوانستند تشخیص دهند کدام پاسخ‌ها انسانی و کدام توسط AI نوشته شده، بلکه پاسخ‌های AI را مطابق‌تر با بهترین رویه‌های درمانی ارزیابی کردند.

با این حال وقتی شرکت‌کنندگان گمان می‌کردند پاسخ‌ها را چت‌جی‌پی‌تی نوشته، به آن نمرهٔ پایین‌تری می‌دادند. (پاسخ‌هایی که توسط چت‌جی‌پی‌تی نوشته شده اما به‌عنوان پاسخ درمانگر معرفی شده بودند، بالاترین امتیاز را دریافت کردند.)

به‌طور مشابه، پژوهشگران دانشگاه کرنل[۴] در مطالعه‌ای در سال ۲۰۲۳ دریافتند که پیام‌های تولیدشده توسط AI می‌توانند حس نزدیکی و همکاری را بین طرفهای گفت‌وگو افزایش دهند، اما فقط زمانی که گیرنده از وجود AI بی‌اطلاع باشد. صرفِ شک کردن به استفاده از هوش مصنوعی باعث می‌شود فرد احساس ناخوشایندی پیدا کند.

آدریان آگیلرا[۵] روان‌شناس بالینی و استاد دانشگاه کالیفرنیا، برکلی، معتقد است که: «مردم برای اصالت ارزش بالایی قائل هستند، به‌ویژه در روان‌درمانی». «فکر می‌کنم [استفاده از AI] می‌تواند این حس را ایجاد کند که: “تو رابطهٔ مرا جدی نمی‌گیری”. آیا ما برای پاسخ‌دادن به همسر یا فرزندان خود نیز از چت‌جی‌پی‌تی استفاده می‌کنیم؟ به‌نظر این کار درست نمی‌آد.»

در سال ۲۰۲۳، در روزهای ابتدایی بالا آمدن هوش مصنوعی مولد، سرویس مشاوره آنلاین Koko یک آزمایش پنهانی روی کاربران خود انجام داد و پاسخ‌های تولیدشده توسط چت‌جی‌پی‌تی ۳ را با پاسخ‌های انسانی ترکیب کرد. نتایج نشان داد که کاربران معمولا به پاسخ‌های AI امتیاز بالاتری می‌دهند. با این حال، افشای این قضیه که کاربران بدون اطلاع قبلی بخشی از یک آزمایش قرار گرفته‌اند، خشم مردم را به همراه داشت.

سرویس روان‌درمانی آنلاین BetterHelp نیز با ادعاهایی روبه‌رو شده مبنی بر اینکه برخی درمانگرانش از AI برای پاسخ دادن به کاربران استفاده کرده‌اند. عکاسی به نام برندن کین در مقاله‌ای در مدیوم[۶] نوشته که روان‌درمانگر او در BetterHelp اعتراف کرده که برای پاسخ دادن از AI کمک گرفته است، و این مسئله باعث «احساس شدید خیانت» و نگرانی بی‌امان او از احتمال نقض حریم خصوصی داده‌هایش شده است. او پس از کشف این قضیه، به رابطه درمانی خود پایان داد.

سخنگوی BetterHelp به ما اعلام کرد که این شرکت «از به اشتراک گذاری هرگونه اطلاعات شخصی یا سلامتی اعضا با هوش مصنوعیِ متعلق به شرکت‌های دیگر یا استفاده از AI برای نگارش پیام‌هایی که ممکن است به شکل مستقیم یا غیرمستقیم هویت افراد را آشکار کند ممانعت می‌کند.»

همهٔ این نمونه‌ها به استفادهٔ پنهانی از هوش مصنوعی برمی‌گردد. آگیلرا معتقد است درمانگرهایی که وقت کمتری دارند می‌توانند از مدل‌های زبانی بزرگ استفاده کنند، ولی وجود شفافیت اهمیت بالایی دارد. او می‌گوید: «باید رو راست و از قبل به آدم‌ها بگوییم ‘من می‌خواهم از این ابزار برای کار فلان و بهمان استفاده کنم’ و منطق این انتخابمان را هم توضیح دهیم». این‌طوری مردم پیام‌های تولیدشده توسط AI را با آگاهی قبلی دریافت می‌کنند و فکر نمی‌کنند درمانگرشان خواسته یواشکی زرنگی بکند.

بنابر گزارش تحقیق انجام شده توسط انجمن روان‌شناسی آمریکا در سال ۲۰۲۳، روانشناسان معمولاً با نهایت ظرفیت خود فعالیت می‌کنند و میزان فرسودگی شغلی در این حرفه بالاست. همین موضوع جذابیت استفاده از ابزارهای هوش مصنوعی در بین روانشناسان را توجیه می‌کند.

اما نبود شفافیت می‌تواند زخمی کاری بر پیکر اعتماد وارد کند. برای نمونه هوپ تصمیم گرفت مشاوره با درمانگرش را ادامه دهد، هرچند کمی بعد به دلایلی که می‌گوید ارتباطی با این قضیه نداشته جلساتش را قطع کرد. او می‌گوید: «اما هر بار که او را می‌دیدم، ماجرای استفاده از هوش مصنوعی یادم می‌افتاد.»

وقتی روان‌درمانگرها از طرف مراجع به سراغ مدل‌های زبانی می‌روند، علاوه بر نقض حریم خصوصی، با خطرهای دیگری نیز مواجه می‌شویم. اگرچه برخی مطالعات نشان داده‌اند که ربات‌های متخصص روان‌درمانگری می‌توانند با مداخله‌های انسانی رقابت کنند، پاسخ‌های ابزارهایی مانند چت‌جی‌پی‌تی بیش از اینکه کمک کنند آسیب‌زا هستند.

به خطر افتادن حریم خصوصی مراجع

فراتر از مسئلهٔ شفافیت، خیلی از درمانگرها از ابتدا نسبت به استفاده از مدل‌های زبانی مردد هستند. مارگارت موریس[۷]، روان‌شناس بالینی و عضو هیئت علمی دانشگاه واشنگتن، می‌گوید: «به‌نظرم این ابزارها می‌توانند برای یادگیری واقعاً مفید باشند»، و اشاره می‌کند که درمانگرها باید در طول حرفه‌شان مدام به دانش خود بیافزایند. «اما باید نسبت به داده‌های مراجعین خیلی محتاط باشیم.» موریس تجربهٔ دکلن را «نگران‌کننده» می‌نامد.

پردیس امامی نائینی، دانشیار علوم کامپیوتر در دانشگاه دوک که محقق حیطهٔ امنیت و حریم خصوصی مدل‌های زبانی در حوزهٔ سلامت است، می‌گوید روان‌درمانگرها باید آگاه باشند که چت‌بات‌های عمومی مثل ChatGPT از سوی سازمان غذا و داروی آمریکا تأیید نشده‌اند و با HIPAA سازگار نیستند. (HIPAA مجموعه‌ای از مقررات فدرال آمریکا برای حفاظت از اطلاعات حساس سلامت افراد است.)

او می‌گوید: « اگر هر نوع اطلاعاتی دربارهٔ بیمار مستقیماً یا به‌صورت ضمنی به هوش مصنوعی منتقل شود، خطرهایی جدی برای حریم خصوصی بیماران ایجاد می‌کند.»

در یک مقالهٔ جدید، امامی نائینی نشان داد که خیلی از کاربران به‌اشتباه فکر می‌کنند چت‌جی‌پی‌تی با HIPAA سازگار است و همین باعث اعتماد بی‌مورد به این ابزار می‌شود. او می‌گوید: «حدس می‌زنم بعضی روانشناسان هم درگیر همین سوءتفاهم باشند.»

دکلن که خودش آدم نسبتاً روشن‌فکری است، می‌گوید وقتی فهمید روان‌درمانگرش از چت‌جی‌پی‌تی استفاده می‌کند خیلی به‌هم نریخت: «شخصاً با خودم فکر نمی‌کردم که وای خدای من، تمام رازهای شخصی و تاریکم لو رفت». اما باز هم احساس کرد که به حریم خصوصی‌اش تجاوز شده است: «با خودم تصور می‌کنم اگر تمایل به خودکشی داشتم یا مواد مصرف می‌کردم و یا به همسرم خیانت کرده بودم… اصلاً دلم نمی‌خواست چنین اطلاعاتی در اختیار چت‌جی‌پی‌تی قرار گرفته شود.»

امامی نائینی می‌گوید هنگام استفاده از هوش مصنوعی برای نوشتن یک ایمیل، «تنها حذف مشخصات آشکار مانند نام‌ها و آدرس‌ها کافی نیست». اطلاعات حساس ممکن است از جزئیات ظاهراً غیرحساس هم استنباط شود.

او ادامه می‌دهد: «شناسایی و بازنویسی همهٔ داده‌های حساس نیازمند زمان و تخصص است، که ممکن است با هدف اصلیِ استفاده از ابزارهای هوش مصنوعی یعنی صرفه‌جویی در زمان در تضاد باشد. در هر صورت، درمانگران باید استفاده از هوش مصنوعی را به بیماران اعلام کنند و از آنها رضایت بگیرند.»

شرکت‌های زیادی مانند Heidi Health، Upheal، Lyssn و Blueprint در حال عرضهٔ ابزارهای تخصصی به درمانگرها هستند. خدماتی مانند یادداشت‌برداری و یادگیری با کمک هوش مصنوعی و خدمات رونویسی. این شرکت‌ها می‌گویند با پروتکل‌های HIPAA سازگارند و داده‌ها را با رمزنگاری و گاهی با استفاده از تکنیک‌های مستعارسازی به‌صورت ایمن ذخیره می‌کنند. اما بسیاری از درمانگرها هنوز هم نسبت به مسائل حریم خصوصی محتاط‌ اند، به‌خصوص دربارهٔ ابزارهایی که نیاز به ضبط کامل جلسات دارند.

امامی نائینی می‌گوید: «حتی اگر حفاظت از حریم خصوصی بهتر شود، همیشه مقداری خطر نشت اطلاعات یا استفاده‌های ثانویه از داده‌ها وجود دارد.»

هک سال ۲۰۲۰ از یک شرکت سلامت روان در فنلاند که طی آن پرونده‌های درمانی ده‌ها هزار نفر افشا شد، یک هشدار جدی است. افرادی که نامشان در فهرست بود مورد اخاذی قرار گرفتند و سپس کل داده‌ها به صورت عمومی منتشر شد، و جزئیات بسیار حساسی مثل تجربهٔ سواستفاده جنسی در کودکی یا اعتیاد افراد افشا شد.

آنچه درمانگران ممکن است از دست بدهند

وقتی روان‌درمانگرها از طرف مراجع به سراغ مدل‌های زبانی می‌روند، علاوه بر نقض حریم خصوصی، با خطرهای دیگری نیز مواجه می‌شویم. اگرچه برخی مطالعات نشان داده‌اند که ربات‌های متخصص روان‌درمانگری می‌توانند با مداخله‌های انسانی رقابت کنند، پاسخ‌های ابزارهایی مانند چت‌جی‌پی‌تی بیش از اینکه کمک کنند آسیب‌زا هستند.

پژوهش اخیر دانشگاه استنفورد نشان داد چت‌بات‌ها با تأیید بی‌چون‌وچرای حرف‌های کاربران ممکن است به جای به‌ چالش کشیدن مراجعین، توهمات و اختلالات روان‌پریشانهٔ ‌آن‌ها را تقویت کنند. این پژوهش همچنین نشان داد که چت‌بات‌ها ممکن است در دام سوگیری‌ها یا رفتارهای چاپلوسانه بیفتند. همین محدودیت‌ها می‌تواند استفادهٔ روان‌درمانگرها از این ابزارها برای مراجعین خود را خطرناک کند، برای مثال این فناوری ممکن است یک حدس بی‌اساس را تقویت کند یا درمانگر را به مسیر غلط بکشاند.

آگیلرا می‌گوید هنگام آموزش کارآموزان سلامت روان، با ابزارهایی مثل چت‌جی‌پی‌تی کار کرده و گاهی علائم فرضی به آن داده و از چت‌بات خواسته تشخیص بدهد. او می‌گوید این ابزار فهرستی از تمام شرایط ممکن را ارائه می‌کند، اما تحلیلش بسیار سطحی است. در حال حاضر انجمن مشاورهٔ آمریکا[۸] توصیه می‌کند که از هوش مصنوعی برای تشخیص اختلالات روانی استفاده نشود.

پژوهشی در سال ۲۰۲۴ دربارهٔ نسخهٔ قدیمی‌تر ChatGPT هم نشان داد که عملکردش در تشخیص ویا تهیهٔ برنامه درمانی خیلی مبهم و کلی است، و بیش از حد به روش رفتاردرمانی شناختی گرایش دارد، در حالی که شاید روش‌های درمانی دیگر برای مراجع مناسب‌تر باشد.

دنیل کیمل[۹]، روان‌پزشک و عصب‌شناس دانشگاه کلمبیا، یک سری آزمایش با ChatGPT انجام داد که در آن نقش یک مراجع با مشکلات زوجی را بازی می‌کرد. او می‌گوید عملکرد چت‌بات در ارائهٔ برخی شگردهای درمانی مثل عادی‌سازی و تایید دادن، پرسیدن اطلاعات بیشتر یا برجسته کردن برخی ارتباط‌های هیجانی یا شناختی، تقلید بدی نبود.

با این حال، او می‌گوید: «خیلی کند و کاو نمی‌کرد.» این ابزار ]مانند یک روانشناس واقعی[ سعی نمی‌کرد «چیزهای به‌ظاهر نامرتبط را به هم وصل کند و یک تصویر منسجم، یک داستان یا یک نظریه ارائه بدهد.»

او می‌گوید: «من نسبت به اینکه بگذاریم این ابزارها به‌جای ما فکر کنند بدبینم.» به گفتهٔ او، فکر کردن باید کار روان‌درمانگر بماند.

موریس می‌گوید درمانگرها می‌توانند با استفاده از ابزارهای هوش مصنوعی در زمان صرفه‌جویی کنند، اما این مزیت را باید در مقایسه با نیازهای مراجعین سنجید: «شاید چند دقیقه زمان برای خود بخرید، اما در عوض چه چیزی را از دست می‌دهید؟»

سایر مقالات