اگر بهخاطر یک بدبیاری فنی نبود، دکلن[۱] هرگز متوجه نمیشد درمانگرش از ChatGPT استفاده میکند. اتصال اینترنت در یکی از جلسات آنلاینشان ضعیف بود، بنابراین دکلن پیشنهاد داد دوربینها را خاموش کنند. اما درمانگرش بهجای خاموش کردن تصویر، ناخواسته صفحه لپتاپ خود را به اشتراک گذاشت.
دکلن، ۳۱ ساله و ساکن لسآنجلس میگوید: «ناگهان دیدم دارد از ChatGPT استفاده میکند». «او حرفهای من را وارد چتجیپیتی میکرد و سپس خلاصه یا گزیدهای پاسخها را دریافت میکرد.»
دکلن آنقدر شوکه شده بود که به روی خود نیاورد و تا پایان جلسه، تحلیلهای لحظهای ChatGPT را که روی صفحه درمانگر ظاهر میشد میدید. اوضاع وقتی عجیبتر شد که پاسخهای چتجیپیتی جلوتر از پاسخهای درمانگر در صحبتهای دکلن انعکاس پیدا کرد.
دکلن میگوید که بهترین مراجع دنیا شده بود، چون چتجیپیتی میگفت: «فکر نمیکنی که شیوهٔ فکر کردنت کمی سیاه و سفید است؟» و وی میگفت: «میدونی، فکر میکنم شاید واقعا شیوهٔ فکر کردنم کمی سیاه و سفید باشد.» و درمانگرش میگفت: «دقیقاً». دکلن مطمئن بود که این جلسه رؤیایی درمانگرش بود.
یکی از بسیار سوالهای بیجوابی که ذهن دکلن را درگیر کرده بود این بود که آیا این کار قانونی است؟ وقتی او در جلسه بعد موضوع را مطرح کرد، «خیلی خجالتآور بود، مثل یک طلاق عجیب بود»، درمانگر به گریه افتاد. او برای دکلن توضیح داد که احساس کرده درمان به بنبست رسیده و به دنبال جواب در جای دیگری میگشته. دکلن با خنده میگوید که: «با این حال بابت همان جلسه هم از من ویزیت گرفت».
رشد انفجاری مدلهای زبانی بزرگ (LLM) در چند سال گذشته پیامدهایی غیرمنتظره برای حوزه رواندرمانی داشته است، عمدتاً چون هرروزه تعداد بیشتری از مردم به جای مراجعه به رواندرمانگران از چتجیپیتی و ابزارهای مشابه استفاده میکنند. اما درباره اینکه برخی درمانگران از ابزارهای هوش مصنوعی در کارشان استفاده میکنند کمتر بحث شده است. مانند بسیاری از حرفههای دیگر، هوش مصنوعی مولد وعدهٔ افزایش بهرهوری را داده، اما استفاده از آن میتواند دادههای حساس مراجعان را به خطر بیندازد و باعث تضعیف رابطهای شود که پایه و اساس آن اعتماد است.
اوضاع وقتی عجیبتر شد که پاسخهای چتجیپیتی جلوتر از پاسخهای درمانگر در صحبتهای دکلن انعکاس پیدا کرد.
احساس بدبینی
دکلن تنها نیست و من این را از تجربهٔ شخصی خودم میگویم. وقتی اخیراً ایمیلی از رواندرمانگرم دریافت کردم که طولانیتر و آراستهتر از حد معمول بود، ابتدا احساس دلگرمی کردم. پیام او مهربانانه و حاوی تاییدی بی قید و شرط بود و طولانی بودنش باعث شد فکر کنم او برای خواندن و فکر کردن به موضوعات حساس ایمیل قبلیم وقت گذاشته است.
اما کمی بیشتر که دقت کردم ایمیل او کمی عجیب به نظر میآمد. فونت جدیدی داشت و چند نشانهٔ همیشگی متون نوشته شده توسط هوش مصنوعی در آن دیده میشد: استفاده فراوان از خط تیره آمریکایی (در حالی که هر دو اهل انگلیس هستیم)، سبک نوشتاری بیفاعل (بیاحساسات)، و عادت پاسخدادن خطبهخط به هر بخش ایمیل قبلی من.
وقتی که فهمیدم احتمالاً چتجیپیتی در نوشتن آن پیام نقش داشته، احساس مثبتی که بهم دست داده بود خیلی زود از دست رفت و جای خود را به ناامیدی و بیاعتمادی داد. از درمانگرم که پرسیدم استفاده از چتجیپیتی را تایید کرد.
با اینکه به من اطمینان داد که ایمیلهای طولانی را فقط برای AI دیکته میکند، باز هم مطمئن نبودم که چه اندازه از پیام از خود اوست و چه مقدار از چتبات. همچنین این شک که شاید تمام ایمیل من را در چتجیپیتی کپی پیست کرده باشد هیچوقت من را رها نکرد.
یک روز در اینترنت جستوجو کردم تا ببینم دیگران هم تجربهٔ مشابه داشتهاند یا نه. مثالهای فراوانی پیدا کردم از افرادی که پیامهایی از درمانگران خود دریافت کرده بودند که مشکوک به تولید با هوش مصنوعی بود. بسیاری از آنها، از جمله دکلن، به ردیت[۲] پناه آورده بودند تا حمایت عاطفی و کمک بگیرند.
برای نمونه هوپ[۳]، ۲۵ ساله و ساکن سواحل شرقی آمریکا، مرگ سگش را در دایرکت به درمانگرش اطلاع داده بود. «حتماً خیلی سخت است که سگت دیگر کنار تو نیست»، پاسخی که خیلی زود گرفت و بهظاهر دلگرمکننده و همدلانه بود. با این حال پاسخ AI که تصادفاً در بالای آن پاسخ باقی مانده بود کار را خراب کرد: «این هم یک نسخه انسانیتر، صمیمیتر و با لحن ملایم و محاورهای.»
هوپ میگوید «واقعاً خیلی غافلگیر و گیج شدم، احساس خیلی عجیبی داشت. بعد کمکم احساس کردم بهم خیانت شده… قطعاً روی اعتمادم به او اثر گذاشت.» این مسئله برای او خیلی مشکلآفرین بود، چون «یکی از دلایلی که پیشش میرفتم همین مشکلات عدم اعتمادم بود.»
هوپ که باور داشت درمانگرش فردی توانا و همدل است، میگوید «هرگز فکر نمیکردم او احساس کند باید از AI کمک بگیرد.» درمانگرش وقتی با حقیقت روبرو شد عذرخواهی کرد و توضیح داد که چون خودش هیچوقت حیوان خانگی نداشته، برای ابراز احساس مناسب به AI مراجعه کرده است.
دوراهی افشاگری
شاید استدلال اینکه AI میتواند به درمانگران در برقراری بهتر ارتباط با مراجعان کمک کند، اندکی حقیقت داشته باشد. در یک مطالعهٔ جدید در سال ۲۰۲۵ که در مجلهٔ PLOS Mental Health منتشر شد، از رواندرمانگران خواسته شد با کمک چتجیپیتی به روایتهایی که شبیه مشکلاتی است که مراجعان معمولا مطرح میکنند پاسخ دهند. یک گروه ۸۳۰ نفره از شرکتکنندگان نهتنها نتوانستند تشخیص دهند کدام پاسخها انسانی و کدام توسط AI نوشته شده، بلکه پاسخهای AI را مطابقتر با بهترین رویههای درمانی ارزیابی کردند.
با این حال وقتی شرکتکنندگان گمان میکردند پاسخها را چتجیپیتی نوشته، به آن نمرهٔ پایینتری میدادند. (پاسخهایی که توسط چتجیپیتی نوشته شده اما بهعنوان پاسخ درمانگر معرفی شده بودند، بالاترین امتیاز را دریافت کردند.)
بهطور مشابه، پژوهشگران دانشگاه کرنل[۴] در مطالعهای در سال ۲۰۲۳ دریافتند که پیامهای تولیدشده توسط AI میتوانند حس نزدیکی و همکاری را بین طرفهای گفتوگو افزایش دهند، اما فقط زمانی که گیرنده از وجود AI بیاطلاع باشد. صرفِ شک کردن به استفاده از هوش مصنوعی باعث میشود فرد احساس ناخوشایندی پیدا کند.
آدریان آگیلرا[۵] روانشناس بالینی و استاد دانشگاه کالیفرنیا، برکلی، معتقد است که: «مردم برای اصالت ارزش بالایی قائل هستند، بهویژه در رواندرمانی». «فکر میکنم [استفاده از AI] میتواند این حس را ایجاد کند که: “تو رابطهٔ مرا جدی نمیگیری”. آیا ما برای پاسخدادن به همسر یا فرزندان خود نیز از چتجیپیتی استفاده میکنیم؟ بهنظر این کار درست نمیآد.»
در سال ۲۰۲۳، در روزهای ابتدایی بالا آمدن هوش مصنوعی مولد، سرویس مشاوره آنلاین Koko یک آزمایش پنهانی روی کاربران خود انجام داد و پاسخهای تولیدشده توسط چتجیپیتی ۳ را با پاسخهای انسانی ترکیب کرد. نتایج نشان داد که کاربران معمولا به پاسخهای AI امتیاز بالاتری میدهند. با این حال، افشای این قضیه که کاربران بدون اطلاع قبلی بخشی از یک آزمایش قرار گرفتهاند، خشم مردم را به همراه داشت.
سرویس رواندرمانی آنلاین BetterHelp نیز با ادعاهایی روبهرو شده مبنی بر اینکه برخی درمانگرانش از AI برای پاسخ دادن به کاربران استفاده کردهاند. عکاسی به نام برندن کین در مقالهای در مدیوم[۶] نوشته که رواندرمانگر او در BetterHelp اعتراف کرده که برای پاسخ دادن از AI کمک گرفته است، و این مسئله باعث «احساس شدید خیانت» و نگرانی بیامان او از احتمال نقض حریم خصوصی دادههایش شده است. او پس از کشف این قضیه، به رابطه درمانی خود پایان داد.
سخنگوی BetterHelp به ما اعلام کرد که این شرکت «از به اشتراک گذاری هرگونه اطلاعات شخصی یا سلامتی اعضا با هوش مصنوعیِ متعلق به شرکتهای دیگر یا استفاده از AI برای نگارش پیامهایی که ممکن است به شکل مستقیم یا غیرمستقیم هویت افراد را آشکار کند ممانعت میکند.»
همهٔ این نمونهها به استفادهٔ پنهانی از هوش مصنوعی برمیگردد. آگیلرا معتقد است درمانگرهایی که وقت کمتری دارند میتوانند از مدلهای زبانی بزرگ استفاده کنند، ولی وجود شفافیت اهمیت بالایی دارد. او میگوید: «باید رو راست و از قبل به آدمها بگوییم ‘من میخواهم از این ابزار برای کار فلان و بهمان استفاده کنم’ و منطق این انتخابمان را هم توضیح دهیم». اینطوری مردم پیامهای تولیدشده توسط AI را با آگاهی قبلی دریافت میکنند و فکر نمیکنند درمانگرشان خواسته یواشکی زرنگی بکند.
بنابر گزارش تحقیق انجام شده توسط انجمن روانشناسی آمریکا در سال ۲۰۲۳، روانشناسان معمولاً با نهایت ظرفیت خود فعالیت میکنند و میزان فرسودگی شغلی در این حرفه بالاست. همین موضوع جذابیت استفاده از ابزارهای هوش مصنوعی در بین روانشناسان را توجیه میکند.
اما نبود شفافیت میتواند زخمی کاری بر پیکر اعتماد وارد کند. برای نمونه هوپ تصمیم گرفت مشاوره با درمانگرش را ادامه دهد، هرچند کمی بعد به دلایلی که میگوید ارتباطی با این قضیه نداشته جلساتش را قطع کرد. او میگوید: «اما هر بار که او را میدیدم، ماجرای استفاده از هوش مصنوعی یادم میافتاد.»
وقتی رواندرمانگرها از طرف مراجع به سراغ مدلهای زبانی میروند، علاوه بر نقض حریم خصوصی، با خطرهای دیگری نیز مواجه میشویم. اگرچه برخی مطالعات نشان دادهاند که رباتهای متخصص رواندرمانگری میتوانند با مداخلههای انسانی رقابت کنند، پاسخهای ابزارهایی مانند چتجیپیتی بیش از اینکه کمک کنند آسیبزا هستند.
به خطر افتادن حریم خصوصی مراجع
فراتر از مسئلهٔ شفافیت، خیلی از درمانگرها از ابتدا نسبت به استفاده از مدلهای زبانی مردد هستند. مارگارت موریس[۷]، روانشناس بالینی و عضو هیئت علمی دانشگاه واشنگتن، میگوید: «بهنظرم این ابزارها میتوانند برای یادگیری واقعاً مفید باشند»، و اشاره میکند که درمانگرها باید در طول حرفهشان مدام به دانش خود بیافزایند. «اما باید نسبت به دادههای مراجعین خیلی محتاط باشیم.» موریس تجربهٔ دکلن را «نگرانکننده» مینامد.
پردیس امامی نائینی، دانشیار علوم کامپیوتر در دانشگاه دوک که محقق حیطهٔ امنیت و حریم خصوصی مدلهای زبانی در حوزهٔ سلامت است، میگوید رواندرمانگرها باید آگاه باشند که چتباتهای عمومی مثل ChatGPT از سوی سازمان غذا و داروی آمریکا تأیید نشدهاند و با HIPAA سازگار نیستند. (HIPAA مجموعهای از مقررات فدرال آمریکا برای حفاظت از اطلاعات حساس سلامت افراد است.)
او میگوید: « اگر هر نوع اطلاعاتی دربارهٔ بیمار مستقیماً یا بهصورت ضمنی به هوش مصنوعی منتقل شود، خطرهایی جدی برای حریم خصوصی بیماران ایجاد میکند.»
در یک مقالهٔ جدید، امامی نائینی نشان داد که خیلی از کاربران بهاشتباه فکر میکنند چتجیپیتی با HIPAA سازگار است و همین باعث اعتماد بیمورد به این ابزار میشود. او میگوید: «حدس میزنم بعضی روانشناسان هم درگیر همین سوءتفاهم باشند.»
دکلن که خودش آدم نسبتاً روشنفکری است، میگوید وقتی فهمید رواندرمانگرش از چتجیپیتی استفاده میکند خیلی بههم نریخت: «شخصاً با خودم فکر نمیکردم که وای خدای من، تمام رازهای شخصی و تاریکم لو رفت». اما باز هم احساس کرد که به حریم خصوصیاش تجاوز شده است: «با خودم تصور میکنم اگر تمایل به خودکشی داشتم یا مواد مصرف میکردم و یا به همسرم خیانت کرده بودم… اصلاً دلم نمیخواست چنین اطلاعاتی در اختیار چتجیپیتی قرار گرفته شود.»
امامی نائینی میگوید هنگام استفاده از هوش مصنوعی برای نوشتن یک ایمیل، «تنها حذف مشخصات آشکار مانند نامها و آدرسها کافی نیست». اطلاعات حساس ممکن است از جزئیات ظاهراً غیرحساس هم استنباط شود.
او ادامه میدهد: «شناسایی و بازنویسی همهٔ دادههای حساس نیازمند زمان و تخصص است، که ممکن است با هدف اصلیِ استفاده از ابزارهای هوش مصنوعی یعنی صرفهجویی در زمان در تضاد باشد. در هر صورت، درمانگران باید استفاده از هوش مصنوعی را به بیماران اعلام کنند و از آنها رضایت بگیرند.»
شرکتهای زیادی مانند Heidi Health، Upheal، Lyssn و Blueprint در حال عرضهٔ ابزارهای تخصصی به درمانگرها هستند. خدماتی مانند یادداشتبرداری و یادگیری با کمک هوش مصنوعی و خدمات رونویسی. این شرکتها میگویند با پروتکلهای HIPAA سازگارند و دادهها را با رمزنگاری و گاهی با استفاده از تکنیکهای مستعارسازی بهصورت ایمن ذخیره میکنند. اما بسیاری از درمانگرها هنوز هم نسبت به مسائل حریم خصوصی محتاط اند، بهخصوص دربارهٔ ابزارهایی که نیاز به ضبط کامل جلسات دارند.
امامی نائینی میگوید: «حتی اگر حفاظت از حریم خصوصی بهتر شود، همیشه مقداری خطر نشت اطلاعات یا استفادههای ثانویه از دادهها وجود دارد.»
هک سال ۲۰۲۰ از یک شرکت سلامت روان در فنلاند که طی آن پروندههای درمانی دهها هزار نفر افشا شد، یک هشدار جدی است. افرادی که نامشان در فهرست بود مورد اخاذی قرار گرفتند و سپس کل دادهها به صورت عمومی منتشر شد، و جزئیات بسیار حساسی مثل تجربهٔ سواستفاده جنسی در کودکی یا اعتیاد افراد افشا شد.
آنچه درمانگران ممکن است از دست بدهند
وقتی رواندرمانگرها از طرف مراجع به سراغ مدلهای زبانی میروند، علاوه بر نقض حریم خصوصی، با خطرهای دیگری نیز مواجه میشویم. اگرچه برخی مطالعات نشان دادهاند که رباتهای متخصص رواندرمانگری میتوانند با مداخلههای انسانی رقابت کنند، پاسخهای ابزارهایی مانند چتجیپیتی بیش از اینکه کمک کنند آسیبزا هستند.
پژوهش اخیر دانشگاه استنفورد نشان داد چتباتها با تأیید بیچونوچرای حرفهای کاربران ممکن است به جای به چالش کشیدن مراجعین، توهمات و اختلالات روانپریشانهٔ آنها را تقویت کنند. این پژوهش همچنین نشان داد که چتباتها ممکن است در دام سوگیریها یا رفتارهای چاپلوسانه بیفتند. همین محدودیتها میتواند استفادهٔ رواندرمانگرها از این ابزارها برای مراجعین خود را خطرناک کند، برای مثال این فناوری ممکن است یک حدس بیاساس را تقویت کند یا درمانگر را به مسیر غلط بکشاند.
آگیلرا میگوید هنگام آموزش کارآموزان سلامت روان، با ابزارهایی مثل چتجیپیتی کار کرده و گاهی علائم فرضی به آن داده و از چتبات خواسته تشخیص بدهد. او میگوید این ابزار فهرستی از تمام شرایط ممکن را ارائه میکند، اما تحلیلش بسیار سطحی است. در حال حاضر انجمن مشاورهٔ آمریکا[۸] توصیه میکند که از هوش مصنوعی برای تشخیص اختلالات روانی استفاده نشود.
پژوهشی در سال ۲۰۲۴ دربارهٔ نسخهٔ قدیمیتر ChatGPT هم نشان داد که عملکردش در تشخیص ویا تهیهٔ برنامه درمانی خیلی مبهم و کلی است، و بیش از حد به روش رفتاردرمانی شناختی گرایش دارد، در حالی که شاید روشهای درمانی دیگر برای مراجع مناسبتر باشد.
دنیل کیمل[۹]، روانپزشک و عصبشناس دانشگاه کلمبیا، یک سری آزمایش با ChatGPT انجام داد که در آن نقش یک مراجع با مشکلات زوجی را بازی میکرد. او میگوید عملکرد چتبات در ارائهٔ برخی شگردهای درمانی مثل عادیسازی و تایید دادن، پرسیدن اطلاعات بیشتر یا برجسته کردن برخی ارتباطهای هیجانی یا شناختی، تقلید بدی نبود.
با این حال، او میگوید: «خیلی کند و کاو نمیکرد.» این ابزار ]مانند یک روانشناس واقعی[ سعی نمیکرد «چیزهای بهظاهر نامرتبط را به هم وصل کند و یک تصویر منسجم، یک داستان یا یک نظریه ارائه بدهد.»
او میگوید: «من نسبت به اینکه بگذاریم این ابزارها بهجای ما فکر کنند بدبینم.» به گفتهٔ او، فکر کردن باید کار رواندرمانگر بماند.
موریس میگوید درمانگرها میتوانند با استفاده از ابزارهای هوش مصنوعی در زمان صرفهجویی کنند، اما این مزیت را باید در مقایسه با نیازهای مراجعین سنجید: «شاید چند دقیقه زمان برای خود بخرید، اما در عوض چه چیزی را از دست میدهید؟»