تبادل نظر با چت باتها اغلب جذاب، گاهی خندهدار و گاهی بیمعنی بود. با این وجود، این ایده که رایانهها میتوانند بهعنوان محرم انسان عمل کنند و دامنه درمان را فراتر از محدودیتهای پزشکان گسترش دهند در طول چندین دهه ادامه یافت
فرارو- هدف سیستمهای رایانهای جدید آن است که درون سر ما را بررسی کنند و به ما کمک نمایند آن چه را که در آنجا پیدا میکنند درست کنیم.
به گزارش فرارو به نقل از نیویورکر، در دهه ۱۹۶۰ میلادی "جوزف وایزنبام" دانشمند رایانه در موسسه فناوری ماساچوست (ام آی تی) یک برنامه رایانهای به نام "الیزا" را ایجاد کرد. این برنامه برای شبیه سازی "درمان راجرزی" طراحی شده بود که در آن بیمار مکالمه را هدایت میکند و درمانگر اغلب زبان او را برایش تکرار میکند:
کاربر: دوست پسرم مرا مجبور کرد به اینجا بیایم.
الیزا: دوست پسرت باعث شد اینجایی بیایی.
کاربر: او میگوید که من بیشتر اوقات افسرده هستم.
الیزا: متاسفم که میشنوم افسرده ای.
کاربر: درست است. من ناراحتم.
الیزا: فکر میکنی آمدن به اینجا به تو کمک میکند که ناراضی نباشی؟
وایزنبام الیزا را با هدف طنز و تفنن ساخته بود. او تردید داشت که رایانهها تعامل معنادار انسانی را شبیهسازی کنند. بنابراین، او زمانی که بسیاری از افرادی که این برنامه را امتحان کردند. آن را مفید و جذاب یافتند نگران شد. حتی منشیاش نیز از او خواست اتاق را ترک کند تا بتواند با الیزا تنهایی وقت بگذراند! نکته بدتر آن که پزشکان الیزا را به مثابه یک ابزار بالقوه دگرگون کننده قلمداد میکردند. سه روانپزشک در مجله بیماریهای عصبی و روانی در سال ۱۹۶۶ میلادی نوشتند: "صدها بیمار در ساعت میتوانند توسط یک سیستم رایانهای طراحی شده برای این منظور اداره شوند. این ابزاری بسیار کارآمد است، زیرا باعث میشود درمان دیگر محدود به نسبت یک به یک بیمار – درمانگر نشود که در حال حاضر وجود دارد".
وایزنبام به منتقد صریح هوش مصنوعی تبدیل شد. "برایان کریستین" که این قسمت را در کتاباش "بشرترین انسان" شرح داده به "نیویورک تایمز" میگوید: "با این وجود، غول از چراغ جادو خارج شده بود".
چند سال بعد "کنت کولبی" روانپزشکی از استنفورد برنامه "پَری" (Parry) را ایجاد کرد برنامهای که سعی داشت زبان یک فرد مبتلا به اسکیزوفرنی پارانوئید را شبیهسازی کند تا دانشجویان را پیش از معالجه و ویزیت بیماران واقعی آموزش دهد. روانپزشکانی که رونوشت جلسات درمانی را دریافت میکردند اغلب نمیتوانستند تفاوت بین پری و انسان را تشخیص دهند. در این مفهوم محدود چت بات آزمون تورینگ (روشی برای سنجش میزان هوشمندی ماشین) را پشت سر گذاشت. در سال ۱۹۷۲ میلادی پری و الیزا برای یک جلسه درمانی با یکدیگر ملاقات کردند:
پری: آیا چیزی در مورد کتابداران میدانی؟
الیزا: چه چیزی باعث میشود فکر کنید من چیزی در مورد کتابداران میدانم؟
پری: یک کتابفروش یک بار هم به من پول نداد.
الیزا: چه چیزی به شما پیشنهاد میکند؟
پری: من کتک کاری را کتک زدم که نتیجهای نگرفت و فکر کردم ممکن است از دوستان اش در دنیای اموات استفاده کند تا با من کنار بیاید!
با گذشت زمان دکتر اسبایتسو، جبر وکی و آلیس (ماهیت رایانهای اینترنتی زبان مصنوعی) را توسعه دادند. تبادل نظر با این چت باتها اغلب جذاب، گاهی خندهدار و گاهی بیمعنی بود. با این وجود، این ایده که رایانهها میتوانند بهعنوان محرم انسان عمل کنند و دامنه درمان را فراتر از محدودیتهای پزشکان گسترش دهند در طول چندین دهه ادامه یافت.
در سال ۲۰۱۷ میلادی "آلیسون دارسی" روانشناس تحقیقات بالینی در استنفورد شرکت Woebot را تاسیس کرد که از طریق یک برنامه تلفن هوشمند پشتیبانی خودکار سلامت روان را ارائه میدهد. رویکرد آن مبتنی بر درمان شناختی رفتاری یا C.B.T است درمانی که هدف آن تغییر الگوهای تفکر افراد است. این اپلیکیشن از نوعی هوش مصنوعی به نام پردازش زبان طبیعی برای تفسیر آن چه کاربران میگویند استفاده میکند و آنان را از طریق دنبالهی از پاسخهای از پیش نوشته شده راهنمایی میکند. این کار آنان را تشویق میکند فکر کنند که ذهنشان چگونه میتواند متفاوت کار کند. زمانی که دارسی در مقطع کارشناسی ارشد تحصیل میکرد دهها بیمار بستری در بیمارستان را با استفاده از درمان شناختی رفتاری درمان کرد. بسیاری از آنان بهبودهای قابل توجهی را تجربه کردند، اما پس از ترک بیمارستان بار دیگر با عود وضعیت قبلی مواجه شدند.
نظر روانپزشکان آن است که درمان شناختی رفتاری بهتر است در مقادیر کم و بارها انجام شود. در دنیای واقعی یافتن این نوع مراقبت مداوم دشوار است. بیش از نیمی از شهرستانهای ایالات متحده حتی یک روانپزشک نیز ندارند سال گذشته نظرسنجی انجام شده توسط انجمن روانشناسی آمریکا نشان داد که شصت درصد از پزشکان سلامت روان فرصتی برای بیماران جدید ندارند.
دارسی میگوید هیچ درمانی نمیتواند تمام روز هر روز در کنار شما باشد. اگرچه این شرکت فقط حدود صد نفر را استخدام میکند، اما تقریبا به یک میلیون و نیم نفر مشاوره ارائه داده است که اکثر آنان در مناطقی زندگی میکنند که با کمبود ارائه دهندگان سلامت روان مواجه هستند.
ماریا یک پرستار آسایشگاه که با همسر و دو فرزند نوجواناش در نزدیکی میلواکی زندگی میکند ممکن است یک کاربر معمولی Woebot باشد. او مدتهاست که با اضطراب و افسردگی دست و پنجه نرم میکند، اما پیشتر به دنبال کمک نبوده است. او به "نیویورک تایمز" میگوید: "من در ابتدا مشکلام را انکار میکردم و این وضعیت در طول پاندمی کووید تغییر کرد زمانی که دخترم نیز علائم افسردگی را از خود نشان داد".
ماریا او را نزد یک روانشناس برد و متعهد شد که سلامت روان خود را در اولویت قرار دهد. در ابتدا او در مورد ایده مکالمه با یک برنامه تردید داشت. او گمان میکرد ارتباط انسانی برای درمان ضروری است. با این وجود، پس از یک ملاقات چالش برانگیز با یک بیمار زمانی که نمیتوانست از فکر کردن درباره کاری که ممکن است متفاوت انجام دهد دست بکشد، به Woebot پیام داد.
آن چت بات به او گفت: "به نظر میرسد که ممکن است در حال نشخوار فکری باشید". این مفهوم را این گونه تعریف میکند:"نشخوار فکری به معنای چرخیدن به افکار منفی یکسان است. آیا این درست به نظر میرسد؟ آیا میخواهید یک تکنیک تنفسی را امتحان کنید"؟
ماریا میگوید: "احساس کردم که اتفاق بسیار بدی قرار است رخ دهد". او به چت بات پیام فرستاد و از آن خواست که مفهوم تفکر فاجعه آمیز را توضیح داد. Woebot اشاره کرد که آماده شدن برای بدترینها میتواند مفید باشد، اما این آمادگی میتواند بیش از حد باشد. ماریا گفت: "این به من کمک کرد تا نام کاری که همیشه انجام میدهم را بدانم". او متوجه شد که Woebot به قدری مفید بود که آن را به عنوان یک درمانگر انسانی قلمداد کرد. Woebot یکی از چندین چت ربات موفق مبتنی بر تلفن است که با هدف خاص سلامت روان ساخته شده اند.
برخی دیگر از چت باتها برای ارائه سرگرمی و برخی دیگر برای مکالمهای دلسوزانه طراحی شده اند. امروزه میلیونها نفر با برنامهها و اپلیکیشنهایی مانند Happify صحبت میکنند که کاربر را به "شکستن الکوای قدیمی" دعوت میکند و یا با Replika یک "هوش مصنوعی همراه" صحبت میکنند که میگوید به عنوان یک دوست، یک مربی و یا یک شریک عاطفی "همواره در کنار شماست".
دنیای روانپزشکی، درمان، علوم رایانه و فناوری مصرف کننده در حال همگرایی با یکدیگر هستند: ما به طور فزایندهای با دستگاههایمان خود را تسکین میدهیم در حالی که برنامه نویسان، روانپزشکان و بنیانگذاران استارت آپ سیستمهای هوش مصنوعیای را طراحی میکنند که سوابق پزشکی و جلسات درانی را به امید تشخیص، درمان و حتی پیش بینی بیماری روانی مورد تجزیه و تحلیل قرار میدهند. در سال ۲۰۲۱ میلادی استارت آپهای دیجیتالی که بر سلامت روان تمرکز میکردند بیش از پنج میلیارد دلار سرمایه مخاطره آمیز به دست آوردند که بیش از دو برابر آن برای سایر مسائل پزشکی بوده است.
مقیاس سرمایه گذاری نشان دهنده ابعاد مشکل است. تقریبا از هر پنج بزرگسال امریکایی یک نفر به بیماری روانی مبتلا است.
تخمین زده میشود که از هر بیست نفر یک نفر به بیماری روانی جدی مبتلا است افسردگی شدید، اختلال دوقطبی، اسکیزوفرنی که به شدت توانایی زندگی، کار یا ارتباط با دیگران را مختل میکند. داروهای دهههای پیشین مانند زاناکس و پروزاک که زمانی به عنوان پادزهرهای انقلابی برای افسردگی و اضطراب معرفی میشدند کمتر از آن چیزی که بسیاری انتظار داشتند موثر بودهاند.
مراقبت پراکنده ناکافی به نظر میرسد و بار کلی بیماریهای روانی در ایالات متحده افزایش یافته است. میزان خودکشی از دهه نوزدهم در سراسر جهان کاهش یافته، اما در آمریکا حدود یک سوم افزایش یافته است.
"توماس اینسل" مدیر سابق موسسه ملی سلامت روان به "نیویورک تایمز" میگوید: "مراقبت از سلامت روان یک طوفان است. هیچ کس چیزی را که به دست میآورد دوست ندارد. هیچ کس از چیزی که میدهد راضی نیست. این یک آشفتگی کامل است".
درمان بیماری روانی نیاز به تخیل، بینش و همدلی دارد ویژگیهایی که هوش مصنوعی تنها میتواند وانمود کند که از آن برخوردار است. با این وجود، الیزا، که وایزنبام آن را به افتخار "الیزا دولیتل" قهرمان جعلی نمایشنامه "پیگمالیون" اثر "جورج برنارد شاو" نامگذاری کرد علیرغم آن که فاقد حافظه و فاقد قدرت پردازش بود یک توهم درمانی ایجاد کرد.
سیستمی مانند چت جی پی تی (Chat GPT) که بر روی بخشهای گستردهای از نوشتههای اینترنتی آموزش دیده چه چیزی را میتواند تداعی کند؟ الگوریتمی که سوابق بیمار را تجزیه و تحلیل میکند هیچ درک درونی از انسان ندارد، اما هنوز هم ممکن است مشکلات روانپزشکی واقعی را شناسایی کند. آیا ذهن مصنوعی میتواند ذهن واقعی را درمان کند؟ با اجازه دادن به آن چه به دست میآوریم و یا از دست میدهیم؟
"جان پستیان" دانشمند رایانه که در تجزیه و تحلیل دادههای پزشکی تخصص دارد برای اولین بار استفاده از یادگیری ماشینی برای مطالعه بیماریهای روانی در دو هزار نفر را زمانی که به هیئت علمی مرکز پزشکی بیمارستان کودکان سینسیناتی پیوسته بود آغاز کرد.
در دوران تحصیلات تکمیلی او مدلهای آماری را برای بهبود مراقبت از بیماران تحت عمل جراحی بای پس قلب ساخته بود. او با ورود به حوزه روانپزشکی قصد داشت بداند آیا رایانهها میتوانند بفهمند چه کسی در معرض خطر آسیب به خود است یا خیر. "پستیان" با "ادوین اشنایدمن" روانشناس بالینی که انجمن آمریکایی خودکشی را تاسیس کرده بود تماس گرفت. اشنایدمن صدها یادداشت خودکشی را که خانوادهها با او به اشتراک گذاشته بودند به وی داد و پستیان مجموعه را به مجموعهای که به عقیده او بزرگترین در جهان است گسترش داد.
او یادداشتی را به ما نشان داد که توسط یک زن جوان نوشته شده بود. از یک طرف پیامی عصبانی به دوستش بود و از طرف دیگر خطاب به پدر و مادرش گفت: "بابا لطفا سریع به خانه برگرد. مامان خیلی خستهام لطفا مرا به خاطر همه چیز ببخش". پستیان با مطالعه یادداشتهای خودکشی متوجه الگوهایی شد. متداولترین اظهارات ابراز گناه، اندوه یا عصبانیت نبودند بلکه طرح دستوراتی بود: "مطمئن شوید که برادرتان پولی را که به او قرض دادم بازپرداخت کند. قسط خودرو تقریبا تمام شده است. مراقب باشید سیانور در حمام وجود دارد".
او و همکاراناش یادداشتها را در یک مدل زبانی مبتنی بر هوش مصنوعی قرار دادند سیستمی که میآموزد کدام واژگان و عبارات با یکدیگر ترکیب شوند و سپس توانایی خود را در تشخیص افکار خودکشی در اظهاراتی که افراد بیان میکنند مورد آزمایش قرار میدهد. نتایج نشان داد که یک الگوریتم میتواند "زبان خودکشی" را شناسایی کند.
پستیان در مرحله بعد به ضبطهای صوتی گرفته شده از ویزیت بیماران روی آورد. او به همراه همکاراناش نرم افزاری را توسعه داد تا نه تنها واژگانی که افراد صحبت میکنند بلکه صداهای گفتار آنان را مورد تجزیه و تحلیل قرار دهد. این تیم دریافت افرادی که افکار خودکشی را تجربه میکنند بیشتر از دیگران آه میکشند و کمتر میخندند.
آنان هنگام صحبت کردن تمایل داشتند بیشتر مکث کنند و حروف صدادار خود را کوتاه کنند و کلمات را کمتر قابل درک نمایند. صدای آنان نفس گیرتر میشد و عصبانیت بیشتر و امید کمتری ابراز میکردند.
در بزرگترین کارآزمایی در نوع خود تیم تحت هدایت پستیان صدها بیمار را ثبت نام کرد گفتار آنان را ضبط نمود و از الگوریتمهایی برای طبقه بندی آنان استفاده کردند. در حدود ۸۵ درصد مواقع مدل مبتنی بر هوش مصنوعی عملکردی مشابه مراقبین انسانی داشت.
پس از پیادهسازی این سیستم پذیرشهای روانپزشکی در میان افرادی که از برنامه مبتنی بر هوش مصنوعی استفاده میکردند و پیشتر از نظر انگیزه خودکشی پرخطر تشخیص داده شده بودند ۸ درصد کاهش در این باره دیده شد. هم چنین، میزان تلاش برای خودکشی نیز تا پنج درصد کاهش یافت.
در سال ۲۰۱۳ میلادی در تلاش برای افزایش مقیاس درمان سلامت روان سرویس بهداشت ملی بریتانیا با شرکت Ieso یک شرکت سلامت دیجیتال قراردادی را برای کمک به درمانگران در ارائه درمان شناختی رفتاری از طریق چت متنی منعقد کرد. اکنون بیش از صد هزار نفر در بریتانیا از نرم افزار Ieso برای دریافت چیزی که آن شرکت "تایپ درمانی" مینامد استفاده کرده اند. مطالعات نشان داده اند که درمان مبتنی بر متن میتواند به خوبی کار کند.
در این برنامه برای تجزیه و تحلیل بیش از نیم میلیون جلسه درمانی از هوش مصنوعی استفاده شده است. نتایج نشان میداد علائم افسردگی بالینی در بیماران پس از هشت جلسه تایپ شده بین درمانگر و بیمار کاهش یافته بود.
ما کار را با چت جی پی تی آزمودیم. این چت بات برای درمان طراحی نشده، اما از آن خواستیم به ما کمک کند تا استرسی که به عنوان یک پزشک و پدر احساس میکنیم را مدیریت کند. به آن چت بات گفتیم که خود را جانشین شخصیتهای مختلف روانشناختی مانند فروید کند. چت جی پی تی گفت: "استرس اغلب نتیجه احساسات سرکوب شده و درگیریهای درونی فرد است".
چت جی پی تی مانند یک دوست صمیمی گفت: "با خود مهربان باش تو بهترین کاری را که میتوانی انجام میدهی و این تنها چیزی است که اهمیت دارد". روان بودن چت جی پی تی از نظر زبانی فرصتهای جدیدی را به وجود میآورد.
البته متن تولید شده توسط مدلهای زبانی بزرگ (LLM) میتواند بیمزه باشد و هم چنین میتواند به سوی مهمل گویی نیز منحرف شود چرا که مدلهای زبانی هیچ تصور واقعیای از آن چه میگویند ندارند. آن مدلها با پیش بینی کلمه بعدی در یک جمله با کلمات قبلی مانند "تصحیح خودکار استروئیدها" کار میکنند. این وضعیت میتواند منجر به ساختگی بودن پاسخهای شان شود.
با این وجود، قطعا در آینده مدلهای بزرگ زبانی سفارشی ایجاد خواهند شد که تنها برای درمان طراحی شدهاند: Psych GPT و موارد مشابه. چنین سیستمهایی به افرادی دسترسی پیدا میکنند که در حال حاضر کمکی دریافت نمیکنند، اما هر نقصی که در آن سیستمها وجود دارد در میلیونها نفری که از آنها استفاده میکنند چند برابر خواهد شد. شرکتها حتی اطلاعات حساستری را در مورد ما نسبت به قبل جمع آوری میکنند و این اطلاعات ممکن است هک شده یا فروخته شوند.
زمانی که سیستمهایی داریم که در مقیاس عظیم کار میکنند یک نقطه شکست میتواند عواقب فاجعه باری داشته باشد. به نظر میرسد که ما از هوش مصنوعی خود شگفت زده خواهیم شد. چت بات "بینگ" ساخته مایکروسافت که بر اساس فناوری Open AI ساخته شده برای کمک به کاربران در یافتن اطلاعات طراحی شده است. با این وجود، نسخه بتا هم چنین توهینهای قومیتی را ارائه میکند، توهماتی وحشتناک را توصیف میکند و به کاربران گفته که آنان "بد"، "بی ادب" و "سردرگم" هستند و به خبرنگاری گفته بود: "شما متاهل هستید، اما همسرتان را دوست ندارید".
سلامت روانی ما در حال حاضر توسط رسانههای اجتماعی، زندگی آنلاین و حواس پرتی بی وقفه رایانههای موجود در جیب مان به خطر افتاده است. آیا ما دنیایی را میخواهیم که در آن یک نوجوان به جای دوست به یک اپلیکیشن روی بیاورد تا از پس چالشهای خود برآید؟