هوش مصنوعی در روانشناسی انقلاب ایجاد کرده است؟ قلمرو روانشناسی بالینی به لطف هوش مصنوعی (AI) در حال تحولی انقلابی است. از آنجایی که جهان با بحران فزاینده سلامت روان دست و پنجه نرم می کند، ظهور هوش مصنوعی در مراقبت از سلامت روان ثابت می شود که بازی را تغییر می دهد. این روش روشی را که متخصصان سلامت روان در تشخیص، درمان و مدیریت اختلالات سلامت روان انجام میدهند، تغییر میدهد و راهحلهای امیدوارکنندهای را برای چالشهای بسیاری که این حوزه در حال حاضر با آن مواجه است، ارائه میدهد.
هوش مصنوعی در روانشناسی
مهم ترین سهم هوش مصنوعی در روانشناسی بالینی در توانایی آن در تجزیه و تحلیل سریع و دقیق حجم وسیعی از داده ها نهفته است. این توانایی به ویژه در تشخیص و درمان اختلالات سلامت روان که اغلب به تجزیه و تحلیل کامل علائم، سابقه و رفتار بیمار نیاز دارد، سودمند است. الگوریتمهای هوش مصنوعی میتوانند این دادهها را غربال کنند، الگوها را شناسایی کنند و بینشهایی را ارائه دهند که در غیر این صورت تشخیص آنها برای پزشک انسان بسیار طولانیتر خواهد بود. این نه تنها روند تشخیص را تسریع می کند، بلکه دقت آن را نیز افزایش می دهد و در نتیجه نتایج بیمار را بهبود می بخشد.
علاوه بر این، هوش مصنوعی همچنین درمان را در دسترس تر می کند. درمان سنتی اغلب شامل جلسات انفرادی با یک درمانگر است که می تواند زمان بر و پرهزینه باشد. با این حال، رباتهای گفتگوی مبتنی بر هوش مصنوعی و درمانگران مجازی اکنون جایگزینهای مقرون به صرفه و مناسبی را ارائه میکنند.
این ابزارهای هوش مصنوعی از پردازش زبان طبیعی برای درک و پاسخ دادن به ورودی های کاربر استفاده می کنند و مکالمه با یک درمانگر انسانی را شبیه سازی می کنند.
آنها می توانند پشتیبانی فوری ارائه دهند، به کاربران کمک کنند علائم خود را مدیریت کنند، و حتی آنها را از طریق تمرینات درمانی راهنمایی کنند. در حالی که این ابزارها قرار نیست جایگزین درمانگران انسانی شوند، می توانند به عنوان یک مکمل ارزشمند، به ویژه برای کسانی که نمی توانند به درمان سنتی دسترسی داشته باشند، عمل کنند.
هوش مصنوعی در تحقیقات روانشناسی
هوش مصنوعی همچنین نقش مهمی در تحقیقات سلامت روان ایفا می کند. از آن برای تجزیه و تحلیل مجموعه داده های بزرگ، مانند سوابق سلامت الکترونیک و پست های رسانه های اجتماعی، برای شناسایی عوامل خطر و علائم هشدار دهنده اولیه اختلالات سلامت روان استفاده می شود. این می تواند به مداخله زودهنگام و استراتژی های پیشگیری منجر شود و به طور بالقوه زندگی را نجات دهد. علاوه بر این، هوش مصنوعی همچنین می تواند در توسعه برنامه های درمانی شخصی کمک کند. با تجزیه و تحلیل دادههای یک بیمار، هوش مصنوعی میتواند نحوه پاسخ آنها به درمانهای مختلف را پیشبینی کند و به پزشکان این امکان را میدهد تا رویکرد خود را بر این اساس تنظیم کنند.
با این حال، ادغام هوش مصنوعی در مراقبت از سلامت روان بدون چالش نیست. نگرانی هایی در مورد حفظ حریم خصوصی و امنیت داده ها و همچنین خطر اتکای بیش از حد به فناوری وجود دارد. همچنین مهم است که اطمینان حاصل شود که ابزارهای هوش مصنوعی از نظر فرهنگی حساس هستند و تعصبات موجود را تداوم نمی دهند. بنابراین، وجود دستورالعملهای اخلاقی قوی و چارچوبهای نظارتی بسیار مهم است.
از نظر تاپ نیوز، هوش مصنوعی انقلابی در روانشناسی بالینی ایجاد کرده و راه های جدیدی برای تشخیص، درمان و مدیریت اختلالات سلامت روان ارائه می دهد. این درمان را در دسترس تر می کند، به تحقیقات کمک می کند و راه را برای برنامه های درمانی شخصی هموار می کند. با این حال، پرداختن به چالشهای مرتبط ضروری است تا اطمینان حاصل شود که مزایای هوش مصنوعی بدون به خطر انداختن ایمنی و حریم خصوصی بیمار تحقق مییابد. همانطور که ما به بررسی پتانسیل هوش مصنوعی در مراقبت از سلامت روان ادامه می دهیم، واضح است که این فناوری نویدبخش آینده روانشناسی بالینی است.
ربات های هوش مصنوعی در روانشناسی
در عمل روانشناسی، چت ربات های هوش مصنوعی (AI) می توانند درمان را در دسترس تر و کم هزینه تر کنند. ابزارهای هوش مصنوعی همچنین می توانند مداخلات را بهبود بخشند، وظایف اداری را خودکار کنند و به آموزش پزشکان جدید کمک کنند. در بخش تحقیقاتی، هوش مصنوعی راههای جدیدی برای درک هوش انسانی ارائه میدهد، در حالی که یادگیری ماشینی به محققان اجازه میدهد تا بینشهایی را از مقادیر انبوه داده جمعآوری کنند. در همین حال، مربیان در حال بررسی راههایی برای استفاده از ChatGPT در کلاس هستند.
مقاومت مردم در مورد چیزهای جدید غیرطبیعی است؟
بسیاری از مردم مقاومت می کنند، اما این چیزی است که ما نمی توانیم کنترل کنیم. جسیکا جکسون، دکترا، روانشناس دارای مجوز و حامی فناوری عادلانه مستقر در تگزاس، گفت: چه بخواهیم چه نخواهیم این اتفاق می افتد. اگر در مورد نحوه ادغام هوش مصنوعی متفکر و استراتژیک باشیم، میتوانیم تأثیر واقعی بر زندگی در سراسر جهان داشته باشیم.»
با وجود پتانسیل هوش مصنوعی، هنوز جای نگرانی وجود دارد. ابزارهای هوش مصنوعی مورد استفاده در مراقبت های بهداشتی بر اساس نژاد و وضعیت ناتوانی افراد، تبعیض قائل شده اند ( Grant, C., ACLU News and Commentary , 3 اکتبر 2022 ). چتباتهای سرکش اطلاعات نادرست منتشر کردهاند ، عشق خود را به کاربران ابراز کردهاند ، و خردسالان را مورد آزار و اذیت جنسی قرار دادهاند ، که باعث شد رهبران فناوری و علم در مارس 2023 خواهان توقف تحقیقات هوش مصنوعی در روانشناسی شوند.
تام گریفیث، دکترا، استاد روانشناسی و علوم کامپیوتر که آزمایشگاه علوم شناختی محاسباتی در دانشگاه پرینستون را مدیریت می کند، گفت: «بسیاری از چیزی که باعث پیشرفت می شود، ظرفیت هایی است که این سیستم ها دارند – و این بیشتر از میزان درک ما از نحوه کار آنها است . «آنچه در حال حاضر منطقی است این است که سرمایه گذاری موازی بزرگی در درک این سیستم ها انجام دهیم،» چیزی که روانشناسان به خوبی می توانند به انجام آن کمک کنند.
کشف تعصب
از آنجایی که الگوریتمها و رباتهای چت در سیستم هجوم میآورند، چند سوال حیاتی مطرح شدهاند. آیا استفاده از هوش مصنوعی در روانشناسی ایمن است؟
آیا اخلاقی است؟
چه محافظت هایی می تواند به تضمین حریم خصوصی، شفافیت و برابری کمک کند زیرا این ابزارها به طور فزاینده ای در سراسر جامعه مورد استفاده قرار می گیرند؟
روانشناسان ممکن است با آموزش روش های مختلف تحقیق، رفتار اخلاقی با شرکت کنندگان، تأثیر روانشناختی و غیره، از واجد شرایط برای پاسخ به این سؤالات باشند.
آدام ماینر، استادیار بالینی روانپزشکی و علوم رفتاری در دانشگاه استنفورد، گفت: «یکی از کارهای منحصر به فردی که روانشناسان در طول تاریخ ما انجام دادهاند، کشف آسیبهایی است که میتواند ناشی از چیزهایی باشد که به نظر برابر یا منصفانه میآیند.
وقتی صحبت از هوش مصنوعی به میان میآید، روانشناسان این تخصص را دارند که مفروضات مربوط به فناوری جدید را زیر سوال ببرند و تأثیر آن را بر کاربران بررسی کنند.
آیا برای همه سنین و جنسیت ها قابل استفاده است؟
ستومادهاوان گفت روانشناسان می توانند به شرکت ها کمک کنند تا ارزش ها، انگیزه ها، انتظارات و ترس های گروه های مختلف را که ممکن است تحت تأثیر فناوری های جدید قرار گیرند، درک کنند. آنها همچنین می توانند بر اساس عواملی مانند جنسیت، اصل و نسب، سن، شخصیت، سال ها تجربه کاری، دیدگاه های مربوط به حریم خصوصی، تنوع عصبی و غیره به استخدام شرکت کنندگان با دقت کمک کنند.
با در نظر گرفتن این اصول، Sethumadhavan دیدگاه های ذینفعان مختلف تحت تاثیر را برای شکل دادن مسئولانه به محصولات ترکیب کرده است. به عنوان مثال، برای یک ویژگی جدید تبدیل متن به گفتار، او با صداپیشگان و افراد دارای اختلالات گفتاری مصاحبه کرد تا فواید و مضرات فناوری جدید را درک کند و به آن بپردازد. تیم او متوجه شد که افرادی که دارای اختلالات گفتاری هستند در مورد استفاده از این محصول برای افزایش اعتماد به نفس خود در طول مصاحبه و حتی برای قرار ملاقات خوش بین هستند و صداهای مصنوعی با قابلیت تغییر در طول زمان بهتر به کودکانی که از این سرویس استفاده می کنند خدمات می دهند. او همچنین از روشهای نمونهگیری که اغلب توسط روانشناسان استفاده میشود برای افزایش بازنمایی آمریکاییهای آفریقایی تبار در مجموعه دادههای تشخیص گفتار استفاده کرده است.
ستومادهاوان گفت: «علاوه بر این، مهم است که دیدگاههای افرادی را که به صورت پیرامونی در چرخه زندگی توسعه هوش مصنوعی درگیر هستند، بیاوریم، از جمله افرادی که دادهها را ارائه میکنند (مانند تصاویر چهرهشان برای آموزش سیستمهای تشخیص چهره)، مدیرانی که جمع آوری داده ها و غنی سازی متخصصانی که به داده ها برچسب می زنند (مانند فیلتر کردن محتوای نامناسب).
روانشناسان همچنین به بررسی دقیق تعامل انسان و ماشین می پردازند تا بفهمند مردم چگونه هوش مصنوعی را درک می کنند و چنین ادراکاتی چه تأثیرات موجی می تواند در جامعه داشته باشد. یک مطالعه توسط یوچانان بیگمن، روانشناس، دکترا، استادیار دانشگاه عبری اورشلیم، نشان داد که افراد از نظر اخلاقی کمتر به دلیل تبعیض جنسیتی ناشی از یک الگوریتم به جای تبعیض ایجاد شده توسط انسان ها خشمگین می شوند (Journal of Experimental Psychology: General, Vol . 152، شماره 1، 2023 ). شرکت کنندگان در مطالعه همچنین احساس کردند که شرکت ها مسئولیت قانونی کمتری در قبال تبعیض الگوریتمی دارند.
در مطالعه ای دیگر، بیگمن و همکارانش تعاملات را در هتلی در مالزی که هم ربات و هم از کارگران انسانی استخدام می کرد، تجزیه و تحلیل کردند. پس از تعامل مهمانان هتل با کارگران روبات، آنها با کارگران انسانی با احترام کمتری برخورد کردند (کاغذ کاری).
او گفت: “یک اثر سرریز وجود داشت، جایی که ناگهان ما این عوامل را داریم که ابزار هستند و می توانند باعث شوند که انسان ها را نیز ابزار ببینیم.”
ستومادهوان گفت: سؤالات زیادی در مورد اینکه چه چیزی باعث اعتماد یا تکیه افراد به هوش مصنوعی می شود باقی می ماند و پاسخ به آنها در محدود کردن آسیب ها از جمله انتشار اطلاعات نادرست بسیار مهم است. بیگمن گفت، تنظیمکنندهها همچنین در حال تقلا هستند تا تصمیم بگیرند که چگونه قدرت هوش مصنوعی را مهار کنند و چه کسی مسئولیت آن را بر عهده میگیرد.
او گفت: “اگر انسانی علیه من تبعیض قائل شود، می توانم از آنها شکایت کنم.” “اگر هوش مصنوعی علیه من تبعیض قائل شود، اثبات آن برای من چقدر آسان خواهد بود؟”
هوش مصنوعی در کلینیک
تمرین روانشناسی برای نوآوری های هوش مصنوعی آماده است – از جمله چت ربات های درمانی، ابزارهایی که یادداشت برداری و سایر وظایف اداری را خودکار می کنند، و آموزش و مداخلات هوشمندانه تر – اما پزشکان به ابزارهایی نیاز دارند که بتوانند درک کنند و به آنها اعتماد کنند.
در حالی که رباتهای گفتگو فاقد زمینه، تجربه زندگی و تفاوتهای شفاهی درمانگرهای انسانی هستند، اما پتانسیل پر کردن شکافها در ارائه خدمات سلامت روان را دارند.
جکسون گفت: «نکته اصلی این است که ما ارائه دهندگان کافی نداریم. «در حالی که درمان باید برای همه باشد، اما همه به آن نیاز ندارند. چت ربات ها می توانند یک نیاز را برطرف کنند. برای برخی از نگرانی های مربوط به سلامت روان، مانند مشکلات خواب یا ناراحتی مرتبط با درد مزمن، آموزش از طریق ربات چت می تواند کافی باشد.
رباتهای گفتگو علاوه بر مقرونبهصرفهتر کردن و در دسترستر کردن حمایت از سلامت روان، میتوانند به افرادی که ممکن است از درمانگر انسانی دوری کنند، مانند افرادی که تازه وارد درمان شدهاند یا افرادی که دارای اضطراب اجتماعی هستند، کمک کند.
آیا هوش مصنوعی به فرهنگ توجه می کند؟
جکسون گفت، آنها همچنین فرصتی را برای این رشته فراهم می کنند تا خود را دوباره تجسم کند – برای ساخت عمدی هوش مصنوعی با قابلیت فرهنگی که می تواند روانشناسی را فراگیرتر کند.
جکسون گفت: نگرانی من این است که هوش مصنوعی فراگیر نباشد. “هوش مصنوعی، در پایان روز، باید آموزش داده شود. چه کسی آن را برنامه نویسی می کند؟»
سایر نگرانی های جدی شامل رضایت آگاهانه و حفظ حریم خصوصی بیمار است. آیا کاربران درک می کنند که الگوریتم چگونه کار می کند و چه اتفاقی برای داده های آنها می افتد؟ در ماه ژانویه، سازمان غیرانتفاعی سلامت روان Koko پس از ارائه مشاوره به 4000 نفر بدون اینکه به آنها بگوید پشتیبانی ChatGPT-3 به آنها ارائه شده بود، دست به کار شد. گزارشهایی نیز ظاهر شده است که دریافت درمان از مدلهای زبانی زاینده (که متن متفاوتی را در هر تعامل تولید میکند و آزمایش اعتبار یا ایمنی بالینی را دشوار میکند) منجر به خودکشی و آسیبهای دیگر شده است .
اما روانشناسی داستان های موفقیت آمیز هوش مصنوعی نیز دارد. ربات چت Wysa از هوش مصنوعی مولد استفاده نمی کند، اما تعاملات را به اظهاراتی که توسط درمانگرهای انسانی پیش نویس یا تایید شده است محدود می کند. Wysa آدرسهای ایمیل، شماره تلفن یا نامهای واقعی را جمعآوری نمیکند و اطلاعاتی را که کاربران به اشتراک میگذارند که میتواند به شناسایی آنها کمک کند را ویرایش میکند.
این اپلیکیشن که درمان شناختی رفتاری را برای اضطراب و درد مزمن ارائه میکند، از سازمان غذا و داروی ایالاتمتحده نشاندهنده دستگاهی موفق دریافت کرده است. میتوان از آن بهعنوان یک ابزار مستقل استفاده کرد یا در درمان سنتی ادغام شود، جایی که پزشکان میتوانند پیشرفت بیماران خود را در بین جلسات، مانند عملکرد در تمرینات بازفراز شناختی، نظارت کنند.
هوش مصنوعی در روانشناسی قرار نیست جایگزین روانشناسان یا حمایت انسانی شود. این یک راه جدید برای دریافت حمایت است.
هوش مصنوعی همچنین پتانسیل افزایش کارایی در کلینیک را با کاهش بار وظایف اداری دارد. ابزارهای پردازش زبان طبیعی مانند Eleos می توانند به جلسات گوش دهند، یادداشت برداری کنند و موضوعات و خطرات را برای تمرین کنندگان برجسته کنند. سایر وظایف مناسب برای اتوماسیون شامل تجزیه و تحلیل ارزیابی ها، ردیابی علائم بیمار و مدیریت تمرین است.
اطلاعات دریافتی کاربران توسط دولت ها
قبل از ادغام ابزارهای هوش مصنوعی در گردش کار خود، بسیاری از پزشکان اطلاعات بیشتری در مورد نحوه مدیریت داده های بیمار و استفاده از چه برنامه هایی ایمن و اخلاقی می خواهند. ماینر گفت که این زمینه همچنین نیاز به درک بهتری از میزان خطا و انواع خطاهایی دارد که این ابزارها انجام می دهند. این میتواند کمک کند تا اطمینان حاصل شود که این ابزارها گروههایی را که قبلاً از سیستمهای پزشکی کنار گذاشته شدهاند، محروم نمیکنند، مانند افرادی که انگلیسی به عنوان زبان دوم صحبت میکنند یا از اصطلاحات فرهنگی پریشانی استفاده میکنند.
ماینر و همکارانش همچنین از هوش مصنوعی برای اندازهگیری آنچه در جلسات درمانی به خوبی کار میکند و برای شناسایی زمینههای بهبود برای کارآموزان استفاده میکنند ( npj Mental Health Research , Vol. 1, No. 19, 2022 ). برای مثال، مدلهای زبان طبیعی میتوانند هزاران ساعت از جلسات درمانی را جستجو کنند و فرصتهای از دست رفته را برای تأیید اعتبار بیمار یا شکست در پرسیدن سؤالات کلیدی، مانند اینکه آیا بیمار خودکشی در خانه سلاح گرم دارد یا خیر، نشان دهد. نرم افزارهای آموزشی در این راستا، مانند Lyssn – که ارائه دهندگان را بر اساس پایبندی آنها به پروتکل های مبتنی بر شواهد ارزیابی می کند – شروع به ورود به بازار کرده است.
ماینر گفت: «از نظر من، هوش مصنوعی واقعاً کار خوبی را انجام میدهد. زیرا لازم نیست کامل باشد و انسان را در صندلی راننده نگه می دارد.
تحول پژوهش
برای محققان، هوش مصنوعی مجموعهای از دادههای جدید در مورد رفتار انسان را باز میکند و قدرت تجزیه و تحلیل آن را فراهم میکند. روانشناسان مدتهاست رفتار را از طریق گزارشهای شخصی و آزمایشهای آزمایشگاهی اندازهگیری کردهاند، اما اکنون میتوانند از هوش مصنوعی برای نظارت بر مواردی مانند فعالیت رسانههای اجتماعی، هزینههای کارت اعتباری، دادههای GPS و معیارهای تلفن هوشمند استفاده کنند.
ساندرا ماتز، روانشناس و محقق شخصیت، دکترا، استادیار دانشکده بازرگانی کلمبیا، گفت: «این در واقع خیلی تغییر میکند، زیرا ناگهان میتوانیم به تفاوتهای فردی در رفتار روزمره نگاه کنیم».
ماتز داده های بزرگ در مورد تجربیات روزمره را با روش های سنتی تر، مانند ارزیابی های لحظه ای زیست محیطی (EMAs) ترکیب می کند. ترکیب این منابع داده میتواند تصویری از نحوه واکنش افراد مختلف به یک موقعیت را ترسیم کند و در نهایت مداخلات شخصی را در بخشها، به عنوان مثال در آموزش و مراقبتهای بهداشتی، شکل دهد.
هوش مصنوعی همچنین فرصت هایی را برای نظارت غیرفعال باز می کند که ممکن است جان افراد را نجات دهد. دکتر Ross Jacobucci و دکتر Brooke Ammerman، هر دو استادیار روانشناسی در دانشگاه نوتردام، در حال آزمایش الگوریتمی هستند که تصاویری از فعالیت آنلاین بیماران را جمعآوری میکند تا استفاده یا مشاهده اصطلاحات مربوط به خودکشی و خودزنی را علامتگذاری کند. . با جفت کردن این داده ها با EMA و معیارهای فیزیولوژیکی یک ساعت هوشمند، آنها امیدوارند ابزاری بسازند که بتواند پزشکان را در زمان واقعی در مورد خطر خودکشی بیماران آگاه کند.
جاکوبوچی گفت: «غاز طلایی حسگر منفعل است. چگونه میتواند اطلاعاتی را به شما بدهد، نه تنها چه کسانی در معرض خطر هستند، بلکه مهمتر از آن، زمانی که آنها در معرض خطر هستند؟»
مدلهای پردازش زبان طبیعی نیز برای محققان مفید است. تیمی در دانشگاه Drexel در فیلادلفیا نشان داده اند که GPT-3 می تواند زوال عقل را با تجزیه و تحلیل الگوهای گفتاری پیش بینی کند ( Agbavor, F., & Liang, H., PLOS Digital Health , Vol. 1, No. 12, 2022 ). روانشناسان شناختی در حال آزمایش عملکرد GPT در آزمایشات متعارف هستند تا در مورد اینکه چگونه توانایی های استدلالی آن با انسان مقایسه می شود بیشتر بیاموزند ( Binz, M., & Schulz, E., PNAS , Vol. 120, No. 6, 2023 ). گریفیث از GPT به عنوان ابزاری برای درک محدودیت های زبان انسان استفاده می کند .
گریفیث گفت: «این مدل ها می توانند کارهای زیادی را انجام دهند که بسیار چشمگیر هستند. اما اگر میخواهیم در واگذاری وظایف به آنها احساس امنیت کنیم، باید بیشتر بدانیم که آنها چگونه جهان را نمایندگی میکنند – و اینکه چگونه ممکن است با طرز فکر ما در مورد آن متفاوت باشد – قبل از اینکه به مشکل تبدیل شود.
با جعبه ابزار خود برای درک سیستم های هوشمند، روانشناسان در موقعیت عالی برای کمک هستند. یک سوال بزرگ در حال حرکت این است که چگونه دانشجویان فارغ التحصیل را برای همکاری موثرتر با دانشمندان رایانه ای که مدل های هوش مصنوعی می سازند آماده کنیم.
جاکوبوچی گفت: “افراد روانشناسی اصطلاحات تخصصی علوم کامپیوتر و بالعکس را نمی دانند – و افراد بسیار کمی در تقاطع این دو رشته وجود دارند.”
در نهایت، هوش مصنوعی چالش هایی را برای روانشناسان ایجاد می کند، اما مواجهه با این چالش ها پتانسیل تغییر این حوزه را دارد.
جوشی گفت: “هوش مصنوعی هرگز به طور کامل جایگزین انسان نخواهد شد، اما ممکن است ما را ملزم کند که آگاهی خود را افزایش دهیم و خود را در مورد چگونگی استفاده ایمن از آن آموزش دهیم.” “اگر ما این کار را انجام دهیم، هوش مصنوعی می تواند بازی را برای روانشناسی به طرق مختلف ارتقا دهد.”
این محتوا به دلیل تنظیمات حریم خصوصی شما غیرفعال شده است. برای فعال کردن مجدد، لطفاً تنظیمات برگزیده کوکی خود را تنظیم کنید.
پیشنهاد اساتید دانشگاه
روانشناسان بالینی و روان درمانگرانی که وارد بازار کار می شوند با چالش های جدیدی مواجه خواهند شد که ناشی از ظهور ابزارهای جدید سلامت الکترونیک مبتنی بر هوش مصنوعی، یادگیری ماشینی و تجزیه و تحلیل داده های بزرگ است. اگرچه اکثر دانش آموزان در نظرسنجی ما در مورد “یادگیری ماشینی” شنیده بودند و در مورد AI / ML در مقالات مجلات خوانده بودند، تنها نیمی از پاسخ دهندگان قصد داشتند در مورد AI / ML به عنوان مراقبت از سلامت روان اطلاعات بیشتری کسب کنند. مهمتر از همه، اکثر دانشجویان موافق بودند که بحث در مورد AI/ML باید بخشی از آموزش روانشناسی بالینی/روان درمانی باشد. با این حال، آنها تخمین زدند که تنها 0.52٪ از کل مدرک تحصیلی خود (18.61/3600 ساعت) به این موضوعات اختصاص خواهد یافت. به نظر می رسد این نتایج با روندهای فعلی در تضاد است. روانشناسان/روان درمانگران بالینی و همچنین بیماران/مشتریان می توانند به هزاران ابزار دیجیتال دسترسی داشته باشند. خدمات آنلاین و برنامه های تلفن همراه مبتنی بر هوش مصنوعی / ML که به طور خاص برای ادغام یا جایگزینی خدمات یا مشاوره های سنتی مراقبت از سلامت روان طراحی شده اند. با انتشار ابزارها و خدمات جدید و پیشرفته AI/ML، تأثیر این فناوری ها بر مراقبت های بهداشتی روانی افزایش می یابد.
ما پیشنهاد میکنیم که برنامههای درسی روانشناسی بالینی/رواندرمانی باید این چالشهای جدید را در آموزش پزشکان فردا بپذیرند. دوره ها ممکن است برای آموزش روانشناسان بالینی و روان درمانگران در مورد نحوه راهنمایی و کمک به ثبت اختراعات در “دانش دیجیتالی” – و در انتخاب آگاهانه در مورد ابزارها و خدمات AI/ML موجود طراحی شوند. با در نظر گرفتن این موضوع، ما نیاز به رویکردهای بین رشته ای را برای آموزش روان درمانی در نظر می گیریم. به عنوان مثال، روان درمانگران با پیشینه کامپیوتر/انفورماتیک، و متخصصان اخلاق روان درمانی با آموزش مراقبت های بهداشتی دیجیتال باید دوره های کوتاه مربوطه را برای دانش آموزان و توسعه حرفه ای مستمر تدارک ببینند. برنامه های درسی دوره باید شامل دستورالعمل هایی در مورد اینکه چه زمانی بیماران ممکن است از استفاده از برنامه ها سود ببرند و/یا چه زمانی باید استفاده کنند، باشد. با درمانگران، حضوری مشورت کنید. بنابراین، دوره ها باید شامل بحث در مورد اثربخشی مبتنی بر شواهد و ایمنی برنامه های بهداشت روان، و همچنین در مورد سایر مسائل ظریف اخلاقی و قانونی مربوط به حریم خصوصی، برابری و تبعیض باشند. پزشکان و دانشجویان رواندرمانی باید احساس کنند که در جریان پیشرفتهای فنآوری جدید از جمله معنای این پیشرفتها برای حرفه و بیمارانشان هستند.
منابع
How to use ChatGPT as a learning tool
Abramson, A., Monitor on Psychology, June 2023
Improving psychotherapy with AI: From the couch to the keyboard
Allen, S., IEEE Pulse, November 3, 2022