وقتی دوست امیلیا مولیمپاکیس چند سال پیش اقدام به خودکشی کرد، از خود پرسید که چه اتفاقی می افتاد اگر دوستش زودتر از سلامت روان کمک می گرفت.
او گفت: “در واقع نمیتوانستم بفهمم یا بفهمم که چرا روانپزشک او واقعاً نمیتواند این اتفاق را ببیند – و او در واقع دو روز قبل او را دیده بود.” جاری میزبان مهمان نهله عید.
آن تجربه آسیب زا منجر به انفجاری از خلاقیت شد. این محقق فوق دکتری علوم اعصاب با انگیزه پر کردن شکاف های موجود در درمان سلامت روان با استفاده از فناوری، سمت خود را در دانشگاه کالج لندن ترک کرد.
بلافاصله پس از آن، او شرکت Thymia را تأسیس کرد، که از بازیهای ویدیویی برای جمعآوری دادههایی در مورد نحوه تعامل افراد با صفحهنمایششان استفاده میکند – و این که در مورد افسردگی آنها چه میتواند بگوید.
او گفت: «مفهوم Thymia همین بازیهای ویدیویی است که ما طراحی میکنیم، آنها کاملاً بر اساس پروتکلهای تجربی کلاسیک هستند که در هزاران کارآزمایی بالینی و آزمایشهای تحقیقاتی آزمایش و تأیید شدهاند.
هر بازی اساساً یک آزمایش علمی است و ما فقط یک لایه گرافیکی بسیار زیبا در بالای آن قرار دادهایم و بیماران را وادار میکنیم تا با آن درگیر شوند.»
Thymia تنها بخشی از یک جنبش بزرگتر در صنعت سلامت روان برای به کارگیری هوش مصنوعی به منظور رسیدگی به سلامت روان است. مدافعان می گویند این جنبش می تواند انقلابی در نحوه تشخیص و درمان جامعه مواردی مانند افسردگی و روان پریشی به ویژه پس از همه گیری COVID-19 ایجاد کند.
دکتر شان کید، دانشمند ارشد مرکز اعتیاد و سلامت روان، گفت: “من فکر می کنم مردم نسبت به این ایده بسیار بازتر شدند و من فکر می کنم که ارائه دهندگان نیز در استفاده از فناوری برای تسهیل این تعاملات بازتر شدند.” یکی از بنیانگذاران اپلیکیشن موبایل مبتنی بر اسکیزوفرنی App4Independence.
ما هم گشودگی بیشتری برای استفاده از فناوری داریم و هم نیاز بیشتری در بسیاری از جوامع داریم.»
بیایید بازی کنیم: بازی های ویدیویی با تمرکز بر سلامت روان
یک ابزار اضافی
Kidd’s App4Independence که با نام A4i نیز شناخته می شود، یک سرمایه گذاری مشترک بین CAMH و پلتفرم مشارکت بیمار مبتنی بر هوش مصنوعی MEMOTEXT است.
کید گفت که این یک برنامه مبتنی بر شواهد است که به بیماران کمک می کند به صورت مجازی و ناشناس با ارائه دهندگان مراقبت های بهداشتی ارتباط برقرار کنند، در حالی که ابزارهایی برای کاهش انزوا و ارائه پشتیبانی ارائه می دهد.
او گفت: «تنها درصد بسیار کمی از افراد مبتلا به روان پریشی، به عنوان مثال، درمان شناختی رفتاری فردی یا گروهی را برای روان پریشی دریافت می کنند. “با این چالش دسترسی، ابزارهایی مانند این می توانند ارائه دهند [cognitive behavioural therapy-based] تذکرات و پیشنهادات به فرد.”
به گفته کید، زمانی که منابع موجود برای افراد مبتلا به مشکلات سلامت روان هنوز بسیار کمیاب است، این امر به ویژه در حال حاضر بسیار مهم است.
او گفت: «حتی اگر شخصی به روان درمانی فردی یا گروهی و تماس مکرر با روانپزشک دسترسی داشته باشد… باز هم فاصلهها و زمانهایی بین این تماسها وجود دارد که میخواهید از وضعیت یک فرد مطلع شوید.»
به گفته مولیمپاکیس، یکی از این شکاف ها کمبود کلی ابزار در دسترس روانپزشکان برای تشخیص بیماری های سلامت روان است.
او گفت: «آنها واقعاً ابزارهای موجود دیگری به جز این پرسشنامههایی که معمولاً استفاده میکنند، ندارند.
“بنابراین به عنوان مثال، اگر پزشک مشکوک به افسردگی باشد، ممکن است بگوید، “در مقیاس 1 تا 4، آیا می توانید به من بگویید در دو هفته گذشته چقدر خودکشی کرده اید؟” که کاملاً یک سؤال پیشرو است.”
مولیمپاکیس گفت فناوری هایی مانند Thymia همچنین می تواند به افزایش ظرفیت مشاهده پزشک کمک کند و مسیر واضح تر و عینی تری از تغییرات در الگوی رفتاری افراد را حفظ کند – مانند سرعت صحبت کردن یا تکان دادن آنها، که ممکن است توسط پزشک نادیده گرفته شود.
“Thymia فقط این چیزها را به روشی بسیار عینی تر اندازه گیری می کند [saying] این میزان گفتار برای این شخص است. بیایید آن را با یک ماه پیش مقایسه کنیم،» او گفت: «و این حالت چهره آنها از نظر طیف وسیعی از احساسات است. بیایید ببینیم آیا این با آنچه چند هفته پیش بود متفاوت است یا خیر.
کاری که ما انجام می دهیم در واقع… شفاف سازی عینی تر اقداماتی است که کلینیک ها ذاتاً مهم هستند.-امیلیا مولیمپاکیس
با این اوصاف، Molimpakis روشن میکند که ابزارهایی مانند Thymia برای جایگزینی پزشکان یا پرسشنامههای موجود آنها نیست – و همچنین سعی نمیکنند ادعا کنند که میتوانند وظایف پزشکان را بهتر از آنها انجام دهند. او گفت، در عوض، آنها “به طور عینی تر اقداماتی را که پزشکان ذاتا می دانند مهم هستند، روشن می کنند.”
دکتر دیوید گراتزر، روانپزشک در CAMH، این ابزارها را با برخی از ابزارهای کمکی موجود در خودروهای مدرن مقایسه می کند.
“[It’s] همانطور که اکنون برخی از خودروها می توانند به شما بگویند که آیا وقتی می خواهید بپیچید ماشین دیگری در نقطه کور شما وجود دارد یا … خیلی سریع می روید یا شرایط لغزنده است.” او گفت: “شما به عنوان راننده. به رانندگی خود ادامه دهید، اما به شما کمک می شود.»
احترام به حریم خصوصی بیمار
اما درست مانند اینکه یک خودرو در مورد اینکه وسیله نقلیه دیگری در نقطه کور خود قرار دارد اشتباه می کند، گراتزر گفت که این ابزارها نیز می توانند نادرست یا معیوب باشند، “به همین دلیل است که بسیار مهم است که در مورد این آزمایش ها محتاط باشیم.”
یکی از احتیاط هایی که او می گوید باید جدی گرفته شود حفظ حریم خصوصی است. مطابق با مطالعه ای که در مجله انجمن پزشکی آمریکا منتشر شده است، 29 از 36 اپلیکیشنی که به افراد مبتلا به افسردگی و ترک سیگار کمک می کند، اطلاعات بیماران را به اشخاص ثالث فروخته است.
“این یک میدان غیرقانونی است. وعده ها بزرگ هستند. به صراحت، نیاز بیمار، و گاهی اوقات ناامیدی، عالی است. ما باید در اینجا محتاط باشیم.”
برخی به سود سریع علاقه مند هستند. دیگران حسن نیت هستند، اما شاید آنطور که ما امیدوار بودیم ریشه در شواهد نداشته باشند.-دکتر. دیوید گراتزر
کید با Gratzer در مورد نیاز به دقت و مراقبت در مورد نحوه استفاده برنامه هایی مانند A4i از داده های بیمار موافق است.
به همین دلیل است که کید و تیمش هدف خود را شفاف سازی با کاربران مبتلا به بیماری های روان پریشی، اعضای خانواده و ارائه دهندگان مراقبت در مورد نوع داده هایی که جمع آوری می شود و نحوه استفاده از آن ها مشخص کردند.
علاوه بر این، برنامه A4i توسط دفتر حفظ حریم خصوصی CAMH و همچنین یک شخص ثالث بررسی شده است.
با این حال، گراتزر گفت که افراد و شرکتهای مختلفی در این جنبش دخیل هستند و افرادی که برای کمک به مراقبت از آنها به فناوری روی میآورند، باید مراقب باشند که اطلاعات شخصی خود را به چه کسانی میدهند.
او گفت: “برخی به سود سریع علاقه مند هستند. برخی دیگر دارای حسن نیت هستند، اما شاید آنطور که ما امیدوار بودیم ریشه در شواهد نداشته باشند.”
با وجود سیب های بد، گراتزر معتقد است این فناوری ها “پتانسیل فوق العاده ای” دارند.
او گفت: “به عنوان یک ارائه دهنده مراقبت های بهداشتی، مشتاقانه منتظر اطلاعات بیشتر و بهتر برای بیمارانم هستم تا بتوانیم با هم تصمیمات بهتری بگیریم.” «اگر بخشی از آن را بتوان تحمل کرد از هوش مصنوعی، عالی اما ما باید محتاط باشیم.”
اگر شما یا کسی که میشناسید مشکل دارد، در اینجا میتوانید کمک بگیرید:
این راهنما از مرکز اعتیاد و سلامت روان نحوه صحبت درباره خودکشی با کسی که نگرانش هستید را تشریح می کند.
نوشته شده توسط محمد راچینی. تهیه کننده آلیسون ماسمن.