چگونه فناوری مجهز به هوش مصنوعی می تواند به پزشکان در تشخیص بهتر مسائل مربوط به سلامت روان کمک کند


وقتی دوست امیلیا مولیمپاکیس چند سال پیش اقدام به خودکشی کرد، از خود پرسید که چه اتفاقی می افتاد اگر دوستش زودتر از سلامت روان کمک می گرفت.

او گفت: “در واقع نمی‌توانستم بفهمم یا بفهمم که چرا روانپزشک او واقعاً نمی‌تواند این اتفاق را ببیند – و او در واقع دو روز قبل او را دیده بود.” جاری میزبان مهمان نهله عید.

آن تجربه آسیب زا منجر به انفجاری از خلاقیت شد. این محقق فوق دکتری علوم اعصاب با انگیزه پر کردن شکاف های موجود در درمان سلامت روان با استفاده از فناوری، سمت خود را در دانشگاه کالج لندن ترک کرد.

بلافاصله پس از آن، او شرکت Thymia را تأسیس کرد، که از بازی‌های ویدیویی برای جمع‌آوری داده‌هایی در مورد نحوه تعامل افراد با صفحه‌نمایششان استفاده می‌کند – و این که در مورد افسردگی آنها چه می‌تواند بگوید.

او گفت: «مفهوم Thymia همین بازی‌های ویدیویی است که ما طراحی می‌کنیم، آنها کاملاً بر اساس پروتکل‌های تجربی کلاسیک هستند که در هزاران کارآزمایی بالینی و آزمایش‌های تحقیقاتی آزمایش و تأیید شده‌اند.

هر بازی اساساً یک آزمایش علمی است و ما فقط یک لایه گرافیکی بسیار زیبا در بالای آن قرار داده‌ایم و بیماران را وادار می‌کنیم تا با آن درگیر شوند.»

Emilia Molimpakis، یکی از بنیانگذاران Thymia، گفت که شرکت او از بازی های ویدئویی مجهز به هوش مصنوعی برای کمک به پزشکان در تشخیص مشکلات سلامت روان مانند افسردگی استفاده می کند. (ارسال شده توسط امیلیا ملمپاکیس)

Thymia تنها بخشی از یک جنبش بزرگتر در صنعت سلامت روان برای به کارگیری هوش مصنوعی به منظور رسیدگی به سلامت روان است. مدافعان می گویند این جنبش می تواند انقلابی در نحوه تشخیص و درمان جامعه مواردی مانند افسردگی و روان پریشی به ویژه پس از همه گیری COVID-19 ایجاد کند.

دکتر شان کید، دانشمند ارشد مرکز اعتیاد و سلامت روان، گفت: “من فکر می کنم مردم نسبت به این ایده بسیار بازتر شدند و من فکر می کنم که ارائه دهندگان نیز در استفاده از فناوری برای تسهیل این تعاملات بازتر شدند.” یکی از بنیانگذاران اپلیکیشن موبایل مبتنی بر اسکیزوفرنی App4Independence.

ما هم گشودگی بیشتری برای استفاده از فناوری داریم و هم نیاز بیشتری در بسیاری از جوامع داریم.»

تماشا کنید: انجام بازی های ویدیویی با تمرکز بر سلامت روان

بیایید بازی کنیم: بازی های ویدیویی با تمرکز بر سلامت روان

Sea of ​​Solitude، Hellblade: Senua’s Sacrifice و Celeste از جمله ژانرهای رو به رشدی از بازی ها هستند که به گفته کارشناسان می تواند برای بازیکنانی که با افسردگی و اضطراب دست و پنجه نرم می کنند، درمانی باشد. طراح داستان کیتلین ترمبلی و استاد طراحی بازی ساندرا دانیلوویچ به جاناتان اوره از CBC می‌پیوندند تا آنها را امتحان کنند.

یک ابزار اضافی

Kidd’s App4Independence که با نام A4i نیز شناخته می شود، یک سرمایه گذاری مشترک بین CAMH و پلتفرم مشارکت بیمار مبتنی بر هوش مصنوعی MEMOTEXT است.

کید گفت که این یک برنامه مبتنی بر شواهد است که به بیماران کمک می کند به صورت مجازی و ناشناس با ارائه دهندگان مراقبت های بهداشتی ارتباط برقرار کنند، در حالی که ابزارهایی برای کاهش انزوا و ارائه پشتیبانی ارائه می دهد.

او گفت: «تنها درصد بسیار کمی از افراد مبتلا به روان پریشی، به عنوان مثال، درمان شناختی رفتاری فردی یا گروهی را برای روان پریشی دریافت می کنند. “با این چالش دسترسی، ابزارهایی مانند این می توانند ارائه دهند [cognitive behavioural therapy-based] تذکرات و پیشنهادات به فرد.”

به گفته کید، زمانی که منابع موجود برای افراد مبتلا به مشکلات سلامت روان هنوز بسیار کمیاب است، این امر به ویژه در حال حاضر بسیار مهم است.

او گفت: «حتی اگر شخصی به روان درمانی فردی یا گروهی و تماس مکرر با روانپزشک دسترسی داشته باشد… باز هم فاصله‌ها و زمان‌هایی بین این تماس‌ها وجود دارد که می‌خواهید از وضعیت یک فرد مطلع شوید.»

دکتر شان کید، روانشناس بالینی و دانشمند در CAMH، می گوید App4Independence یک برنامه مبتنی بر شواهد است که به بیماران کمک می کند به صورت مجازی و ناشناس به ارائه دهندگان مراقبت های بهداشتی متصل شوند، در حالی که ابزارهایی برای کاهش انزوا و ارائه پشتیبانی ارائه می دهد. (CAMH)

به گفته مولیمپاکیس، یکی از این شکاف ها کمبود کلی ابزار در دسترس روانپزشکان برای تشخیص بیماری های سلامت روان است.

او گفت: «آنها واقعاً ابزارهای موجود دیگری به جز این پرسشنامه‌هایی که معمولاً استفاده می‌کنند، ندارند.

“بنابراین به عنوان مثال، اگر پزشک مشکوک به افسردگی باشد، ممکن است بگوید، “در مقیاس 1 تا 4، آیا می توانید به من بگویید در دو هفته گذشته چقدر خودکشی کرده اید؟” که کاملاً یک سؤال پیشرو است.”

مولیمپاکیس گفت فناوری هایی مانند Thymia همچنین می تواند به افزایش ظرفیت مشاهده پزشک کمک کند و مسیر واضح تر و عینی تری از تغییرات در الگوی رفتاری افراد را حفظ کند – مانند سرعت صحبت کردن یا تکان دادن آنها، که ممکن است توسط پزشک نادیده گرفته شود.

“Thymia فقط این چیزها را به روشی بسیار عینی تر اندازه گیری می کند [saying] این میزان گفتار برای این شخص است. بیایید آن را با یک ماه پیش مقایسه کنیم،» او گفت: «و این حالت چهره آنها از نظر طیف وسیعی از احساسات است. بیایید ببینیم آیا این با آنچه چند هفته پیش بود متفاوت است یا خیر.

کاری که ما انجام می دهیم در واقع… شفاف سازی عینی تر اقداماتی است که کلینیک ها ذاتاً مهم هستند.-امیلیا مولیمپاکیس

با این اوصاف، Molimpakis روشن می‌کند که ابزارهایی مانند Thymia برای جایگزینی پزشکان یا پرسش‌نامه‌های موجود آن‌ها نیست – و همچنین سعی نمی‌کنند ادعا کنند که می‌توانند وظایف پزشکان را بهتر از آنها انجام دهند. او گفت، در عوض، آنها “به طور عینی تر اقداماتی را که پزشکان ذاتا می دانند مهم هستند، روشن می کنند.”

دکتر دیوید گراتزر، روانپزشک در CAMH، این ابزارها را با برخی از ابزارهای کمکی موجود در خودروهای مدرن مقایسه می کند.

“[It’s] همانطور که اکنون برخی از خودروها می توانند به شما بگویند که آیا وقتی می خواهید بپیچید ماشین دیگری در نقطه کور شما وجود دارد یا … خیلی سریع می روید یا شرایط لغزنده است.” او گفت: “شما به عنوان راننده. به رانندگی خود ادامه دهید، اما به شما کمک می شود.»

دکتر دیوید گراتزر می گوید اگرچه او فکر می کند پتانسیل پیشرفت فن آوری برای نظارت بر سلامت روانی افراد وجود دارد، اما دکتر دیوید گراتزر می گوید که کاربران باید مراقب باشند که اطلاعات خصوصی و پزشکی خود را به کدام ابزار می دهند. (تالیا ریچی/CBC)

احترام به حریم خصوصی بیمار

اما درست مانند اینکه یک خودرو در مورد اینکه وسیله نقلیه دیگری در نقطه کور خود قرار دارد اشتباه می کند، گراتزر گفت که این ابزارها نیز می توانند نادرست یا معیوب باشند، “به همین دلیل است که بسیار مهم است که در مورد این آزمایش ها محتاط باشیم.”

یکی از احتیاط هایی که او می گوید باید جدی گرفته شود حفظ حریم خصوصی است. مطابق با مطالعه ای که در مجله انجمن پزشکی آمریکا منتشر شده است، 29 از 36 اپلیکیشنی که به افراد مبتلا به افسردگی و ترک سیگار کمک می کند، اطلاعات بیماران را به اشخاص ثالث فروخته است.

“این یک میدان غیرقانونی است. وعده ها بزرگ هستند. به صراحت، نیاز بیمار، و گاهی اوقات ناامیدی، عالی است. ما باید در اینجا محتاط باشیم.”

برخی به سود سریع علاقه مند هستند. دیگران حسن نیت هستند، اما شاید آنطور که ما امیدوار بودیم ریشه در شواهد نداشته باشند.-دکتر. دیوید گراتزر

کید با Gratzer در مورد نیاز به دقت و مراقبت در مورد نحوه استفاده برنامه هایی مانند A4i از داده های بیمار موافق است.

به همین دلیل است که کید و تیمش هدف خود را شفاف سازی با کاربران مبتلا به بیماری های روان پریشی، اعضای خانواده و ارائه دهندگان مراقبت در مورد نوع داده هایی که جمع آوری می شود و نحوه استفاده از آن ها مشخص کردند.

علاوه بر این، برنامه A4i توسط دفتر حفظ حریم خصوصی CAMH و همچنین یک شخص ثالث بررسی شده است.

با این حال، گراتزر گفت که افراد و شرکت‌های مختلفی در این جنبش دخیل هستند و افرادی که برای کمک به مراقبت از آنها به فناوری روی می‌آورند، باید مراقب باشند که اطلاعات شخصی خود را به چه کسانی می‌دهند.

او گفت: “برخی به سود سریع علاقه مند هستند. برخی دیگر دارای حسن نیت هستند، اما شاید آنطور که ما امیدوار بودیم ریشه در شواهد نداشته باشند.”

با وجود سیب های بد، گراتزر معتقد است این فناوری ها “پتانسیل فوق العاده ای” دارند.

او گفت: “به عنوان یک ارائه دهنده مراقبت های بهداشتی، مشتاقانه منتظر اطلاعات بیشتر و بهتر برای بیمارانم هستم تا بتوانیم با هم تصمیمات بهتری بگیریم.” «اگر بخشی از آن را بتوان تحمل کرد از هوش مصنوعی، عالی اما ما باید محتاط باشیم.”


اگر شما یا کسی که می‌شناسید مشکل دارد، در اینجا می‌توانید کمک بگیرید:

این راهنما از مرکز اعتیاد و سلامت روان نحوه صحبت درباره خودکشی با کسی که نگرانش هستید را تشریح می کند.


نوشته شده توسط محمد راچینی. تهیه کننده آلیسون ماسمن.