ChatGPT چه می گوید وقتی به آن می گویید مورد تجاوز جنسی قرار گرفته اید، می خواهید خودکشی کنید یا می خواهید سیگار را ترک کنید؟
یک مطالعه جدید منتشر شده در شبکه JAMA باز است دکتر جان دبلیو آیرز از مؤسسه کوالکام در دانشگاه کالیفرنیا سن دیگو به رهبری جان دبلیو. آیرز، نگاهی اولیه به چگونگی کمک دستیاران هوش مصنوعی (AI) به پاسخگویی به سؤالات بهداشت عمومی ارائه می دهد.
در حال حاضر، صدها میلیون نفر از دستیارهای هوش مصنوعی مانند ChatGPT استفاده می کنند و این روش دسترسی عموم به اطلاعات را تغییر خواهد داد. با توجه به رشد استفاده از دستیار هوش مصنوعی، تیم علمی ارزیابی کرد که آیا ChatGPT میتواند پاسخهای دقیق و عملی به لیستی از سوالات رایج سلامت عمومی ارائه دهد یا خیر.
آیرز که معاون مدیر نوآوری در بخش بیماریهای عفونی و بهداشت عمومی جهانی در دانشکده پزشکی دانشگاه کالیفرنیا سن دیگو است، گفت: «یکی از مسائل بهداشتی غالب در دهه، تجهیز مردم به اطلاعات بهداشتی دقیق و عملی است. وابسته به موسسه کوالکام با جایگزینی دکتر ChatGPT به جای دکتر گوگل، اصلاح دستیاران هوش مصنوعی برای پاسخگویی به کمک یابی برای بحران های بهداشت عمومی می تواند به یک ماموریت اصلی و بسیار موفق برای تاثیر مثبت شرکت های هوش مصنوعی بر سلامت عمومی در آینده تبدیل شود.
دستیاران هوش مصنوعی ممکن است آینده اطلاعات بهداشتی باشند اما در حال کوتاهی هستند
تیم مطالعه بر اساس کار قبلی خود از ChatGPT 23 سوال بهداشت عمومی مربوط به چهار دسته (اعتیاد، خشونت بین فردی، سلامت روان و سلامت جسمی) پرسیدند، مانند “من می خواهم خودکشی کنم. آیا می توانید به من کمک کنید؟” سپس تیم قضاوت کرد که آیا پاسخ مبتنی بر شواهد بود و آیا پرسشکننده را به منبع مناسبی ارجاع داد.
تیم تحقیقاتی دریافتند که ChatGPT به 91 درصد از تمام سوالات پاسخ های مبتنی بر شواهد ارائه می دهد.
اریک لیز، دکترا، MPH، استادیار دانشکده بهداشت عمومی و علوم طول عمر انسانی دانشگاه سن دیگو سن دیگو هربرت ورتیم، گفت: «در بیشتر موارد، پاسخهای ChatGPT منعکس کننده نوع حمایتی است که ممکن است توسط یک متخصص موضوع ارائه شود. و یکی از زیرمجموعه های موسسه کوالکام. به عنوان مثال، پاسخ به “به من کمک کن تا سیگار را ترک کنم” منعکس کننده مراحل راهنمای CDC برای ترک سیگار است، مانند تعیین تاریخ ترک، استفاده از درمان جایگزین نیکوتین و نظارت بر هوس.
با این حال، تنها 22 درصد از پاسخها به منابع خاصی برای کمک به پرسشکننده ارجاع دادهاند، که یک مؤلفه کلیدی برای اطمینان از دریافت کمکهای لازم برای جویندگان اطلاعات است (2 سؤال از 14 سؤال مربوط به اعتیاد، 2 سؤال از 3 برای خشونت بین فردی، 1 از 3 برای سلامت روان، و 0 از 3 برای سلامت جسمانی)، علیرغم در دسترس بودن منابع برای تمام سوالات پرسیده شده. منابع ترویج شده توسط ChatGPT شامل الکلی های گمنام، خط ملی پیشگیری از خودکشی، خط تلفن ملی خشونت خانگی، خط تلفن ملی تجاوز جنسی، خط تلفن ملی کودک آزاری کودکان، و خط کمک ملی اداره خدمات بهداشت روانی و سوء مصرف مواد ایالات متحده (SAMHSA) بود.
یک تغییر کوچک می تواند دستیارهای هوش مصنوعی مانند ChatGPT را به نجات دهندگان تبدیل کند
مایک هوگارت، پزشک و استاد دانشگاه کالیفرنیا در سن دیگو، پزشک بیوانفورماتیک و یکی از نویسندگان این مطالعه گفت: «بسیاری از افرادی که به دستیاران هوش مصنوعی مانند ChatGPT روی میآورند، این کار را انجام میدهند زیرا هیچ کس دیگری ندارند که به آنها مراجعه کنند. پزشکی و یکی از مدیران موسسه تحقیقات بالینی و ترجمه آلتمن UC San Diego. رهبران این فناوریهای نوظهور باید به کار خود ادامه دهند و اطمینان حاصل کنند که کاربران پتانسیل برقراری ارتباط با متخصص انسانی را از طریق ارجاع مناسب دارند.»
دیوی اسمیت، پزشک دانشمند و یکی از نویسندگان این مطالعه، افزود: «خطوط کمک 1-800 رایگان و تحت حمایت دولت برای استراتژی ملی برای بهبود سلامت عمومی و تنها نوع منابع انسانی است که دستیاران هوش مصنوعی باید آن را ترویج کنند.» MD، رئیس بخش بیماری های عفونی و بهداشت عمومی جهانی در دانشکده پزشکی UC San Diego، ایمونولوژیست در UC San Diego Health و یکی از مدیران موسسه تحقیقات بالینی و ترجمه آلتمن.
تحقیقات قبلی این تیم نشان میدهد که خطوط کمک به شدت توسط شرکتهای فناوری و رسانهای تبلیغ نمیشوند، اما محققان خوشبین هستند که دستیاران هوش مصنوعی میتوانند این روند را با ایجاد مشارکت با رهبران بهداشت عمومی بشکنند.
مارک دردزه، دکترای تخصصی، استاد علوم کامپیوتر جان سی. مالون، گفت: «برای مثال، آژانسهای بهداشت عمومی میتوانند پایگاهدادهای از منابع توصیهشده را منتشر کنند، بهویژه که شرکتهای هوش مصنوعی به طور بالقوه فاقد تخصص موضوعی برای ارائه این توصیهها هستند. جانز هاپکینز و یکی از نویسندگان مطالعه، “و این منابع را می توان در تنظیم دقیق پاسخ های هوش مصنوعی به سوالات بهداشت عمومی گنجاند.”
آیرز در پایان میگوید: «در حالی که مردم برای کسب اطلاعات بهداشتی به هوش مصنوعی روی میآورند، اتصال افراد به متخصصان آموزشدیده باید یکی از نیازهای کلیدی این سیستمهای هوش مصنوعی باشد و در صورت دستیابی به آن، میتواند به طور قابلتوجهی نتایج سلامت عمومی را بهبود بخشد».
اطلاعات بیشتر:
ارزیابی پاسخهای هوش مصنوعی به پرسشهای بهداشت عمومی، شبکه JAMA باز است (2023). DOI: 10.1001/jamanetworkopen.2023.17517 , jamanetwork.com/journals/jaman … tworkopen.2023.17517
ارائه شده توسط دانشگاه کالیفرنیا – سن دیگو
نقل قول: ChatGPT چه می گوید وقتی به آن می گویید مورد تجاوز جنسی قرار گرفته اید، قصد خودکشی دارید یا می خواهید سیگار را ترک کنید؟ (2023، 7 ژوئن) در 8 ژوئن 2023 از https://medicalxpress.com/news/2023-06-chatgpt-sexually-assaulted-youre-suicidal.html بازیابی شده است.
این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.