[ad_1]

الگوریتم

اعتبار: دامنه عمومی Pixabay/CC0

پزشکان بهداشت به طور فزاینده ای نگران هستند که چون نژاد یک سازه اجتماعی است و مکانیسم های بیولوژیکی چگونگی تأثیر نژاد بر نتایج بالینی اغلب ناشناخته است، از جمله نژاد در الگوریتم های پیش بینی برای تصمیم گیری بالینی ممکن است نابرابری ها را بدتر کند.

به عنوان مثال، برای محاسبه تخمینی از عملکرد کلیه به نام نرخ تخمینی فیلتراسیون گلومرولی یا eGFR، ارائه دهندگان مراقبت های بهداشتی از الگوریتمی بر اساس سن، جنس بیولوژیکی، نژاد (سیاه یا غیر سیاه) و کراتینین سرم، که یک محصول زائد کلیه ها است، استفاده می کنند. در خون آزاد شود. مقدار eGFR بالاتر به معنای سلامت بهتر کلیه است. این پیش بینی های eGFR برای تخصیص پیوند کلیه در ایالات متحده استفاده می شود

بر اساس این الگوریتم، که بر روی مقادیر واقعی GFR از بیماران آموزش داده شده است، به یک بیمار سیاه پوست eGFR بالاتری نسبت به یک بیمار غیرسیاه با همان سن، جنس و سطح کراتینین سرم اختصاص داده می شود. این نشان می‌دهد که برخی از بیماران سیاه‌پوست کلیه‌های سالم‌تری نسبت به سایر بیماران غیرسیاه‌پوست مشابه دارند و احتمال کمتری دارد که پیوند کلیه به آنها اختصاص داده شود.

با این حال، در سال 2021، محققان دریافتند که حذف نژاد در معادلات اولیه eGFR می‌تواند منجر به اختلافات بزرگ‌تر بین مقادیر تخمینی و واقعی GFR برای بیماران سیاه‌پوست و غیرسیاه‌پوست شود. آنها همچنین دریافتند افزودن یک نشانگر زیستی اضافی به نام سیستاتین C می تواند پیش بینی ها را بهبود بخشد. با این حال، حتی با این نشانگر زیستی، حذف نژاد از الگوریتم همچنان منجر به افزایش اختلاف در بین نژادها شد.

من یک اقتصاددان و آماردان سلامت هستم که مطالعه می کنم که چگونه عوامل مشاهده نشده در داده ها می تواند منجر به سوگیری هایی شود که منجر به ناکارآمدی، نابرابری و نابرابری در مراقبت های بهداشتی شود. تحقیق من که اخیراً در پیشرفت علم، نشان می دهد که حذف نژاد از الگوریتم های تشخیصی خاص می تواند نابرابری های سلامتی را بدتر کند.

رویکردهای مختلف به عدالت

محققان از چارچوب های اقتصادی مختلفی برای درک چگونگی تخصیص منابع توسط جامعه استفاده می کنند. دو چارچوب کلیدی فایده‌گرایی و برابری فرصت‌ها هستند.

یک دیدگاه صرفاً فایده‌گرایانه به دنبال این است که مشخص کند چه ویژگی‌هایی می‌توانند بیشترین بهره را از یک نتیجه مثبت ببرند یا آسیب ناشی از یک نتیجه منفی را کاهش دهند، بدون توجه به اینکه چه کسی آن ویژگی‌ها را دارد. این رویکرد منابع را به کسانی اختصاص می‌دهد که بیشترین فرصت‌ها را برای ایجاد نتایج مثبت یا کاهش نتایج منفی دارند.

یک رویکرد سودمند همیشه شامل نژاد و قومیت برای بهبود قدرت پیش‌بینی و دقت الگوریتم‌ها است، صرف نظر از اینکه منصفانه باشد یا خیر. به عنوان مثال، سیاست‌های سودمند به حداکثر رساندن بقای کلی در میان افرادی که به دنبال پیوند عضو هستند، خواهد بود. آنها اعضای بدن را به افرادی اختصاص می‌دهند که طولانی‌ترین مدت پس از پیوند زنده می‌مانند، حتی اگر آنهایی که به دلیل شرایط خارج از کنترل آنها طولانی‌ترین عمر را ندارند و به اندام‌ها بیشتر نیاز دارند، بدون پیوند زودتر می‌میرند.

اگرچه رویکردهای سودگرایانه انصاف را در نظر نمی گیرند، رویکردی که دو سوال را مطرح می کند: چگونه انصاف را تعریف کنیم؟ آیا شرایطی وجود دارد که حداکثر کردن قدرت پیش‌بینی و دقت الگوریتم با انصاف در تضاد نباشد؟






الگوریتم های بالینی مغرضانه می تواند منجر به تشخیص نادرست و تاخیر در درمان شود.

برای پاسخ به این سؤالات، چارچوب برابری فرصت را به کار می‌برم، که هدف آن تخصیص منابع به گونه‌ای است که به همه امکان می‌دهد شانس یکسانی برای دستیابی به نتایج مشابه داشته باشند، بدون اینکه تحت تأثیر شرایط خارج از کنترل خود قرار بگیرند. محققان از این چارچوب در زمینه های بسیاری مانند علوم سیاسی، اقتصاد و حقوق استفاده کرده اند. دیوان عالی ایالات متحده نیز برابری فرصت ها را در چندین حکم مهم در آموزش اعمال کرده است.

برابری فرصت ها

دو اصل اساسی در برابری فرصت ها وجود دارد.

اولاً، نابرابری نتایج غیراخلاقی است اگر ناشی از تفاوت در شرایطی باشد که خارج از کنترل خود فرد است، مانند درآمد والدین کودک، قرار گرفتن در معرض نژادپرستی سیستماتیک یا زندگی در محیط‌های خشن و ناامن. این را می توان با پرداخت غرامت به افراد دارای شرایط نامطلوب به روشی که به آنها فرصتی مشابه برای دستیابی به نتایج سلامتی خاص را با افرادی که به دلیل شرایط خود در معرض آسیب نیستند، جبران کرد.

دوم، نابرابری نتایج برای افراد در شرایط مشابه که ناشی از تفاوت در تلاش‌های فردی است، مانند انجام رفتارهای ارتقا دهنده سلامت مانند رژیم غذایی و ورزش، غیراخلاقی نیست و سیاست‌گذاران می‌توانند از طریق چنین رفتارهایی به کسانی که به نتایج بهتری دست می‌یابند پاداش دهند. با این حال، تفاوت در تلاش های فردی که به دلیل شرایط رخ می دهد، مانند زندگی در منطقه ای با دسترسی محدود به غذای سالم، در برابر فرصت ها مورد توجه قرار نمی گیرد. با حفظ همه شرایط یکسان، هرگونه تفاوت در تلاش بین افراد باید به دلیل ترجیحات، اراده آزاد و منافع و هزینه های درک شده باشد. به این می گویند تلاش پاسخگو. بنابراین، دو فرد با شرایط یکسان باید با توجه به تلاش های پاسخگویانه خود پاداش بگیرند و جامعه باید تفاوت های ناشی از آن را در نتایج بپذیرد.

برابری فرصت نشان می‌دهد که اگر الگوریتم‌ها برای تصمیم‌گیری بالینی مورد استفاده قرار گیرند، لازم است درک کنیم که چه چیزی باعث تغییر در پیش‌بینی‌هایی می‌شود.

اگر تغییر در پیش‌بینی‌ها ناشی از تفاوت در شرایط یا شرایط بیولوژیکی باشد، اما نه از تلاش‌های پاسخگوی فردی، پس مناسب است از الگوریتم جبران خسارت استفاده شود، مانند تخصیص کلیه‌ها تا همه فرصت برابر برای زندگی یکسان داشته باشند، اما نه. برای پاداش، مانند تخصیص کلیه به کسانی که بیشترین عمر را با کلیه دارند.

در مقابل، اگر تغییرات در پیش‌بینی‌ها ناشی از تفاوت‌ها در تلاش‌های پاسخگوی فردی باشد، اما نه از شرایط آنها، مناسب است که از الگوریتم برای پاداش استفاده شود، نه برای جبران.

ارزیابی الگوریتم های بالینی برای انصاف

برای اینکه یادگیری ماشین و دیگر الگوریتم‌های هوش مصنوعی را به یک استاندارد برابری پاسخگو نگه دارم، از اصول برابری فرصت‌ها برای ارزیابی اینکه آیا نژاد باید در الگوریتم‌های بالینی گنجانده شود یا خیر، استفاده کردم. من شبیه‌سازی‌ها را هم در شرایط داده‌ای ایده‌آل، که در آن همه داده‌ها در مورد شرایط یک فرد در دسترس است، و هم در شرایط داده واقعی، که در آن برخی از داده‌ها در مورد شرایط یک فرد وجود ندارد، اجرا کردم.






به عنوان یک ساختار اجتماعی، نژاد اغلب نماینده ای برای شرایط غیر زیستی است.

در این شبیه‌سازی‌ها، من بی‌تردید فرض می‌کنم که نژاد یک ساختار اجتماعی است و نه بیولوژیکی. متغیرهایی مانند نژاد و قومیت غالباً معرف شرایط مختلفی هستند که افراد با آن مواجه هستند و خارج از کنترل آنها هستند، مانند نژادپرستی سیستماتیک که به نابرابری های سلامتی کمک می کند.

من دو دسته از الگوریتم ها را ارزیابی کردم.

اولی، الگوریتم‌های تشخیصی، پیش‌بینی‌هایی را بر اساس نتایجی انجام می‌دهند که قبلاً در زمان تصمیم‌گیری رخ داده‌اند. به عنوان مثال، الگوریتم‌های تشخیصی برای پیش‌بینی وجود سنگ‌های صفراوی در بیماران مبتلا به درد شکمی یا عفونت‌های دستگاه ادراری یا برای تشخیص سرطان سینه با استفاده از تصویربرداری رادیولوژیک استفاده می‌شوند.

دوم، الگوریتم های پیش آگهی، نتایج آینده را که هنوز در زمان تصمیم گیری رخ نداده اند، پیش بینی می کند. به عنوان مثال، الگوریتم های پیش آگهی برای پیش بینی اینکه آیا بیمار در صورت انجام یا عدم انجام پیوند کلیه زنده خواهد ماند، استفاده می شود.

دریافتم که تحت رویکرد فرصت‌های برابر، مدل‌های تشخیصی که نژاد را در نظر نمی‌گیرند، نابرابری‌ها و تبعیض‌های سیستمی را افزایش می‌دهند. من نتایج مشابهی را برای مدل های پیش آگهی که برای جبران شرایط فردی در نظر گرفته شده است، پیدا کردم. برای مثال، حذف نژاد از الگوریتم‌هایی که بقای آینده بیماران مبتلا به نارسایی کلیه را پیش‌بینی می‌کنند، در شناسایی افرادی که شرایط زمینه‌ای دارند که آنها را آسیب‌پذیرتر می‌کند، ناکام خواهد بود.

گنجاندن نژاد در مدل‌های پیش‌آگهی که برای پاداش دادن به تلاش‌های فردی طراحی شده‌اند نیز می‌تواند نابرابری‌ها را افزایش دهد. برای مثال، گنجاندن نژاد در الگوریتم‌هایی که پیش‌بینی می‌کنند یک فرد پس از پیوند کلیه چه مدت طولانی‌تر زندگی می‌کند، ممکن است شرایط فردی را که می‌تواند طول عمر او را محدود کند، در نظر نگیرد.

سوالات بی پاسخ و کارهای آینده

نشانگرهای زیستی بهتر ممکن است روزی بتوانند نتایج سلامتی را بهتر از نژاد و قومیت پیش بینی کنند. تا آن زمان، گنجاندن نژاد در الگوریتم های بالینی خاص می تواند به کاهش نابرابری ها کمک کند.

اگرچه مطالعه من از چارچوب فرصت برابری برای اندازه‌گیری چگونگی تأثیر نژاد و قومیت بر نتایج الگوریتم‌های پیش‌بینی استفاده می‌کند، محققان نمی‌دانند که آیا روش‌های دیگر برای نزدیک شدن به انصاف می‌تواند به توصیه‌های متفاوتی منجر شود یا خیر. نحوه انتخاب بین رویکردهای مختلف برای عدالت نیز باید دید. علاوه بر این، سؤالاتی در مورد نحوه کدگذاری گروه های چند نژادی در پایگاه های داده و الگوریتم های سلامت وجود دارد.

من و همکارانم در حال بررسی بسیاری از این سوالات بی پاسخ برای کاهش تبعیض الگوریتمی هستیم. ما معتقدیم که کار ما به راحتی به سایر حوزه‌های خارج از سلامت، از جمله آموزش، جرم و جنایت و بازار کار گسترش خواهد یافت.

اطلاعات بیشتر:
انیربان باسو، استفاده از نژاد در الگوریتم های بالینی، پیشرفت علم (2023). DOI: 10.1126/sciadv.add2704

ارائه شده توسط The Conversation

این مقاله از The Conversation تحت مجوز Creative Commons بازنشر شده است. مقاله اصلی را بخوانید.گفتگو

نقل قولمطالعه نشان می‌دهد (2023، 5 ژوئن 2023) که در 5 ژوئن 2023 از https://medicalxpress.com/news/2023-06-clinical-algorithms-health-inequities.html بازیابی شده است، گنجاندن نژاد در الگوریتم‌های بالینی می‌تواند نابرابری‌های سلامت را هم کاهش دهد و هم افزایش دهد.

این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.



[ad_2]