[ad_1]

دو مکانیسم مغز برای انتخاب گفتار از میان جمعیت

مثالی از گوش دادن به صحبت های شخصی در یک محیط پر سر و صدا. اعتبار: موسسه زاکرمن، دانشگاه کلمبیا (2023) (CC-BY 4.0, creativecommons.org/licenses/by/4.0/)

محققان به سرپرستی دکتر نیما مسگرانی در دانشگاه کلمبیا، ایالات متحده، گزارش دادند که مغز با گفتار در یک اتاق شلوغ، بسته به اینکه چقدر شنیدن آن آسان است و اینکه آیا ما روی آن تمرکز می کنیم، متفاوت رفتار می کند.

انتشار 6 ژوئن در مجله دسترسی آزاد زیست شناسی PLOSاین مطالعه از ترکیبی از ضبط‌های عصبی و مدل‌سازی رایانه‌ای استفاده می‌کند تا نشان دهد وقتی گفتاری را دنبال می‌کنیم که با صداهای بلندتر از بین می‌رود، اطلاعات آوایی به طور متفاوتی نسبت به موقعیت مخالف کدگذاری می‌شود. این یافته‌ها می‌تواند به بهبود سمعک‌هایی که با جداسازی گفتار شرکت‌کننده کار می‌کنند، کمک کند.

تمرکز بر سخنرانی در یک اتاق شلوغ می تواند دشوار باشد، به خصوص زمانی که صداهای دیگر بلندتر هستند. با این حال، تقویت همه صداها به طور یکسان باعث بهبود توانایی جداسازی این صداهای سخت‌شنود نمی‌شود و سمعک‌هایی که سعی می‌کنند فقط گفتار حضوری را تقویت کنند، برای استفاده عملی بسیار نادرست هستند.

برای اینکه درک بهتری از نحوه پردازش گفتار در این شرایط به دست آورند، محققان دانشگاه کلمبیا فعالیت عصبی را از الکترودهای کاشته شده در مغز افراد مبتلا به صرع هنگام جراحی مغز ثبت کردند. از بیماران خواسته شد که به یک صدای واحد توجه کنند که گاهی بلندتر از صدای دیگری (“نقابدار”) و گاهی آرامتر (“نقابدار”) بود.

محققان از ضبط‌های عصبی برای تولید مدل‌های پیش‌بینی‌کننده فعالیت مغز استفاده کردند. مدل‌ها نشان دادند که اطلاعات آوایی گفتار «نگاه‌شده» در هر دو قشر شنوایی اولیه و ثانویه مغز رمزگذاری شده است، و رمزگذاری گفتار شرکت‌کننده در قشر ثانویه افزایش یافته است.

در مقابل، اطلاعات آوایی گفتار «نقاب‌دار» تنها در صورتی رمزگذاری می‌شد که صدای شرکت‌کننده باشد. در نهایت، رمزگذاری گفتار برای گفتار «نقاب‌دار» دیرتر از گفتار «نقاب‌دار» اتفاق افتاد. از آنجا که اطلاعات آوایی «نقاب‌دار» و «نقاب‌دار» به نظر به‌طور جداگانه کدگذاری می‌شوند، تمرکز بر رمزگشایی تنها بخش «نقاب‌دار» گفتار شرکت‌کننده می‌تواند منجر به بهبود شود. سیستم های رمزگشایی توجه شنوایی برای سمعک های کنترل شده توسط مغز

Vinay Raghavan، نویسنده اصلی این مطالعه، می‌گوید: “وقتی به صحبت‌های شخصی در مکانی پر سر و صدا گوش می‌دهید، مغز شما آنچه را که در زمانی که صدای پس‌زمینه خیلی بلند است از دست داده‌اید، بازیابی می‌کند. مغز شما همچنین می‌تواند تکه‌هایی از گفتار را که روی آنها تمرکز نمی‌کنید، دریافت کند. ، اما فقط زمانی که شخصی که به او گوش می دهید در مقایسه با او ساکت باشد.”

اطلاعات بیشتر:
Raghavan VS، O’Sullivan J، Bickel S، Mehta AD، Mesgarani N. رمزگذاری عصبی متمایز از گفتار اجمالی و پوشیده در موقعیت‌های چندگفتاری، زیست شناسی PLoS (2023). DOI: 10.1371/journal.pbio.3002128

ارائه شده توسط کتابخانه عمومی علوم

نقل قول: مطالعه دو مکانیسم مغزی را برای انتخاب گفتار از میان جمعیت شناسایی می‌کند (2023، 6 ژوئن) که در 6 ژوئن 2023 از https://medicalxpress.com/news/2023-06-brain-mechanisms-speech-crowd.html بازیابی شده است.

این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.



[ad_2]