طراحی سامانه‌ای برای کمک به افرادی که مشکل ناشنوایی و اختلال تکلم دارند

محققان دانشکده مهندسی پزشکی دانشگاه صنعتی امیرکبیر موفق به طراحی سامانه‌ای برای بکارگیری اطلاعات تصویری در بازشناسی خودکار گفتار صوتی-تصویری شدند.

به گزارش آردی نیوز و به نقل از ایسنا، فاطمه وخشیته، دکترای مهندسی پزشکی – گرایش بیوالکتریک از دانشگاه صنعتی امیرکبیر درباره طرح خود مبنی بر «طراحی سامانه طراحی بازشناسی خودکار گفتار» اظهار کرد: به‎کارگیری منابع اطلاعاتی متعدد نقش مهمی در سامانه‎های بازشناسی گفتار دارد، به‎طوری که عملکرد مطلوب‌تر سامانه‎ها می‎تواند در نتیجه استفاده صحیح از اطلاعات کمکی مناسب و با روش‎های دقیق شود.

وی با بیان این‌که این پروژه به راهنمایی دکتر فرشاد الماس گنج و مشاوره دکتر احمد نیک آبادی انجام شده است، افزود: این موضوع ریشه در طبیعت ادراک در انسان دارد؛ چراکه در مغز انسان و از جمله در فرآیندهای تولید و ادراک گفتار، به‎طور همزمان بر روی چندین منبع اطلاعاتی پردازش صورت می‎پذیرد.

وی با اشاره به تحقیقات خود در زمینه بازشناسی خودکار، گفت: هدف این تحقیق به‎کارگیری اطلاعات تصویری در قالب اطلاعات کمکی و ارائه سامانه بازشناسی خودکار گفتار صوتی-تصویری است، تا ضمن برآورده ‎شدن طبیعت چندگونه‎ای ادراک در انسان، از خاصیت مقاوم‌‎ بودن اطلاعات تصویری در برابر نویز صوتی نیز استفاده شود.

به گفته این محقق، در بازشناسی گفتار صوتی-تصویری، هر یک از روش‎های‎ استخراج ویژگی، مدل‎سازی، تلفیق گونه‎های مختلف صوتی و تصویری و نهایتاً بازشناسی‎ دوگونه‎ای گفتار نقش بسزایی دارند. منظور از یک گونه، یک منبع اطلاعاتی است و ویژگی‎های مستخرج در شرایط ارائه یک منبع اطلاعاتی، ویژگی‎های تک‎گونه‎ای نامیده می‎شوند.

وی با بیان اینکه منظور از دو گونه، دو منبع مختلف اطلاعاتی است و ویژگی‎های مستخرج در شرایط فراهم‎شدن همزمان دو منبع اطلاعاتی، ویژگی‎های دوگونه‎ای نامیده می‎شوند، بیان کرد: بر این اساس در این رساله ابتدا ویژگی‌‏های مناسب صوتی و تصویری جستجو و استخراج می‎شوند.

وخشیته بیان کرد: در خصوص شاخه ‎تصویری، از روش‌های کلاسیک و مبتنی بر شبکه‎های عصبی عمیق استفاده می‎شود و در ادامه یک روش استخراج ویژگی ترکیبی پیشنهاد می‎شود که از این میان ویژگی‎های تصویری هیبریدی که در یک فرآیند پیش‎پردازشی پیچیده استخراج می شوند، به‎عنوان ویژگی‎های منتخب تصویری درنظر گرفته خواهند شد.

وی در خصوص روند کار با این سامانه ادامه داد: شاخه صوتی، ویژگی‎های کپسترال فرکانس حوزه مل پس از انجام مقایسه‎ها به‎عنوان ویژگی‎های منتخب صوتی لحاظ می‌شوند؛ در ادامه، تلفیق کارآمد ویژگی‎های منتخب تک‎گونه‎ای دنبال می‎شود، به‎گونه‎ای که موجب هم‎افزایی دو منبع اطلاعاتی و همچنین کاهش نویز زمینه موجود در گفتار صوتی شود.

محقق طرح با بیان اینکه در این خصوص دو رویکرد تلفیق ویژگی پیشنهاد می‌‏شود، خاطر نشان کرد: در رویکرد اول، از معیار آنتروپی جهت سنجش میزان رسایی (چگونگی بازنمایی اطلاعات) ویژگی‎های حاصل از منابع صوتی و تصویری استفاده می‎شود و تلفیق اطلاعات در سطح متوسط با انتخاب لایه صوتی با آنتروپی بیشینه و لایه تصویری با آنتروپی کمینه صورت می‏‌پذیرد. در رویکرد دوم، از شبکه‎های کدگذار خودکار عمیق استفاده می‎شود و تلفیق اطلاعات در لایه گلوگاه شبکه صورت می‎پذیرد. در این رویکرد یک ساختار دوگونه‎ای پیشنهاد می‎شود که طی چهار مرحله توسعه می‌یابد و تکمیل می‎شود.

وی افزود: در آخرین مرحله از توسعه، با در نظر گرفتن تابع مناسب نگاشت‎دهنده ویژگی‏‌های گلوگاهی نویزی به تمیز و قراردادن لایه برچسب‎ها در کنار گلوگاه شبکه، ساختاری به‎دست می‎آید که نسبت به سایر ساختارها از کارآمدی بالاتری برخوردار است.

محقق طرح با اشاره به نتیجه تحقیقات خود گفت: خروجی رویکردها به‏ طور کلی موفقیت عملکرد آن‎ها را نشان می‎دهد و به میزان بالایی در بهبود نتایج بازشناسی گفتار موثر است.

وی ادامه داد: در شرایط نویزی با ارائه اطلاعات صوتی به تنهایی در سامانه عمیق هیبریدیِ مبتنی بر شبکه باور عمیق و مدل مخفی مارکوف، نرخ خطای واجی ۱۸.۵ درصد را نشان می‌دهد که در این شرایط، با تلفیق ویژگی‎ها بر اساس معیار آنتروپی، نرخ خطای واجی به ۱۰.۹ درصد کاهش می‌یابد که این مقدار با تلفیق ویژگی‎ها توسط شبکه کدگذار خودکار عمیق دوگونه‎ای برابر با ۱۰.۳ درصد می‎شود.

وی افزود: از این سامانه می‌توان برای افرادی که مشکل ناشنوایی دارند، استفاده کرد.

وخشیته با اشاره به کاربرد این سامانه گفت: «کمک به افرادی که اختلال تکلم دارند، به نحوی که از اطلاعات تصویری آنها کمک گرفته و اختلال ایجاد شده در سیگنال گفتار این افراد جبران شود» که این کاربرد در بهبود انتقال پیام در سیگنال گفتار گویندگان است؛ این یکی از کاربردهای سامانه محسوب می‌شود.

وی ادامه داد: «در محیط های شلوغ که اطلاعات صوتی گویندگان مخدوش یا نامفهوم است، از اطلاعات تصویری این افراد کمک گرفته می‌شود و پیغام صوتی منتقل می‌شود» از جمله کاربردهای این سامانه است. این کاربرد در بهبود انتقال پیام برای شنوندگان است.

وخشیته افزود: اینها نمونه کاربردهای رایجی هستند که در آنها از اطلاعات تصویری در بازشناسی خودکار گفتار استفاده می‌شود، اما توجیه بکارگیری شبکه‌های عصبی عمیق در این راستا ارتقای دقت بازشناسی گفتار تصویری (لبخوانی) و گفتار صوتی معمولی و همچنین در شرایطی است که از اطلاعات صوتی و تصویری بصورت همزمان استفاده می‌شود، است.

مطالب مرتبط