پایان نامه ها

روش‌های، كه، بيشينه، داده‌ها، ویژگی‌های، طبقه‌بندی

مدل‌های ترکیبی بر اساس رویه‌های ترتیبی دو مرحله‌ای کار می‌کنند.در مرحله اول معمولا براساس فیلترها تعداد ویژگی‌های مورد نظر برای مرحله دوم کاهش می‌یابند. سپس با استفاده از مجموعه کاهش یافته یک رویه رپر در مرحله دوم جهت انتخاب ویژگی‌های مطلوب اعمال می‌شود.
3-6- تحلیل مولفه اصلی (PCA)در روش تحليل مؤلفه‌هاي اصلي، محور‌هاي مختصات جديدي براي داده‌ها تعريف مي‌شود به گونه اي كه نخستين محور در جهتي قرار مي‌گيرد كه واريانس داده‌ها بيشينه است و دومين محور نيز عمود بر محور اول و در جهتي كه واريانس داده ها بيشينه باشد،در نظر گرفته مي‌شود و به همين ترتيب، محورهاي بعدي عمود بر تمامي محورهاي قبلي به گونه‌اي قرار مي‌گيرند كه واريانس داده‌ها در آن جهت بيشينه باشد]4[.تحلیل مولفه اصلی یکی از روش‌های مرسوم استخراج ویژگی است که در بسیاری از پژوهش‌ها به دلیل سادگی و سرعت بالا در پردازش از آن استفاده می‌شود]26[. تکنیک PCA بهترین روش برای کاهش ابعاد داده به صورت خطی می‌باشد یعنی با حذف ضرایب کم اهمیت بدست آمده از این تبدیل،اطلاعات از دست رفته نسبت به روشهای دیگر کمتر است.
فرض کنید ماتریس ورودی X دارای NT نمونه و n ویژگی است و NT نمونه باید در C گروه قرار گیرند، میانگین و کوواریانس داده با توجه به روابط (3-3) و (3-4) محاسبه میشوند [38]:
md=1NTi=1cj=1Nixi,j(3-3) COV=1NTi=1cj=1Ni(xi,j-md)(xi,j-md)T (3-4)
در مرحلهی بعد، مقادیر ویژه و بردارهای ویژه از روی ماتریس کواریانس محاسبه می‌شوند. سپس، تعداد k مقدار ویژه بزرگتر از n مقدار ویژه انتخاب می‌شوند. حال ماتریس ورودی X تحت ماتریس بردار ویژه P با تعداد k ویژگی، به فضای تحلیل مولفه‌اصلی تبدیل می‌شود:
(3-5) Yij=[P1,P2,…,Pk]TXij3-7- روش بیشترین وابستگی و کمترین افزونگی (mRMR)در بسیاری از کاربرد‌های شناسایی آماری الگو، انتخاب زیرمجموعه‌ای از مجموعه ویژگی‌ها می‌تواند سبب کاهش خطای دقت طبقه‌بندی گردد. هدف روش بیشترین وابستگی و کمترین افزونگی، انتخاب زیرمجموعه از فضای ویژگی مبتنی بر مفهوم همبستگی و کاهش افزونگی اطلاعات می‌باشد. فرض کنید فضای داده ورودی D، شامل N نمونه و M ویژگی است و c نیز برچسب مربوط به هر گروه باشد. در این حالت، هدف انتخاب بهینه m ویژگی از فضای M بعدی است بطوریکه هر نمونه متعلق به گروه c باشد. از آنجاییکه تعداد زیرمجموعه‌های ممکن 2M بوده و تعداد زیرمجمو ع‌هایی که ابعادشان کوچکتر از m باشد نیز i=1mMi می‌باشد جستجوی کامل زیرمجموعه‌های ویژگی بسیار دشوار است. از اینرو، روش‌های جستجوی ترتیبی مانند پیش رو ترتیبی و شناور پیش رو ترتیبی، برای جستجوی فضای کامل زیرمجموعه‌ها در فضای ویژگی پیشنهاد می‌شوند]29[. شرط توصیف بهینه معادل با کمترین خطای دقت طبقه‌بندی درنظر گرفته می‌شود، بطوریکه در طبقه‌بندی بی سرپرست،‌کمترین خطا زمانی رخ می‌دهد که بیشترین وابستگی آماری دادگان در زیر فضای Rm گروه هدف c پیدا شود. از این شیوه به عنوان شرط بیشترین وابستگی یاد می‌شود. یکی از روش‌های رایج برای بررسی مفهوم بیشترین وابستگی، روش بیشترین ارتباط است که مقصود آن بالاترین ارتباط هر ویژگی با گروه هدف c می‌باشد. بطور عام، ارتباط برحسب همبستگی و یا اطلاعات متقابل دو متغیر معرفی می‌شود. اطلاعات متقابل دو متغیر x و y، بر حسب توابع چگالی احتمال بصورت زیر تعریف می‌شود:
5196205-1905(3-6)
4000020000(3-6)
IX,Y=xyp(X,Y)log2p(X,Y)pYp(X)
در انتخاب ویژگی بر اساس بیشترین ارتباط، بیشترین اطلاعات متقابل I(xi,c) بین ویژگی‌های منتخب xi گروه هدف c صورت می‌گیرد که مبین بیشترین وابستگی ویژگی به هدف مربوط می‌باشد. در روش‌های جستجوی متوالی، m



قیمت: 11200 تومان

متن کامل پایان نامه ها در 40y.ir

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *