ویژگی
نماد اختصاری
دامنه ماکزیمم سیگنال
AMP
دامنه مینیمم سیگنال
-AMP
ناحیه مثبت
PAR
ناحیه منفی
NAR
قدر مطلق ناحیه منفی
NANR
مجموع ناحیه
TAR
قدر مطلق مجموع ناحیه
ATAR
قدر مطلق مجموع ناحیه
TAAR
پیک تا پیک سیگنال
PP
۳-۴- استخراج ویژگی با مدل خودبازگشتی(AR[17])
روش مدلسازی خود بازگشتی یکی از مدلهای اتفاقی است که برای نمایش سیگنالهای غیر ایستا بسیار مورد استفاده میباشد. در این مدل، مقادیر جاری سیگنال به صورت جمع خطی از تعداد محدودی از مقادیر قبلی بعلاوه خطای e(n) بیان میشود. بنابر این پردازش به صورت ۳-۲ مدل میشود:
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
(۳-۲)
به طوریکه می توان گفت x(n) سیگنال مورد نظر، e(n) نویز سفید با میانگین صفر و واریانس مجهول، ها ضرایب و p مرتبه مدل AR میباشد. در این معادله متغیر x(n) به مقادیر قبلی خودش وابسته است. روش های متعددی بطور رایج برای تخمین ضرایب AR استفاده میشود]۲[.
۳-۵- استراتژی انتخاب ویژگی
انتخاب ویژگی فرآیندی است که ویژگیهای با قدرت تشخیص بالاتر و موثرتر را از مجموعههای داده برای انجام اعمال داده کاوی انتخاب میکند. مرحله مقدماتی فرایند انتخاب ویژگی عبارتند از: شناسایی مجموعه ویژگیها و جستجو برای بهترین زیر مجموعه. مجموعه پارامترها اغلب شامل الگوریتمهای یادگیری الگوریتم های انتخاب و فرآیندهای تخمین خطا میباشند. البته این مسئله کاملا روشن است که هیچ مجموعه ویژگی به تنهایی برای کلیهی مسائل داده کاوی کارا نمیباشد.
الگوریتمهای انتخاب ویژگی به طور کلی به سه دسته تقسیم میشوند: مدلهای فیلتر، مدلهای رپر[۱۸] و مدلهای ترکیبی]۱۳[. مدلهای فیلتر از مشخصات ذاتی یا آماری ویژگیهای مجموعههای داده استفاده می کنند و از هر گونه الگوریتم یادگیری مستقل اند. چنین رویههایی شامل ماشین یادگیری نمیباشند و برای مجموعه دادههای با ابعاد بالا موثر بوده و پیشنهاد میشوند. در مقابل مدلهای رپر از ماشینهای یادگیری استفاده کرده و زیرمجموعه ویژگیها را بر اساس تخمین کارایی انتخاب میکنند. در مقایسه با فیلترها رپرها دارای زمان و هزینههای محاسباتی بالاتری بوده و برای مجموعه دادههای با ابعاد بالا مناسب نمیباشد. مزیت اصلی رپرها در دقت بالای پیشبینی آنها است. نتایج جستجوی رپرها برای یافتن بهترین زیر مجموعه ویژگی بسیار بالاتر از فیلترها گزارش شده است. برای انتخاب ویژگی خوب،تلاش اصلی فرایند جستجو باید شناخت ویژگیهای موثر و غیر افزونه باشد]۲۵[. اغلب روشهای ترکیبی فیلتر و رپر از فیلترها جهت رتبهبندی ویژگیها و کاهش تعداد ویژگیهای کاندید استفاده میکنند. به طور کلی مدلهای ترکیبی بر اساس رویههای ترتیبی دو مرحلهای کار میکنند.در مرحله اول معمولا براساس فیلترها تعداد ویژگیهای مورد نظر برای مرحله دوم کاهش مییابند. سپس با بهره گرفتن از مجموعه کاهش یافته یک رویه رپر در مرحله دوم جهت انتخاب ویژگیهای مطلوب اعمال میشود.
۳-۶- تحلیل مولفه اصلی (PCA)
در روش تحلیل مؤلفههای اصلی، محورهای مختصات جدیدی برای دادهها تعریف میشود به گونه ای که نخستین محور در جهتی قرار میگیرد که واریانس دادهها بیشینه است و دومین محور نیز عمود بر محور اول و در جهتی که واریانس داده ها بیشینه باشد،در نظر گرفته میشود و به همین ترتیب، محورهای بعدی عمود بر تمامی محورهای قبلی به گونهای قرار میگیرند که واریانس دادهها در آن جهت بیشینه باشد]۴[.تحلیل مولفه اصلی یکی از روشهای مرسوم استخراج ویژگی است که در بسیاری از پژوهشها به دلیل سادگی و سرعت بالا در پردازش از آن استفاده میشود]۲۶[. تکنیک PCA بهترین روش برای کاهش ابعاد داده به صورت خطی میباشد یعنی با حذف ضرایب کم اهمیت بدست آمده از این تبدیل،اطلاعات از دست رفته نسبت به روش های دیگر کمتر است.
فرض کنید ماتریس ورودی X دارای نمونه و n ویژگی است و نمونه باید در C گروه قرار گیرند، میانگین و کوواریانس داده با توجه به روابط (۳-۳) و (۳-۴) محاسبه میشوند [۳۸]:
(۳-۳) (۳-۴)
در مرحله بعد، مقادیر ویژه و بردارهای ویژه از روی ماتریس کواریانس محاسبه میشوند. سپس، تعداد k مقدار ویژه بزرگتر از n مقدار ویژه انتخاب میشوند. حال ماتریس ورودی X تحت ماتریس بردار ویژه P با تعداد k ویژگی، به فضای تحلیل مولفهاصلی تبدیل میشود:
(۳-۵)