پایان نامه با کلید واژه های بهبود مستمر

ر در مورد عمق J در آنالیز اتفاق می افتد، که باید در شرط L ? 2J صدق کند. درواقع، شرایط معمول آن، L = 2J است که به عنوان تبدیل ویولت گسسته کامل55 از آن یاد می شود. بدین معنی که آنالیز در عمیق ترین سطح روی سیگنالی که طول آن توانی از 2 است، انجام می شود.
در واقع، تبدیل ویولت گسسته یک نسخه ی غیرمتمرکز از تبدیل ویولت پیوسته است که در آن فقط مقادیر مشخصی از a و b آنالیز می شوند:
a = 2^j , b = k2^j, j? N, k ? Z
وقتی این مقادیر در معادله (1) جایگزین می شود، معادله ی (2) بدست می آید.
در ادامه، ضمن معرفی ویولت های نسل دوم، علکرد آنها را در چهارچوب طرح ارائه شده جهت تشخیص نفوذ و اختلالات در شبکه، مورد ارزیابی قرار می دهیم.
4-1-4- ویولت های نسل دوم
بنا بر[41]، تعریف رسمی از آنالیز چندوضوحی، الگوریتم تبدیل ویولت سریع مربوط به آن (مَلَت) و کشف ویولت های متعامدی که دامنه ای محدود دارند56 (دوبیشیز)، نقطه عطفی در توسعه تبدیل ویولت گسسته به عنوان ابزاری در پردازش سیگنال و تصویر بود. علی رغم این موفقیت زودهنگام، تبدیل ویولت گسسته در شکل کلاسیک آن، دارای محدودیت هایی است.
یکی از محدودیت های اصلی ویولت های نسل اول این است که برای سیگنال های پریودیک و نامحدود، بخوبی عمل می کنند اما استفاده از آنها در دامنه محدود نیازمند اصلاحاتی می باشد. از سوی دیگر همواره این فرض برقرار است که ورودی باید یک سیگنال مرتباً مشاهده شده باشد که در آن تعداد مشاهدات توانی از 2 است. به وضوح، این محدودیت ها می تواند از طریق برخی پردازش های پسین، پیشین و یا همزمان بر روی داده ها، کنترل شود. از آنجا که در بسیاری از کاربردها نیاز است که ویولت ها روی سطوح و منحنی ها و منیفلدها تعریف شوند و نیاز به نمونه گیری های نامنظم دارند، نسل دوم ویولت ها مطرح شد.
این ویولت ها از شیفت دادن و فشرده کردن یک تابع بدست نمی آیند اما هنوز خواص قدرتمند ویولت ها شامل چند وضوحی و محلی بودن در حوزه زمان و فرکانس را دارا می باشند. در مقابل ویولت های نسل اول مانند دوبوشیز57 که از تبدیل فوریه برای ساختن ویولت استفاده می کنند، بنیاد ویولت های نسل دوم مبتنی بر lifting scheme است. در نمونه اولیه، این طرح، یک پیاده سازی متناوب از تبدیل ویولت گسسته سریع است که کمی سریعتر از پیاده سازی بانک فیلترهای58 تکرارشونده کلاسیک است و امکان انجام محاسبات بطور درجا59 را دارد. بدان معنا که هیچ حافظه اجرایی اضافه ای مورد نیاز نیست، زیرا همه مراحل در الگوریتم روی داده های اولیه اعمال میشود بدون اینکه تبدیل را برگشت ناپذیر کند. بعلاوه lifting sheme یک مزیت دیگر هم دارد: برخلاف پیاده سازی بانک فیلتر کلاسیک، این مفهوم به آسانی درباره ی داده هایی با ساختارهای متفاوت، قابل تعمیم است. یعنی نه تنها شامل داده های بطور نامنظم مشاهده شده و داده های یک بازه است بلکه تقریباً تمام انواع داده را دربرمی گیرد.
برای معرفی مفهوم lifting دو رویکرد اساسی وجود دارد: دیدگاه نخستین، lifting را به عنوان روشی برای ساخت (یا پیاده سازی مجدد) یک تبدیل ویولت مانند تبدیل هار60، معرفی می کند. در حالی که دومین رویکرد، بر روی قابلیت lifting جهت بهبود تبدیلات ویولت موجود از طریق افزودن ویژگی های مورد نظر، متمرکز است.
در اینجا lifting با نخستین رویکرد آن مورد بررسی قرار می گیرد.
طرح lifting شامل سه نوع عملیات است:
جداسازی (Split)
پیش بینی (dual lifting(prediction))
بروزرسانی (primal lifting(update))
مرحله جداسازی:
در مرحله جداسازی، مشاهدات را به دو مجموعه مجزا تقسیم می کند. فعلاً (ولی نه همیشه) این مجموعه ها متناظر با مشاهداتی با شاخص های زوج S2l و فرد S2l+1 هستند.
(evenj-1 , oddj-1) = split(Sj)
مرحله پیش بینی:
اگر سیگنال دارای وابستگی محلی باشد ، آنگاه نمونه های زوج و فرد دارای وابستگی زیادی می شوند و یکی از دو مجموعه برای تقریب دیگری به کار می رود . استفاده از مجموعه زوج برای پیش بینی مجموعه فرد معمول است . در مورد هار، پیش گویی ساده است .یک نمونه فرد s_(j,2l+1) نمونه زوج همسایه خود s_(j,2l) را به عنوان پیشگو به کار می برد . بنابر این d_(j-1,l) اختلاف بین نمونه فرد و پیش بینی آن است .در این مرحله, از یک تابع برای تقریب مجموعه داده ها استفاده می شود.اختلاف بین تقریب و داده های واقعی، جایگزین المان های فرد میشود. المان های زوج، بدون تغییر می مانند و ورودی برای مرحله بعد میشوند.در مرحله پیش بینی مقادیر المان های فرد توسط المان های زوج با معادله روبرو پیش بینی می شوند.
dj-1,l = sj,2l+1 – sj,2l
dj-1 = oddj-1 – P(evenj-1)
مرحله بروزرسانی:
یکی از خواص سیگنال با تقریب ضعیف تر این است که مقدار میانگین آن با سیگنال اصلی یکسان است :
S = 2-j ?_(l=0)^(2^(-j))?? s?_(j,l)
?_(l=0)^(2^(j-1))?s_(j-1,l) = 1/2 ?_(l=0)^(2^j)?s_(j,l)
پس اپراتور بروزرسانی به صورت زیر تعریف می شود :
s_(j-1) = even_(j-1) + U(d_(j-1))
مسیرهای زوج توسط میانگین و مسیر های فرد توسط Detail جایگزین می شود.
برای تبدیل معکوس، ابتدا عمل Undo the update انجام شده و نمونه های زوج بازسازی می شوند .سپس Prediction با Detail جمع شده و نمونه های فرد بازسازی می شوند .در نهایت نمونه های زوج وفرد ادغام61 شده و سیگنال اصلی بازسازی می گردد و
Sj-1 = evenj-1 – u(dj- 1)
dj-1 = oddj-1 + P(evenj-1)
Sj = merge(sj-1 , dj-1)
شکل 4-2 یک طرح lifting کلی شامل مراحل Split، Dual و Primal
شکل 4-3 معکوس طرح lifting
آنالیز مولفه های اصلی
تکنیک PCA، درواقع بهترین روش برای کاهش ابعاد داده بصورت خطی می باشد. در این روش، با حذف ضرایب کم اهمیت بدست آمده از این تبدیل، اطلاعات از دست رفته نسبت به روشهای دیگر کمتر است. البته کاربرد PCA، تنها محدود به کاهش ابعاد مساله نمی شود و در حوزه هایی مانند شناسایی الگو و تشخیص چهره نیز مورد استفاده قرار می گیرد. در این روش، محورهای مختصات جدیدی برای داده ها تعریف شده و داده ها در این چهارچوب بازنمایی می شوند. اولین محور باید در جهتی قرار گیرد که واریانس داده ها ماکزیمم شود (یعنی در جهتی که پراکندگی داده ها بیشتر است). سپس دومین محور باید عمود بر محور اول به گونه ای قرار گیرد که واریانس داده ها ماکزیمم شود. به همین ترتیب، محورهای بعدی عمود بر تمامی محورهای قبلی به گونه ای تعبیه می شوند که داده ها در آن جهت دارای بیشترین پراکندگی باشند. در شکل 1 این مطلب را برای داده های دوبعدی مشاهده میشود.
شکل 4-4: انتخاب محورهای جدید برای داده های دوبعدی در PCA
4-2-1- الگوریتم آنالیز مولفه های اصلی
اکنون الگوریتم PCA مورد بررسی قرار می گیرد:
مرحله1 : داده های موردنظر انتخاب می شوند.
مرحله2: میانگین هر بُعد از مقادیر آن بُعد کسر می شود تا میانگین داده ها در هر بُعد صفر شود.
مرحله3: ماتریس کوواریانس جهت یافتن ارتباط بین ابعاد مختلف داده ها، محاسبه می گردد.
مرحله4: اکنون بردارها و مقادیر ویژه ماتریس کوواریانس محاسبه می شوند. ماتریس کوواریانس، یک ماتریس نیمه قطعی مثبت متقارن62 است. طبق قضایای جبرخطی، یک ماتریس متقارن n×n ، دارای n بردار ویژه ی مستقل و n مقدار ویژه میباشد. همچنین یک ماتریس نیمه قطعی مثبت، دارای مقادیر ویژه ی غیرمنفی است.
مرحله5: پروسه کاهش ابعاد مساله در این مرحله انجام می شود. اکنون بردارهای ویژه حاصل از مرحله قبل را براساس مقادیر ویژه آنها مرتب می نماییم (تمامی مقادیر ویژه ماتریس کوواریانس، بزرگتر ویا مساوی صفر هستند). بدین ترتیب، مولفه های داده ها از پٌراهمیت به کم اهمیت مرتب می شوند. در اینجا می توان جهت کاهش ابعاد داده ها، مولفه های کم اهمیت را حذف کرد. که البته در اینصورت مقدار اندکی از اطلاعات نیز از دست خواهیم رفت.
در این مرحله، یک بردار ویژگی63 ایجاد می شود که درواقع ماتریسی از بردارهاست. این ماتریس شامل آن دسته از بردارهای ویژه ای است که می خواهیم آنها را نگه داریم.
Feature Vector = (?eig?_1 ?eig?_2 ?eig?_3 …. ?eig?_n)
مرحله6: در آخرین مرحله از الگوریتم PCA، تنها کافی ست ترانهاده ی ماتریس بردار ویژه را که در مرحله قبل بدست آمده در ترانهاده ی داده های نرمال سازی شده، ضرب شود.
Final Data = Row Feature Vector × Row Data Adjust
که در آن Row Feature Vector ماتریسی است که سطرهای آن شامل بردارهای ویژه ای است که به ترتیب مقادیر ویژه ی متناظرشان، از بالا به پایین قرار گرفته اند. و ماتریس Row Data Adjust، داده های اولیه ابعاد مساله، پس از کسر میانگین هربُعد از آنهاست. در این ماتریس، داده ها در ستون ها ذخیره شده و هر سطر آن مربوط به یک بُعد است[35].
شبکه عصبی
یک شبکه عصبی درواقع نوعی الگوی محاسباتی ریاضی است که فعالیت های زیستی سیستم های عصبی را مدلسازی می کند. در اوایل دهه ی 1940، تلاشی که برای تقلید عملکرد مغز انسان صورت گرفت، منجر به پیدایش شبکه های عصبی شد. این شبکه ها درابتدا برای بهبود روش های شناسایی تصویر و کلام، دسته بندی و سپس طی دهه های اخیر به عنوان یک راه حل موثر در سیستم های تشخیص نفوذ مورد استفاده قرار گرفته است. مهمترین ویژگی شبکه های عصبی، قابلیت یادگیری و درنتیجه بهبود مستمر عملکرد آن می باشد.
هر شبکه عصبی، درواقع مجموعه ای از واحدهای ساده ای بنام نرون هستند. این نرون ها در قالب یک ساختار شبکه ای، مجموعه ای از داده های ورودی را به خروجی مورد نظر تبدیل می کند. در سیستم عصبی بدن، یک نرون زیستی با جمع ورودی های خود که از طریق دندریت ها با یک وزن سیناپسی خاص به نرون اعمال می شوند، پس از رسیدن به یک مقدار معین یا به اصطلاح حد آستانه، فعال می گردد. با توجه به این واقعیت می توان نتیجه گیری کرد که نرون تنها در یکی از دو وضعیت فعال و یا غیرفعال قرار می گیرد. خروجی تنها به ورودی های نرون بستگی دارد. ورودی باید به حدی برسد تا خروجی ایجاد گردد.
متداول ترین مدل شبکه عصبی براساس پژوهش کولچ و پیت (1943) پیاده سازی شده که آن را در شکل4-5 ملاحظه می نمایید.
شکل 4-5 ساختار پیشنهادی نرون مک کولچ و پیت
همانطور که در شکل4-5 مشاهده می شود، هر نرون از دو بخش تشکیل شده است: تابع شبکه و تابع فعال سازی.
تابع شبکه مشخص می کند که ورودی ها ; 1?j?N} y_j} چگونه داخل یک نرون با هم ترکیب می شوند. این تابع در شکل مذکور، بصورت یک ترکیب خطی وزن دار می باشد:
U = ?_(j=1)^N??w_j y_j+ ? ?
که در آن کمیت ? ، حد آستانه نامیده می شود. بقیه روش های ترکیب ورودی شبکه در جدول4-1 ، آمده است.
جدول4-1 خلاصه ای از توابع شبکه مورد استفاده در شبکه های عصبی
Comments
Formula
Net Functions
Most commonly used
U = ?_(j=1)^N??w_j y_j+ ? ?
Linear
u_i is a weighted linear combination of higher order polynomial
terms of input variable. The number of input terms equals N_d, where d is the order of the polynomial
U = ?_(j=1)^N??_(k=1)^N?w_jk y_j y_k+?
Higher order (2nd order formula exhibited)
Seldom used
U = ?_(j=1)^N?w_j y_j
Delta (? – ?)
خروجی نرون که در شکل با a_i نشان داده شده است، با یک تبدیل خطی یا غیرخطی بنام تابع فعال سازی به داده های ورودی شبکه مربوط می شود:
a = f(u)
توابع فعال سازی متفاوتی برای شبکه های عصبی مختلف ارائه

مطلب مرتبط :   پایان نامه با کلید واژه هایبهبود عملکرد

دیدگاهتان را بنویسید