فایل ویکی فایل ویکی دروس تخصصی موفقیت پاورپوینت ارسال ارتباط با ما

دانلود مقاله بهبود سرعت یادگیری شبکه های عصبی

دانلود مقاله بهبود سرعت یادگیری شبکه های عصبی

شبکه های عصبی چند لایه پیش خور1 به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی الگوها، پردازش تصاویر، تقریب توابع و ... مورد استفاده قرار گرفته است.

الگوریتم یادگیری پس انتشار خطا2، یکی از رایج ترین الگوریتم ها جهت آموزش شبکه های عصبی چند لایه پیش خور می باشد. این الگوریتم، تقریبی از الگوریتم بیشترین تنزل3 می باشد و در چارچوب یادگیری عملکردی 4 قرار می گیرد.

عمومیت یافتن الگوریتمBP ، بخاطر سادگی و کاربردهای موفقیت آمیزش در حل مسائل فنی- مهندسی می باشد.

علیرغم، موفقیت های کلی الگوریتم BP در یادگیری شبکه های عصبی چند لایه پیش خور هنوز، چندین مشکل اصلی وجود دارد:

- الگوریتم پس انتشار خطا، ممکن است به نقاط مینیمم محلی در فضای پارامتر، همگرا شود. بنابراین زمانی که الگوریتم BP همگرا می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم.

- سرعت همگرایی الگوریتم BP، خیلی آهسته است.

از این گذشته، همگرایی الگوریتم BP، به انتخاب مقادیر اولیه وزنهای شبکه، بردارهای بایاس و پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است.

در این گزارش، با هدف بهبود الگوریتم BP، تکنیک های مختلفی ارائه شده است. نتایج شبیه سازیهای انجام شده نیز نشان می دهد، الگوریتم های پیشنهادی نسبت به الگوریتم استاندارد BP، از سرعت همگرایی بالاتری برخوردار هستند.

خلاصه ای از الگوریتم BP

از قانون یادگیری پس انتشار خطا (BP)، برای آموزش شبکه های عصبی چند لایه پیش خور که عموماً شبکه های چند لایه پرسپترون 5 (MLP) هم نامیده می شود، استفاده می شود، استفاده می کنند. به عبارتی توپولوژی شبکه های MLP، با قانون یادگیری پس انتشار خطا تکمیل می شود. این قانون تقریبی از الگوریتم بیشترین نزول (S.D) است و در چارچوب یادگیری عملکردی قرار می گیرد.

بطور خلاصه، فرایند پس انتشار خطا از دو مسیر اصلی تشکیل می شود. مسیر رفت6 و مسیر برگشت 7 .

در مسیر رفت، یک الگوی آموزشی به شبکه اعمال می شود و تأثیرات آن از طریق لایه های میانی به لایه خروجی انتشار می یابد تا اینکه

نهایتاً خروجی واقعی شبکه MLP، به دست می آید. در این مسیر، پارامترهای شبکه (ماتریس های وزن و بردارهای بایاس)، ثابت و بدون تغییر در نظر گرفته می شوند.

در مسیر برگشت، برعکس مسیر رفت، پارامترهای شبکه MLP تغییر و تنظیم می گردند. این تنظیمات بر اساس قانون یادگیری اصلاح خطا1 انجام می گیرد. سیگنال خطا، رد لایه خروجی شبکه تشکیل می گردد. بردار خطا برابر با اختلاف بین پاسخ مطلوب و پاسخ واقعی شبکه می باشد. مقدار خطا، پس از محاسبه، در مسیر برگشت از لایه خروجی و از طریق لایه های شبکه به سمت پاسخ مطلوب حرکت کند.

در شبکه های MLP، هر نرون دارای یک تابع تحریک غیر خطی است که از ویژگی مشتق پذیری برخوردار است. در این حالت، ارتباط بین پارامترهای شبکه و سیگنال خطا، کاملاً پیچیده و و غیر خطی می باشد، بنابراین مشتقات جزئی نسبت به پارامترهای شبکه به راحتی قابل محاسبه نیستند. جهت محاسبه مشتقات از قانون زنجیره ای2 معمول در جبر استفاده می شود.

فرمول بندی الگوریتم BP

الگوریتم یادگیری BP، بر اساس الگوریتم تقریبی SD است. تنظیم پارامترهای شبکه، مطابق با سیگنالهای خطا که بر اساس ارائه هر الگو به شبکه محاسبه می شود، صورت می گیرد.

الگوریتم بیشترین تنزل با معادلات زیر توصیف می شود:

(1)                                       

(2)                                                  

به طوری WLji و bLj، پارامترهای نرون j ام در لایه iام است. α، نرخ یادگیری2 و F، میانگین مربعات خطا می باشد.

 (3)                                                              

(4)                                                                                  

(5)           

به طوریکه SLj(k)، حساسیت رفتار شبکه در لایه L ام است.

معایب الگوریتم استاندارد پس انتشار خطا1 (SBP)

الگوریتم BP، با فراهم آوردن روشی از نظر محاسباتی کارا، رنسانسی در شبکه های عصبی ایجاد نموده زیرا شبکه های MLP، با قانون یادگیری BP، بیشترین کاربرد را در حل مسائل فنی- مهندسی دارند.

با وجود، موفقیت های کلی این الگوریتم در یادگیری شبکه های عصبی چند لایه پیش خود، هنوز مشکلات اساسی نیز وجود دارد:

- اولاً سرعت همگرایی الگوریتم BP آهسته است.

همانطور که می دانیم، تغییرات ایجاد شده در پارامترهای شبکه (ماتریس های وزن و بردارهای بایاس)، پس از هر مرحله تکرار الگوریتم BP، به اندازه ، است، به طوریکه F، شاخص اجرایی، x پارامترهای شبکه و α، طول قدم یادگیری است.

از این، هر قدر طول قدم یادگیری، α، کوچکتر انتخاب گردد، تغییرات ایجاد شده در پارامترهای شبکه، پس از هر مرحله تکرار الگوریتم BP، کوچکتر خواهد بود، که این خود منجر به هموار گشتن مسیر حرت پارامترها به سمت مقادیر بهینه در فضای پارامترها می گردد. این مسئله موجب کندتر گشتن الگوریتم BP می گردد. بر عکس با افزایش طول قدم α، اگرچه نرخ یادگیری و سرعت یادگیری الگوریتم BP افزایش می یابد، لیکن تغییرات فاحشی در پارامترهای شکه از هر تکراربه تکرار بعد ایجاد می گردد، که گاهی اوقات موجب ناپایداری و نوسانی شدن شبکه می شود که به اصطلاح می گویند پارامترهای شبکه واگرا شده اند:

در شکل زیر، منحنی یادگیری شبکه برای جدا سازیالگوها در مسأله XOR، به ازای مقادیر مختلف نرخ یادگیری، نشان داده شده است. به ازای مقادیر کوچک، α، شبکه کند اما هموار، یاد نمی گیرد الگوهای  XOR را از هم جدا نماید، ددر صورتی که به ازای 9/0= α شبکه واگرا می شود.

شامل 24 صفحه فایل word قابل ویرایش


اشتراک بگذارید:


پرداخت اینترنتی - دانلود سریع - اطمینان از خرید

پرداخت و دانلود

مبلغ قابل پرداخت 2,000 تومان
عملیات پرداخت با همکاری بانک انجام می شود

درصورتیکه برای خرید اینترنتی نیاز به راهنمایی دارید اینجا کلیک کنید


فایل هایی که پس از پرداخت می توانید دانلود کنید

نام فایلحجم فایل
maghaleh_740313_7879.zip177.4k





دانلود مقاله اختلال ODD چیست

دانلود مقاله اختلال ODD چیست ODD چیست ؟ ODD یک اختلال روانپزشکی است که با دو دسته از مشکلات متفاوت شناخته می شود . این افراد پرخاشگر هستند و عمدا تمایل دارند که دیگرا ن را  آزار داده و تحریک نمایند . دقیقا به همین دلیل است افراد دنبال درمان می گردند  . هنگامی که ODD با ADHD افسردگی ،teures ، اختلالات اضطرابی یا دیگر اختلالات عصبی و روانی همراه می گردد ، زندگی با این کودک بسیار مشکل تر می شود . به عنوان مثال ADHA همر ...

توضیحات بیشتر - دانلود 1,800 تومان

دانلود مقاله پرخاشگری ، نظریه ها ، کنترل و درمان آن

دانلود مقاله پرخاشگری ، نظریه ها ، کنترل و درمان آن طرفداران ذاتی بودن پرخاشگری گروهی از صاحب نظران علوم رفتاری نظیر فروید1 و لورنز2 معتقدند که پرخاشگری یک رفتاری است که ریشه در ذات و فطرت انسان دارد. این دومعتقدند که پرخاشگری به عنوان یک نیروی نهفته در انسان دارای حالت هیدرولیکی است که به تدریج در شخص متراکم و فشرده می شود و سرانجام نیاز به تخلیه پیدا می کند. به نظر لورنز اگر چنین انرژی به شکل مطلوب و صحیح مثلا در طرق ورزش ها و بازیها تخلیه شود ج ...

توضیحات بیشتر - دانلود 1,800 تومان

دانلود مقاله تاريخچه روانشناسی رشد

دانلود مقاله تاريخچه روانشناسی رشد اگر امروز حمايت ازكودكان و فراهم آوردن امكانات براي رشد همه جانبه و شكوفا كردن تمام ظرفيتهاي انساني آنها هدف مطالعه كودكان است، چنين ديدگاهي در گذشته كمتر وجود داشته است. در دوران باستان بسيار اتفاق مي افتاد كه كودكان را به دلايل مختلف از بين  مي بردند مثلاً در رم قديم (تا سال 374ميلادي ) كشتن كودكان حق قانوني والدين بود. تاريخ گذشته پر است از رويدادهايي كه درآن كودكان را قرباني خدايان و بته ...

توضیحات بیشتر - دانلود 3,500 تومان

آخرین محصولات فروشگاه