شماره ركورد :
642427
عنوان مقاله :
روش پيش‌تعليم سريع بر مبناي كمينه‌سازي خطا براي همگرايي يادگيري شبكه‌هاي‌ عصبي با ساختار عميق
عنوان فرعي :
A new fast pre training method for training of deep neural network
پديد آورندگان :
سيّدصالحي، سيّده زهره نويسنده دانشكده مهندسي پزشكي، دانشگاه صنعتي اميركبير، تهران، ايران Seyyedsalehi, Seyyede Zohreh , سيّدصالحي، سيّد‌علي نويسنده دانشكده مهندسي پزشكي، دانشگاه صنعتي اميركبير، تهران، ايران Seyyedsalehi, Seyyed Ali
اطلاعات موجودي :
دوفصلنامه سال 1392 شماره 19
رتبه نشريه :
علمي پژوهشي
تعداد صفحه :
14
از صفحه :
13
تا صفحه :
26
كليدواژه :
شبكه‌‌هاي عصبي , همگرايي , پيش‌تعليم , ساختار عميق , استخراج مولّفه‌
چكيده فارسي :
در اين مقاله با توسعه روش‌هاي موجود و بر مبناي كمينه‌سازي خطا و حفظ تمايز بيشينه بين نمونه‌ها، يك روش پيش‌تعليم لايه‌به‌لايه سريع و كارا جهت مقداردهي اوليه مناسب وزن‌ها در شبكه‌هاي عصبي با ساختارهاي عميق ارايه شده است. تعليم شبكه‌هاي عصبي عميق به‌دليل مواجهه با تعداد بالاي كمينه‌هاي موضعي اغلب همگرا نمي‌شود. درحالي‌كه با مقداردهي اوليه مناسب وزن‌هاي شبكه به‌جاي مقادير تصادفي در ابتداي مسير تعليم، مي‌توان از بسياري از كمينه‌هاي موضعي اجتناب كرد. در اين روش شبكه عصبي چندلايه به تعداد متناظري شبكه با يك لايه پنهان شكسته مي‌شود و ابتدا اين شبكه‌هاي يك لايه پنهان تعليم داده مي‌شوند. سپس مقادير وزن حاصل از تعليم اينها در شبكه عصبي اصلي قرار داده مي‌شود و براي تنظيم دقيق وزن‌ها، تعليم يك‌پارچه صورت مي‌گيرد. روش پيشنهادي براي پيش‌تعليم شبكه عصبي خودانجمني پنج لايه پنهان جهت استخراج مولّفه‌هاي اساسي غيرخطي چهره براي دادگان بسفروس مورد استفاده قرار گرفت. مقايسه ميانگين نتايج شبكه‌هاي‌ عصبي با مقداردهي اوليه تصادفي و مقداردهي با روش پيش‌تعليم لايه‌به‌لايه نشان مي‌دهد كه اين روش پيش‌تعليم، علاوه‌بر اينكه سرعت همگرايي تعليم را بهبود مي‌دهد، قدرت تعميم شبكه را نيز بالا مي‌برد. به‌گونه‌اي‌كه با وجود خطاي تعليم يكسان، با به‌كارگيري روش پيش‌تعليم لايه‌به‌لايه براي مقداردهي اوليه وزن‌ها، خطاي بازسازي هر پيكسل %69/13 كاهش و درصد صحت بازشناسي تصاوير با استفاده از مولّفه‌هاي استخراج شده حدود %10 بهبود داشته است. همچنين بررسي‌ها نشان داد كه روش پيش‌‌تعليم لايه‌به‌لايه در مقايسه با دو روش پيش‌تعليم مشرف به هدف و تجزيه به ماشين‌هاي بولتزمان كارايي بالاتري دارد.
چكيده لاتين :
In this paper, we propose efficient method for pre-training of deep bottleneck neural network (DBNN). Pre-training is used for initial value of network weights; convergence of DBNN is difficult because of different local minimums. While with efficient initial value for network weights can avoided some local minimums. This method divides DBNN to multi single hidden layer and adjusts them, then weighs of these networks is used for initial value of DBNN weights and then train network. Proposed network is used for extraction of face component. This Method is implemented on Bosphorus database. Comparing results shows that new method has more convergence speed and generalization than random initial value. By means of this new training method and with same training error rate pixel reconstruction error is decreased 13.69% and recognition rate is increased 10%. Besides, it has been shown that this method bears higher efficiency and convergence speed in comparison with some of the previous pre-training methods.
سال انتشار :
1392
عنوان نشريه :
پردازش علائم و داده ها
عنوان نشريه :
پردازش علائم و داده ها
اطلاعات موجودي :
دوفصلنامه با شماره پیاپی 19 سال 1392
كلمات كليدي :
#تست#آزمون###امتحان
لينک به اين مدرک :
بازگشت