عنوان مقاله :
تبديل ويژگي با استفاده از خطاي كلاس بندي كمينه مبتني بر هسته براي بازشناسي الگو و گفتار
عنوان به زبان ديگر :
Feature transformation using kernel minimum classification error for pattern and speech recognition
پديد آورندگان :
زماني مقدم ، بهزاد نويسنده Zamani, behzad , اكبري ، احمد نويسنده akbari, ahmad , ناصرشريف ، بابك نويسنده Nasersharif , babak
اطلاعات موجودي :
دوفصلنامه سال 1389 شماره 13
كليدواژه :
خطاي كلاس بند كمينه , روش آناليز مولّفه اصلي , آناليز تفكيك پذيري خطّي , تبديل ويژگي , تابع هسته
چكيده فارسي :
روش هاي تبديل ويژگي را مي توان به دو دسته خطّي و غيرخطّي تقسيم كرد. ايده اصلي در روش هاي تبديل ويژگي مبتني بر هسته،
به عنوان دسته اي از روش هاي غيرخطّي، نگاشت غيرخطّي ويژگي ها به فضايي با ابعاد بالاتر است. در آناليز متمايزساز خطّي مبتني بر هسته (KLDA)، معيار تفكيك پذيري بيشتر ويژگي ها در فضاي جديد است، حال آن كه در آناليز مولّفه هاي اصلي مبتني بر هسته (KPCA)، معيار متعامدسازي ويژگي ها در فضاي حاصل است. در مقاله حاضر يك روش جديد مبتني بر هسته پيشنهاد و فرموله مي شود كه بر كمينه كردن خطاي كلاس بندي در فضاي ايجاد شده توسط هسته (KMCE) تكيه دارد. معيارهاي بهينه سازي در روش هاي KLDA و KPCA مستقل از خطاي كلاس بندي مي باشند در صورتي كه در روش پيشنهادي علاوه بر بهره برداري از ايده نگاشت غيرخطّي هسته، معيار كمينه سازي خطاي كلاس بندي نيز مورد نظر قرار مي گيرد.
بقيه چكيده به دليل اشكال در پورتال درج نگرديد. در زمان ثبت با مشكل مواجه مي شود.
چكيده لاتين :
Abstract
Feature transformation methods can be divided into two linear and nonlinear approaches. The main idea of kernel method is that if the input feature space is transformed nonlinearly to a high- dimensional space, then transformed space will become linearly separable. This separation can be obtained according to different criteria. In kernel linear discriminative analysis (KLDA), the criterion is more discrimination between features in the new space. On the contrary, the kernel principal component analysis (KPCA) is based on more feature orthogonalization in the mapped space. In this paper, as criterion, we propose to minimize the classification error in the space created by the kernel. We presented and formulated our method as the name of KMCE (kernel minimum classification error). Our experiments are performed on UCI data sets using the different classification methods and compared with conventional linear and kernel based feature transformation techniques. Results show that our method has a higher recognition rate than other mentioned methods in the case of distance based classifiers. In addition, the performance of KMCE is as well as other methods for statistical and decision tree based classification approaches. Also, we conducted some speech recognition experiments on Aurora2. Results indicate that KMCE outperforms other nonlinear feature transformation methods.
عنوان نشريه :
پردازش علائم و داده ها
عنوان نشريه :
پردازش علائم و داده ها
اطلاعات موجودي :
دوفصلنامه با شماره پیاپی 13 سال 1389
كلمات كليدي :
#تست#آزمون###امتحان