شماره ركورد كنفرانس :
4007
عنوان مقاله :
محاسبه كرانهاي آنتروپي تفاضلي نويز ضربهاي با توزيع مخلوط-نرمال
عنوان به زبان ديگر :
Calculation of Differential Entropy Bounds for Mixture-Gaussian Impulsive noise
پديدآورندگان :
شيخ حسيني محسن m.sheikhhosseini @kgut.ac.ir دانشگاه تحصيلات تكميلي صنعتي و فناوري پيشرفته كرمان , آذرنيا قنبر g.azarnia@tabrizu.ac.ir دانشگاه تبريز
كليدواژه :
كران هاي آنتروپي تفاضلي , توزيع مخلوط - نرمال , مدل مخلوط - نرمال دو مؤلفه اي , مدل ميدلتون كلاس A , نويز ضربه اي
عنوان كنفرانس :
چهارمين كنفرانس ملي مهندسي مخابرات ايران
چكيده فارسي :
اولين قدم در تحليل سيستم هاي مخابراتي از منظر نظريه اطلاعات و نرخ بيت قابل دستيابي در محاسبه آنتروپي كميت هاي مختلف كانال همچون نويز نهفته است. از طرفي توزيع نرمال براي نوبز همه كانال هاي مخابراتي معتبر نيست و نويز در مواردي همچون مخابرات خطوط قدرت، مخابرات زير آب و برخي سناريوهاي هاي مخابرات بي سيم از مدل غيرنرمال پيروي مي كند. اين مقاله به محاسبه كران هاي آنتروپي تفاضلي براي توزيع مخلوط-نرمال اختصاص دارد كه اين توزيع در برگيرنده دو مدل مشهور نويز ضربه اي يعني ميدلتون كلاس A و مخلوط-نرمال دو مؤلفه اي مي باشد. بر اين مبنا، ابتدا دو كران بالا و دو كران پايين براي آنتروپي توزيع مخلوط-نرمال محاسبه مي شود و سپس رفتار اين كران ها براي اين دو مدل برمبناي نتايج عددي مورد بررسي قرار مي گيرد. نتايج مؤيد اين است كه بهترين كران ها دز شرايط مختلف متفاوت هستند، اما اين كران ها در هر حالت خيلي بهم و به مقدار واقعي آنتروپي نزديك هستند.
چكيده لاتين :
Calculation of entropy for the channel guantites like noise is the first step for any information theoretic and achievable bit rate analysis of telecommunicaqtion systems. However, Gaussian distribution does not hold for the noise of all communications channels and in environments such as power line communications, underwater acoustics channels and some scenarios of wireless channels follows a non-Gaussian model. This paper fouces on calculation of differential entropy of Gaussian-mixture distribution which includes Middleton Class-A and ε-mixture Gaussian distributions as two well-known models of impulsive noise. First, two upper bounds and two lower bounds are found for the entropy of Gaussian-mixture distribution and then, the behaviour of these bounds are investigated for the mentioned two models of impulsive noise. The results demonstrate that the best bounds are different based on considered realizations, but they are close enough together and to the actual value of entropy.