شماره ركورد كنفرانس :
4852
عنوان مقاله :
p128. مدلسازي رسانندگي حرارتي نانوسيالهاي حاوي نانولولههاي كربني بر پايه اتيلن گليكول با استفاده از شبكهي عصبي مصنوعي
عنوان به زبان ديگر :
Modeling of thermal conductivity of ethylene glycol nanofluids containing carbon nanotubes by artificial neural network
پديدآورندگان :
آهنگرپور آمنه ahangarpour8@yahoo.com دانشگاه شهيد چمران اهواز؛ , فربد منصور farbod_m@scu.ac.ir دانشگاه شهيد چمران اهواز؛
كليدواژه :
شبكه عصبي مصنوعي , پرسپترون چند لايه اي , نانوسيال ها , نانولوله هاي كربني عامل دار , رسانندگي حرارتي. , 89
عنوان كنفرانس :
چهاردهمين كنفرانس ملي ماده چگال انجمن فيزيك ايران
چكيده فارسي :
در اين تحقيق، جهت طراحي يك آزمايشگاه مجازي و مدلسازي دادههاي تجربي از شبكه عصبي مصنوعي MLP (پرسپترون چند لايهاي) استفاده گرديد. جهت رسيدن به حداقل خطا در بخش سنجش شبكه، شبكههاي عصبي با تعداد لايههاي پنهان متفاوت (1، 2 و 3 لايه) و تعداد نرونهاي متفاوت در هر لايه (2، 3، 4، 5، 6، 10 و 15 نرون) در بخش آموزش شبكه مورد برررسي قرار گرفتند. نتايج نشان دادند كه افزايش تعداد نرونها باعث افزايش درصد خطا ميشود به طوريكه كمترين درصد خطا در بخش سنجش (5/6 %) براي شبكه عصبي شامل دو لايه پنهان كه لايه اول داراي 3 نرون و لايه دوم داراي 2 نرون بود، بدست آمد. همچنين از يك بار و دو بار تكرار وروديهاي آموزش شبكه، به منظور آموزش بهتر شبكه استفاده شد كه البته مشاهده گرديد تكرار وروديها تأثير قابل توجهي در بهبود نتايج حاصل و كاهش درصد خطا ندارد.
چكيده لاتين :
In this work, the MLP (Multi Layer Perceptron) artificial neural network was used to design a virtual lab and modeling the experimental data. In the network train section, neural networks with different hidden layers (1, 2 and 3 layers) and different number of neurons in each layer (2, 3, 4, 5, 6, 10 and 15 neurons) were studied to achieve the minimum error in the network test section. The results showed the increasing in the error percentage by increasing in the number of neurons, as the minimum error in the network test section (6.5%) was obtained for the neural network with two hidden layers by 3 neurons in the first layer and 2 neurons in the second one. Also, once and twice the network input data were used in order to better train the network. It was found that the repetition of input data does not have a significant effect on the results and reducing the error percentage.