بخشی از مقاله
چکیده
هدف از این تحقیق پیشبینی محتوای رطوبتی خرمالودر طی خشک کردن با آون مایکروویو به عنوان تابعی از توان و سرعت هوا به کمک شبکه های عصبی مصنوعی است. در این تحقیق اثر عوامل تاثیرگذار توان در سه سطح 100 - ، 300 و 400 وات - و سرعت هوا در چهار سطح 0/25 - ، 0/5، 0/75 و 1 متر بر ثانیه - بر تغییرات محتوای رطوبتی استفاده شد. برای ایجاد الگوهای آموزش و ارزیابی و تست به کمک یک آون مایکروویو خانگی، آزمایشهای خشک کردن انجام گرفت.
با به دست آمدن تغییرات محتوای رطوبتی با زمان از شبکههای MLP و TDNN با الگوریتمهای یادگیری بهینه سازی کاهش گرادیان وبا توابع آستانه لوگ سیگموئید و تانژانت سیگموئید برای آموزش الگوها استفاده شد. شبکه عصبی TDNN نتایج بهتری نسبت به شبکه عصبی MLP نشان داد. شبکه TDNN با ساختار 3 - 8 - 1 با تابع آستانه سیگموئید لگاریتمی در مقایسه با توپولوژیهای دیگر نتایج بهتری را ارائه کرد. این توپولوژی تغییرات محتوای رطوبتی را با ضرایب تعیین 0/9979 پیش بینی کرد.
مقدمه
خشک کردن یکی قدیمیترین راههای نگهداری مواد غذایی است که برای جلوگیری از خرابی مواد غذایی با کاهش دادن محتوای رطوبتی منجر به کاهش یا توقف فعالیتهای آنزیمی یا میکروبی میشود و از طرف دیگر محصولات با وزن و حجم کم تولید میشود که جابجایی و فرآوری آنها آسانتر میشود. یکی از مهمتربن قسمتهای فرآیند خشک کردن، پیش بینی تغییرات محتوای رطوبتی در طی زمان است. توسعه روش های متداول بر پایه اصول اولیه برای پیش بینی فرآیند زمان زیادی صرف میکند و دقت نتایج بدست آمده از آنها رضایت بخش نیست. شبکه های عصبی مصنوعی قدرت تامین دقت و سرعت لازم را برای پیش بینی فرآیند خشک کردن را دارند.
رسیدن به محتوای رطوبتی مطلوب در خشک کردن خرمالو بخاطر این که تحت تاثیر چندین پارامتر متغیر که رابطه غیر خطی با آنها دارد، سخت و زمانبر است. همچنین خشک کردن بیش از حد، انرژی زیادی مصرف میکند و روی شاخصهای کیفی محصول خشک شده تاثیر میگذارد و اگر رطوبت به حد مطلوب پایین آورده نشود، باعث کپک زدن محصول میشود، بنابراین رسیدن به یک محتوای رطوبتی مطلوب یکی از شاخصهای کلیدی در فرآیند خشک کردن است. مدلهای فیزیکی ارائه شده در این زمینه برای برآورد محتوای رطوبتی بر اساس پارامترهای هوای خشک، نیاز به عملیات زیادی برای تعیین پارامترها و حل مدل دارد و با توجه به تقریبی بودن پارامترها، خطای پیشبینی آن زیاد است
امروزه با توسعه سریع فناوری پردازش رایانهای و ایجاد نرم افزارهای مربوطه، از مزایای فناوری هوش مصنوعی برای حل مسائل مربوط به مدل سازی سیستمها و پیشبینی فرآیندها استفاده میشود. یکی از روشهای هوش مصنوعی که در سطح وسیعی در خشک کردن از یک دهه گذشته آغاز شده و برای شبیه سازی و پیشبینی پارامترهای مورد نیاز در فرآیندهای خشککردن در حال بسط و توسعه است، شبکههای عصبی مصنوعی میباشد که در این تحقیق از آن برای مدل سازی فرآیند استفاده میشود
مواد و روش ها
-1مدل سازی شبکه های عصبی مصنوعی
شبکهای عصبی مصنوعی، یکی از روشهای محاسباتی است که به کمک فرآیند یادگیریٌ و با استفاده از پردازشگرهایی بنام نرون تلاش میکند با شناخت روابط ذاتی بین دادهها، نگاشتی میان فضای ورودی - لایه ورودی - و فضای مطلوب - لایه خروجی - ارائه دهد. لایه یا لایههای مخفی، اطلاعات دریافت شده از لایه ورودی را پردازش کرده و در اختیار لایه خروجی قرار میدهند. هر شبکه با دریافت مثالهایی آموزش میبیند. آموزش فرایندی است که در نهایت منجر به یادگیری می شود. یادگیری شبکه، زمانی انجام میشود که وزنهای ارتباطی بین لایهها چنان تغییر کند که اختلاف بین مقادیر پیشبینی شده و محاسبه شده در حد قابل قبولی باشد.
با دست یابی به این شرایط فرایند یادگیری محقق شده است. این وزنها حافظه و دانش شبکه را بیان میکنند. شبکه عصبی آموزش دیده میتواند برای پیشبینی خروجیهای متناسب با مجموعه جدید دادهها بکار رود.
با توجه به ساختار شبکه عصبی مصنوعی، ویژگی های عمده آن، سرعت بالای پردازش، توانایی یادگیری الگو به روش اراده الگو، توانایی تعمیم دانش پس از یادگیری، انعطاف پذیری در برابر خطاهای ناخواسته و عدم ایجاد اخلال قابل توجه درصورت بروز اشکال در بخشی از اتصال های به دلیل توزیع وزن های شبکه است.
در این تحقیق از شبکه MLP و TDNN استفاده شد که به اختصار توضیح داده می شود:
1-1 شبکه پرسپترون چند لایه{MLP}
این شبکه شامل یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی است. برای اموزش این شبکه، معمولا از الگوریتم پس انتشار ٍ - BP - استفاده می شود. در طی آموزش شبکه MLP به کمک الگوریتم یادگیری BP،ابتدا محاسبات از ورودی شبکه به سوی خروجی شبکه انجام می شود و سپس مقادیر خطای محاسبه شده به لایههای قبل انتشار می یابد. در ابتدا، محاسبه خروجی به صورت لایه به لایه انجام می شود و خروجی هر لایه، ورودی لایه بعدی خواهد بود.
در حالت پس انتشار، ابتدا لایه های خروجی تعدیل می شود، زیرا برای هر یک از نرون های لایه خروجی، مقدار مطلوبی وجود دارد و میتوان به کمک آنها و قاعدههای بهنگام سازی، وزنها را تعدیل نمود. با وجود اینکه الگوریتم پس انتشار خطا نتایج بسیار خوبی در حل مسائل ارائه داده است، در حل برخی از مسائل ضعیف عمل میکند که میتواند به دلیل طولانی بودن یا مشخص نبودن زمان یادگیری، انتخاب نامناسب ضریب یادگیری و یا توزیع تصادفی وزنهای اولیه باشد. در برخی موارد نیز به دلیل وجود کمینه موضعی، فرایند یادگیری مختل می شود که به دلیل قرار گرفتن جواب در قسمت های هموار توابع آستانه دچار وقفه می شود. مراحل آموزش به کمک این الگوریتم عبارتند از :
الف - - اختصاص ماتریس وزن تصادفی به هریک از اتصالات - ب - - انتخاب بردار ورودی و خروجی متناسب با آن - پ - - محاسبه خروجی نرون در هر لایه و در نتیجه محاسبه خروجی نرون ها در لایه خروجی - ت - - بهنگام سازی وزن ها به روش انتشار خطای شبکه به لایه های قبل که خطای یاد شده ناشی از اختلاف بین خروجی واقعی و خروجی محاسبه شده است. - ث - - ارزیابی عملکرد شبکه آموزش دیده به کمک برخی شاخص های تعریف شده مانند جذر میانگین مربعات خطا - MSE - و سرانجام برگشت به قسمت پ یا پایان آموزش.
2-1 شبکه عصبی با تاخیر زمانی
شبکه داراری ساختاری شبیه ساختارشبکه MLP با این تفاوت که یک اتصال تاخیری در ورودی آن است. این شبکه عموما یک شبکه دینامیکی نامیده می شود.
3-1 الگوریتمهای آموزش
از الگوریتم های آموزش الگوریتم لونبرگ- مارکوارتَ - LM - برای بهنگام سازی وزن های شبکه عصبی مصنوعی استفاده شد که یکی از الگوریتم های پرکاربرد می باشد چون آموزش شبکه را بسیار سریع انجام داده و سطح خطای موجود را حداقل می سازد. در واقع این الگوریتم برای افزایش سرعت یادگیری شبکه طراحی شده که بر مبنای ماتریس هیسن می باشد.
-2×طراحی شبکه عصبی مصنوعی با در نظر گرفتن سه عامل دمای و زمان خشک کردن، و سرعت هوا تغییرات محتوای رطوبتی در طی خشک کردن بدست می آید. شبکه عصبی با سه نرون لایه ورودی - دما هوا، سرعت هوا، و زمان - و یک نرون لایه خروجی - نسبت تغییرات محتوای رطوبتی - طراحی شد. توپولوژی شبکه مذکور از نوع پیشخور است. در این تحقیق از نرم افزار Matlab 7. استفاده شد.از شبکه MLP و TDNN برای پیش بینی استفاده شد و همچنین توابع آستانه مختلفی برای یافتن حالت بهینه آن مورد ارزیابی قرار گرفت که عبارتند از :
یکی از مشکلاتی که هنگام آموزش شبکه عصبی ممکن است پیش بیاید، بیش اموزی شبکه است. بدین صورت که در هنگام آموزش شبکه، خطا به مقدار قابل قبول می رسد ولی هنگام ارزیابی، خطای شبکه به مراتب از خطای داده های آموزشی بیشتر باشد . برای جلوگیری از بیشاموزی دو راه وجود دارد: الف- توقف سریع آموزشُ، ب- انتخاب کمترین تعداد نرون در لایه پنهان .
در این تحقیق از روش دوم استفاده شد. بدین صورت که برای آموزش شبکه، ابتدا داده به طور تصادفی به سه قسمت تقسیم شدند، طوری که 60 درصد داده برای آموزش و 20 درصد داده ها برای ارزیابی و 20 درصد داده برای تست شبکه استفاده شد. درحین اموزش شبکه، زمانی که خطای بین داده های اموزش و ارزیابی میخواهد زیاد شود، فرآیند آموزش قطع می شود. برای یافتن شبکه عصبی با توپولوژی مناسب به کمک الگوریتم آموزشی، از معیار خطای مربعات میانگین استفاده میشود که هدف کمینه شدن خطای مذکور است که با رابطه زیر تعریف میشود.
که در آن MSE خطای مربعات میانگین در مرحله تست، Sip خروجی شبکه در نرون iام و الگوی pام، Tip خروجی هدف در نرون iام و الگوی pام، N تعداد نرون های لایه خروجی و M تعداد الگوی های تست است. برای ارزیابی شبکه انتخاب شده در مرحله قبل از معیار ضریب تعیین - R2 - برای داده های پیش بینی شده در حین آموزش شبکه استفاده شد.
برای افزایش دقت و سرعت شبکه عصبی مصنوعی، داده ها ورودی و خروجی به کمک رابطه زیر به شکل هنجار شده در محدوده [0,1] می آید:
که Tn، Xn و tn مقدار هنجار شده، Xi مقدار واقعی محتوای رطوبتی، Xo محتوای رطوبت اولیه و T max بیشینه مقادیر واقعی دما، Tmin مقدار کمینه دما و Ti مقدار واقعی دماست. ti مقدار واقعی زمان است. بعد از آموزش شبکه، شبکهای که کمترین خطای تست را داشته باشد به عنوان بهترین شبکه انتخاب می شود.
بحث و نتایج
در گام اول بعد از این شبکه آموزش دید، خطای MSE تست شبکه محاسبه و بر اساس آن مناسبترین توپولوژی انتخاب شد - جدول. - 1 مقدار MSE حاصل با این توپولوژی مناسب نبود. نتایج چند توپولوژی در جدول 1 آورده شده است. در ضمن کاربرد تابع آستانه Logsig عملکرد بهتری از خود نشان می دهد. شبکه با ساختار 3-8-1 با تعداد چرخه آموزش 22، تابع آستانه سیگموئید لگاریتمی با الگوریتم یادگیری LM در مقایسه با توپولوژیهای دیگر کمترین خطای آموزشی - 0/0021 - را تولید کرده است.
این توپولوژی تغییرات محتوای رطوبتی را با ضرایب تعیین 0/9731 پیش بینی کرد - شکل. - 4 کاربرد شبکه عصبی با تاخیر زمان - TDNN - نتایج بهتری نسبت به شبکه عصبی پرسپترون چند لایه دارد - جدول . - 2 شبکه با ساختار 3-8-1 با تعداد چرخه آموزش 17، تابع آستانه سیگموئید لگاریتمی با الگوریتم یادگیری LM در مقایسه با توپولوژیهای دیگر کمترین خطای آموزشی - 0/00012 - را تولید کرده است.