بخشی از پاورپوینت

اسلاید 2 :

بنام ایزد دانا
نام درس : مدیریت داده و کامپیوتر

اسلاید 3 :

تاریخچه :
1- بررسی عملکرد نورون های بیولوژیک قبل از اختراع کامپیوترهای دیجیتال( دهه های 1930و1940 )
2- وارن مک کالچ ( متخصص اعصاب ) و والتر پیتس ( منطق دان )مدل ساده عملکرد نورون های بیولوژیک را تحت مقاله ای بنام محاسبات منطقی در فعالیت عصبی منتشر کردند. (1943 )
3-پس از اختراع کامپیوترهای دیجیتال در دهه 1950 دانشمندان علوم پایه براساس فعالیتهای مک کالچ و پیتس مدلهایی بنام پرسپترون( Perceptron ) ایجاد کردند.( تعادل چوب قائم روی سطح متحرک)
4-بعلت ضعیف بودن کامپیوترها و نقایص نظری موفقیت محدودی در شبکه های اولیه بدست آمد.( سال 1968 دو پروفسور بنام های سایمون پاپرت و مارین مینسکی)
5- جان هاپفیلد از موسسه تکنولوژی کالیفرنیا روش پس انتشار خطا را ابداع کرد که فاقد نقایص و خطاهای اولیه بود.(1982 ) و از سطح آزمایشگاهی به سمت فعالیتهای عملی و تجاری حرکت کرد.

اسلاید 4 :

روشی برای محاسبه است که بر پایه اتصال به هم پیوسته چندین واحد پردازشی ساخته میشود.
شبکه از تعداد دلخواهی سلول یا گره یا واحد یا نرون تشکیل میشود که مجموعه ورودی را به خروجی ربط می دهند.
شبکه عصبی چیست؟

اسلاید 5 :

Target marketing
پيدا کردن الگوي خريد مشتري
Cross-market analysis
پيدا کردن قوانين انجمني مربوط به خريد مشتريان
Customer profiling
دسته بندي مشتريان براساس نوع خريد
آناليز نيازهاي مشتريان
تشخيص محصولات مناسب براي دستههاي مختلف مشتريان
تشخيص فاکتورهايي براي جذب مشتريان جديد
کاربردهاي داده کاوي – آناليز بازار

اسلاید 6 :

قدرتمند ترین شبکه های عصبی ، شبکه های عصبی بیولوژیک می باشند مغز انسان به او این امکان را می دهد که از تجارب خود استفاده کرده و آنها را تعمیم دهد. شبکه ها از ارتباطات عصبی موجود در مغز انسان الهام گرفته و آنها را روی کامپیوتر های دیجیتال پیاده سازی می کنند. در واقع از مغز و نحوه کار آن بمنظور ساخت کامپیوتر الگوبرداری می نماید.

اسلاید 7 :

الهام از طبیعت
مطالعه شبکه های عصبی مصنوعی تا حد زیادی ملهم از سیستم های یادگیر طبیعی است که در آنها یک مجموعه پیچیده از نرونهای به هم متصل در کار یادگیری دخیل هستند.
گمان میرود که مغز انسان از تعداد 10 11 نرون تشکیل شده باشد که هر نرون با تقریبا 104 نرون دیگر در ارتباط است.
سرعت سوئیچنگ نرونها در حدود 10-3 ثانیه است که در مقایسه با کامپیوترها 10 -10 ) ثانیه ( بسیار ناچیز مینماید. با این وجود آدمی قادر است در 0.1 ثانیه تصویر یک انسان را بازشناسائی نماید. این قدرت فوق العاده باید از پردازش موازی توزیع شده در تعدادی زیادی از نرونها حاصل شده باشد.

اسلاید 8 :

نوعی از شبکه عصبی برمبنای یک واحد محاسباتی به نام پرسپترون ساخته میشود. یک پرسپترون برداری از ورودیهای با مقادیر حقیقی را گرفته و یک ترکیب خطی از این ورودیها را محاسبه میکند. اگر حاصل از یک مقدار آستانه بیشتر بود خروجی پرسپترون برابر با 1 و در غیر اینصورت معادل -1 خواهد بود.
Perceptron

اسلاید 9 :

عوامل رواج استفاده از شبکه های عصبی در دهه 1980 :
قدرت محاسباتی کافی در اختیار متخصصین قرار گرفت.
تحلیل گران با پی بردن به ارتباط بین شبکه های عصبی و روش های آماری ، درک بهتری نسبت به این شبکه ها پیدا کرده بودند.
خودکار شدن سیستم های عملیاتی که منجر به تولید داداه های مرتبط شده بود.
دانشمندان به کاربردهایی با اولویت بالاتری نسبت به هوش مصنوعی دست یافته بودند. در واقع یک رویکرد جدی در ارتباط با تولید ابزار و امکانات کلربردی ایجاد شد.
کاربرد شبکه های عصبی در مسئله ارزیابی ملک:
بمنظور ارزیابی خوب و سازگار و محاسبه ارزش بازار ، فردی مک ، اتحادیه شرکتهای رهن وام خانه ، محصولی بنام Loan Prospector تهیه کردکه این ارزیابی را بصورت خودکار برای تمام خانه های سرتاسر ایالات متحده انجام می داد. این شبکه عصبی از یک ارزیاب تقلید می کند که ارزش بازار ملک را براساس ویژگیهای ملک محاسبه می کند. منطقه – اتاق خواب اضافه – پارکینگ بزرگتر – سبک معماری – مساحت و فضای آزاد و .

اسلاید 10 :

یک مسئله خوب جهت پیش بینی و تخمین مناسب دارای سه ویژگی می باشد :
ورودیهای قابل درک
خروجی قابل درک
وجود تجربه کافی و در دسترس

اسلاید 11 :

مراحل ساختن یک مدل :
تشخیص مشخصه های ورودی و خروجی
تبدیل ورودی و خروجی ها در یک بازه کوچک (1- تا 1 )
ایجاد شبکه با یک ساختار مناسب
آموزش شبکه با مجموعه داده های آموزشی
اعتبار سنجی
ارزیابی شبکه با آزمون جهت بررسی کیفیت
بکارگیری مدل در شبکه جهت پیش بینی متناظر با ورودیهای نامعلوم

اسلاید 12 :

یکی از خطراتی که در استفاده از تمامی مدلهای پیش بینی و دسته بندی وجود دارد کاهش کارایی مدل در طی زمان می باشد.در مثال ارزیابی ملک ، یادگیری شبکه عصبی در ارتباط با الگوهای تاریخی و قدیمی صورت گرفته است هیچ تضمینی وجود ندارد که شرایط فعلی بازار مشابه به شرایط یک هفته پیش ، یک ماه پیش یا 6 ماه گذشته باشد خیلی از خرید و فروشها و اتفاقات ملک در مجموعه آموزشی وجود ندارد. مشکل به روز نگهداشتن مدل شبکه عصبی با توجه به دو عامل تشدید می شود:

مدل ، عملکرد خود را با تولید قانون نمایش نمی دهد.بنابراین شاید معلوم نشود چه زمانی کارایی خود را از دست داده است.
کاهش کارایی شبکه های عصبی بتدریج و بدون بروز علایم خاصی رخ می دهد. و بروز نمودن آن معلوم نمی باشد.

اسلاید 13 :

راه حلها :
همان شبکه عصبی را به مرحله آموزش برگردانیم و مقادیر جدید بدهیم (هنگامی که نیاز به تغییرات کم باشد )
نمونه های جدید به مجموعه آموزشی بدهیم شاید مثالهای قدیمی تر را حذف کنیم . ( هنگامی که شرایط بازار بشدت تغییر کرده باشد )
نکته مهم :
عملکرد خوب یک شبکه عصبی ، وابسته به خوبی مجموعه آموزشی بکار رفته در ایجاد آن است.

اسلاید 14 :

تابع فعالسازی ( Activation Function ):
واحد ساختاری ، ورودیهایش را با هم ترکیب می کند و یک مقدار را بدست می آورد . این مقدار بعدا برای تولید خروجی دچار تغییر می شود این مراحل را تابع فعالسازی می نامند.
تابع فعالسازی از دو قسمت تشکیل شده است:
تابع ترکیب
تابع تبدیل
تابع ترکیب :
تمام ورودیها را باهم ترکیب کرده و یک مقدار را تولید می کند.هر ورودی وزن مخصوص به خودش را دارد معمولترین تابع ، تابع وزنی می باشد که هر ورودی در وزنش ضرب شده و حاصلضرب ها با یکدیگر جمع می شوند .تعدادی از توابع عبارتند از:بیشینه ورودی های وزن دار ، تابع مینیمم ، و عملگرد منطقی AND یا OR که روی مقادیر اعمال می شوند.

اسلاید 15 :

تابع تبدیل :
مقدار به دست آمده از طریق تابع ترکیب را به خروجی واحد ساختاری تبدیل می کند.

تابع های تبدیل رایج : تابع های خطی ، سیگموئید( لجستیک) ، تانژانت هیپربولیک

توابع خطی : تابع خطی کمترین اولویت را دارد یک شبکه عصبی پیش خور که تنها از واحدهای ساختاری با تابع تبدیل خطی و تابع ترکیب مجموع وزنی تشکیل شده باشد تنها همان کار رگرسیون خطی را انجام می دهد.
توابع سیگموئید :
توابعی بشکل شبیه به S که دوتا از معمولترین آنها در شبکه های عصبی ، تابع لجستیک و تانژانت هیپربولیک می باشد تفاوت اصلی این دو تابع در دامنه خروجی می باشد که در تابع لجستیک بین صفر و 1 و در تابع تانژانت هیپربولیک بین 1- و 1 می باشد.

اسلاید 16 :

لایه پنهان: (Hidden Layer)
ورودی ها و خروجی شبکه به این لایه متصل نمی باشد.معمولا هر واحد ساختاری موجود در لایه پنهان به تمامی واحدهای ساختاری موجود در لایه ورودی متصل است یک شبکه عصبی می تواند هر تعدادی از لایه های پنهان را داشته باشد ولی بطور معمول یک لایه پنهان کفایت می کند.
اریبی یا بایاس:
هر یک از واحدهای ساختاری دارای یک ورودی اضافی است این ورودی ثابت است و اریبی یا بایاس نامیده می شود. و همیشه دارای مقدار 1 است این ورودی مانند سایر ورودیها دارای وزن بوده ونیز در تابع ترکیب بحساب آورده می شود. اریبی یا بایاس مانند یک وزنه متعادل کننده عمل کرده و به فهم بهتر الگوها توسط شبکه کمک می کند.

اسلاید 17 :

لایه خروجی( Output Layer ):
آخرین جزء لایه خروجی است زیرا به خروجی شبکه عصبی متصل است این لایه به تمامی واحدهای ساختاری لایه پنهان متصل است معمولا یک لایه خروجی وجود دارد اما ممکن است بیش از یک واحد ساختاری در لایه خروجی قرار گرفته باشد.
پس انتشار خطا :
این روش اولین روشی است که برای آموزش شبکه های پیش خور بکاربرده شد.این روش از سه مرحله اصلی تشکیل شده است:
شبکه یک نمونه آموزشی را با استفاده از وزن های موجود در شبکه خروجی(ها) را محاسبه می کند.
محاسبه اختلاف بین نتیجه محاسبه شده با نتیجه مورد انتظار( خطا)
تنظیم اوزان شبکه برای بحد اقل رساندن خطا

اسلاید 18 :

قانون دلتای تعمیم یافته
هر واحد ساختاری تخمین می زند که آیا انجام تغییرات روی هر ورودی خطا را افزایش یا کاهش می دهد سپس هر واحد با انجام تغییرات سعی در کاهش خطا می نماید با انجام تغییرات روی هرکدام از نمونه های آموزشی اوزان را بسمت مقدار بهینه سوق می دهد این ادامه می یابد تا وزن های موجود در شبکه دیگر تغییری نخواهند داشت و خطا نیز کاهش نمی یابد. دراین مرحله آموزش خاتمه پیدا می کند این تکنیک بکار رفته برای تنظیم اوزان را Generalized Delta می نامند.

الگوریتم های کاربردی برای آموزش شبکه ها:
پس انتشار خطا
تپه نوردی
شبیه سازی تبرید
گرادیان مزدوج

اسلاید 19 :

الگوریتم Gradient Descent
با توجه به نحوه تعریف E سطح خطا بصورت یک سهمی خواهد بود. ما بدنبال وزنهائی هستیم که حداقل خطا را داشته باشند . الگوریتم gradient descent در فضای وزنها بدنبال برداری میگردد که خطا را حداقل کند. این الگوریتم از یک مقدار دلبخواه برای بردار وزن شروع کرده و در هر مرحله وزنها را طوری تغییر میدهد که در جهت شیب کاهشی منحنی فوق خطا کاهش داده شود.
E(W)

اسلاید 20 :

مشکلات روش Gradient Descent
ممکن است همگرا شدن به یک مقدار مینیمم زمان زیادی لازم داشته باشد.
اگر در سطح خطا چندین مینیمم محلی وجود داشته باشد تضمینی وجود ندارد که الگوریتم مینیمم مطلق را پیدا بکند.
در ضمن این روش وقتی قابل استفاده است که:
فضای فرضیه دارای فرضیه های پارامتریک پیوسته باشد.
رابطه خطا قابل مشتق گیری باشد

در متن اصلی پاورپوینت به هم ریختگی وجود ندارد. برای مطالعه بیشتر پاورپوینت آن را خریداری کنید