بخشی از پاورپوینت
اسلاید 1 :
به نام خدا
اسلاید 2 :
کنفرانس درس کاربرد فن آوری اطلاعات در پزشکی
شبکه های عصبی و کاربرد آن در پزشکی
اسلاید 3 :
شبكه هاي عصبي
مقدمه
انسانها از زمانهاي بسيار دور سعي بر آن داشتند که بيوفيزيولوژي مغز را دريابند،چون همواره مسئله هوشمندي انسان و قابليت يادگيري، تعميم، خلاقيت، انعطافپذيري و پردازش موازي در مغز براي بشر جالب بوده و بکارگيري اين قابليتها در ماشينها بسيار مطلوب مي نمود. روشهاي الگوريتميک براي پياده سازي اين خصايص در ماشينها مناسب نميباشند.
شبکههاي عصبي مصنوعي (Artificial Neural Network) الگويي براي پردازش اطلاعات ميباشند که با تقليد از شبکه هاي عصبي بيولوژيکي مغز انسان ساخته شدهاند. ANNشاخه اي از فيلد هوش مصنوعي و يا سيستمهاي خبره مي باشد كه با منطق فازي مرتبط مي باشد
اسلاید 4 :
شبكه هاي عصبي
تاریخچه
اولين کوششها در شبيه سازي با استفاده از يک مدل منطقي توسط مک کلوک و والتر پيتز انجام شد که امروز بلوک اصلي سازندهي اکثر شبکه هاي عصبي مصنوعي است
در 1958 شبکه پرسپترون توسط روزنبلات معرفي گرديد. اين شبکه نظير واحدهاي مدل شدهي قبلي بود. پرسپترون داراي سه لايه به همراه يک لايه وسط که به عنوان لايه پيوند شناخته شده ميباشد است.
سيستم ديگر مدل خطي تطبيقي نرون يا Adalaline (Adaptive linear element ) در 1960 توسط ويدرو و هاف ( دانشگاه استنفورد ) بوجود آمد اولين شبکه هاي عصبي بکار گرفته شده در مسائل واقعي بودهاند.
در 1969 مينسکي و پاپرت کتابي نوشتند که محدوديتهاي سيستمهاي تک لايه و چند لايه پرسپترون را تشريح کردند
ورباس در 1974 شيوه آموزش پس انتشار خطا يا Back Propagation را ايجاد کرد که يک شبکه پرسپترون چند لايه البته با قوانين نيرومندتر آموزشي بود.
اسلاید 5 :
روش کار نرون ها
طرز كار يك مدل سلول عصبي بدين صورت است كه خطوط يا كانالهاي ورودي سيگنالهاي تحريكي يا مهاري را كه همان پارامترهاي تعريف كننده سيستم هستند به جسم سلولي يا گره هاي عصبي مي آورند مثلاً غلظت يك ماده mol/lit0.6 است. اين پارامتر به عنوان يك سيگنال الكتريكي با شدت ./6 به يك كانال ورودي مي رود در ابتداي هر كانال يك ضريب عددي ( وزن سيناسپي ) وجـود دارد كـه شـدت تـحريك در آن ضــرب مي شود . اگر مثبت باشد يك ســـيگنال تحريـكي و اگـر منفي باشد يك سيگنال مهاري است اين سيگنال هاي تحريكي يا مهاري كه از ورودي هاي مختلف به جسم سلولي مي رسند با هم به صورت خطي جمع مي گردد . اگر از ميزان آستانه كمتر باشد سلول عصبي خاموش شده و در غير اين صورت fire ( شليك ) مي شود و جريان الكتريكي ثابتي در خروجي ايجاد مي كند كه به سلولهاي ديگر وارد مي شود
اسلاید 6 :
مدل ریاضی
اسلاید 7 :
پیاده سازی الکترونیکی نرون ها
اسلاید 8 :
آموزش شبکه های عصبی
روش supervised
از مجموعه شناختهشدهاي از دادههاي ورودي و خروجيهاي متناظر آنها (training set data) براي آموزش دادن شبكه استفاده ميشود. در چنين فرايندي، پس از اعمال مجموعههاي دادههاي آموزشي، پارامترهاي شبكه به تدريج به سمت مقادير نهايي خود همگرا ميشوند.شبكههاي عصبي قادر به يافتن الگوهايي در اطلاعات هستند كه هيچكس، هيچگاه از وجود آنها اطلاع نداشته است
روش unsupervised
شبكه عصبي بدون در اختيار داشتن دادههاي خروجي، در معرض آموزش قرار ميگيرد. در واقع سيستم به تنهايي و بدون كمك خارجي بايد با توجه به شكل سيگنالهاي خروجي خود، درباره درستي و نادرستي آنها تصميمگيري نمايد
به عنوان مثال گفته ميشود كه شرايط جنگي به دليل فراواني پارامترها و تكنيكهاي نظامي متغير و پيشرفتهاي تكنولوژي نظامي، از نمونه مواردي است كه در آنها به هيچ وجه نميتوان مجموعه دادههاي آموزشي كافي به دست آورد
اسلاید 9 :
مکانیزم تنظیم وزن
قانون دونالد هوب
اگر خروجی فعال است مقدار وزنی را که ورودی مربوط به آن نیز فعال است را افزایش بده
[w]=[X]T [Y]
Wi=Σ(p=1) Xip Yp
مثال x1^x2:
x1 x2 y net
0 0 0 w=[1 1] 0
0 1 0 1
1 0 0 1
1 1 1 2
اگر خروجی محدود کننده سخت باشد و یک انحراف 1.5 به کار گرفته شود جواب تقریبا درست است.
اسلاید 10 :
معایب شبکه های عصبی
در مواردي ممكن است كه شبكه عصبي اصولاً موفق به فراگيري نشود. بدين معني كه پارامترهاي شبكه پس از زمانهاي طولاني به مقدار مشخصي همگرا نشود. چنين مواردي ممكن است بر اثر ناكافي بودن دادههاي آموزشي و يا اصولاً نقص طراحي شبكه ايجاد شوند.
مواردي در عمل وجود دارند كه شبكه عصبي مشخصي، بر اثر آموزش بيش از حد، اصطلاحا over trained شود. توجه داشته باشيد كه فرايند آموزش شبكههاي عصبي فقط به ازاي زير مجموعهاي از دادههايي كه قرار شبكه آنها را در كاربرد حقيقي خود پردازش كند، آموزش داده ميشوند. درصورتيكه تعداد دادههاي آموزشي يك شبكه عصبي بيش از اندازه زياد باشد (در واقع از تمامي دادههاي مسئله براي آموزش دادن به شبكه استفاده شود)، شبكه عصبي به جاي آنكه آموزش ببيند، به حالتي ميرسد كه به آن حفظ كردن اطلاعات ميگويند. در واقع به جاي آنكه يك شبكه عصبي براي حل مسئله از هوش خود كمك بگيرد، از محفوظات خود استفاده ميكند!
اسلاید 11 :
تحمل خطا
دسته بندي
تعميم دهي
يادگيري تطبيقي
خود سازماندهي
عملگرهاي بلادرنگ
مزایا شبکه های عصبی
اسلاید 12 :
ادامه مزایا شبکه های عصبی
شبکه عصبي چه قابليتهائي دارد
محاسبه يک تابع معلوم
تقريب يک تابع ناشناخته
شناسائي الگو
پردازش سيگنال
يادگيري انجام موارد فوق
مسائل مناسب براي يادگيري شبکه هاي عصبي
خطا در داده هاي آموزشي وجود داشته باشد
مواردي که نمونه ها توسط مقادير زيادي زوج
ويژگي-مقدار نشان داده شده باشند
تابع هد ف داراي مقادير پيوسته باشد
زمان کافي براي يادگيري وجود داشته باشد
نيازي به تعبير تابع هدف نباشد
اسلاید 13 :
1. پرسپترون
2. هاپفيلد
3. همينگ
مقايسه اي کلي مابين آنها :
1. شبکه پرسپترون جوابها را کد مي کند و خروجي از ورودي بدون هيچگونه فيدبکي محاسبه مي گردد.
2. شبکه همينگ به پاسخ مناسب منتهي شده و همواره به يکي از الگوهاي مرجع همگرا مي شود، و
الگويي را که بيشترين تشابه را با ورودي مرجع دارد انتخاب مي کندبه نوعي بهترين جواب ممکن را مي دهد.).اين شبکه اساسا براي الگوهاي باينري مي باشد).
3. شبکه هاپفيلد به الگويي همگرا مي شود که ممکن است جزو الگوهاي ذخيره شده نباشد
انواع شبکه های عصبی
اسلاید 14 :
ياگيري پرسپترون عبارتست از:
پيدا کردن مقادير درستي براي W
شبکه عصبي برمبناي پرسپترون
اسلاید 15 :
پريسپترون را ميتوان بصورت يک سطح تصميم hyperplane در فضاي n بعدي نمونه ها در نظر گرفت.
پرسپترون براي نمونه هاي يک طرف صفحه مقدار 1 و براي مقادير طرف ديگر مقدار -1 بوجود مياورد
يک پرسپترون فقط قادر است مثالهائي را ياد بگيرد که بصورت خطي جداپذير باشند
محدودیت پرسپترون
ادامه پرسپترون
اسلاید 16 :
یادگیری پرسپترون
قانون پرسپترون
قانون دلتا
اسلاید 17 :
الگوريتم يادگيري پرسپترون
1.مقاديري تصادفي به وزنها نسبت ميدهيم
2.پريسپترون را به تک تک مثالهاي آموزشي اعمال ميکنيم. اگر مثال غلط ارزيابي شود مقادير وزنهاي پرسپترون را تصحيح ميکنيم.
3.آيا تمامي مثالهاي آموزشي درست ارزيابي ميشوند:
بله پايان الگوريتم
خيربه مرحله 2 برميگرديم
4.براي يک مثال آموزشيX = (x1, x2, …, xn) در هر مرحله وزنها بر اساس قانون پريسپتون بصورت زير تغيير ميکند:
wi = wi + Δwi
Δwi = η ( t – o ) xi
t: target output
o: output generated by the perceptron
η: constant called the learning rate (e.g., 0.1)
اسلاید 18 :
الگوريتم يادگيري دلتا
وقتي که مثالها بصورت خطي جداپذير نباشند قانون پرسپترون همگرا نخواهد شد. براي غلبه بر اين مشکل از قانون دلتا استفاده ميشود.
ايده اصلي اين قانون استفاده از gradient descent براي جستجو در فضاي فرضيه وزنهاي ممکن ميباشد. اين قانون پايه روش Backpropagation است که براي آموزش شبکه با چندين نرون به هم متصل بکار ميرود.
اسلاید 19 :
شبکه های چند لایه
بر خلاف پرسپترونها شبکه هاي چند لايه ميتوانند
براي يادگيري مسائل غير خطي و همچنين مسائلي
با تصميم گيري هاي متعدد بکار روند.
براي اينکه بتوانيم فضاي تصميم گيري را بصورت
غير خطي از هم جدا بکنيم، لازم است تا هر سلول واحد
را بصورت يک تابع غير خطي تعريف نمائيم
.مثالي از چنين سلولي ميتواند يک واحد سيگموئيد باشد
اسلاید 20 :
الگوريتم Back propagation
براي يادگيري وزن هاي يک شبکه چند لايه از روش Back Propagation استفاده ميشود.
در اين روش با استفاده از gradient descent سعي ميشود تا مربع خطاي بين خروجي هاي شبکه و
تابع هدف مينيمم شود.
روش gradient descent سعي ميکند تا با مينيمم کردن خطا به فرضيه مناسبي دست پيدا کند.
اما تضميني براي اينکه اين الگوريتم به مينيمم مطلق برسد وجود ندارد.