بخشی از مقاله

*** این فایل شامل تعدادی فرمول می باشد و در سایت قابل نمایش نیست ***

رده بندی تصاویر فتوگرامتری با شبکه های عصبی خودسامان

واژه های کلیدی: فتوگرامتری، رده بندی، شبکه های خودسامان
چکیده
شبکه های عصبی سیستم های حسابگر استواری اند که حتی اگر بخشی از شبکه از کار بیفتد یازمانی که داده های نادرست وارد آن گردد شبکه به کار خودادامه می دهد. علت آنست که "دانش" ذخیره شده در شبکه در میان شمار زیادی واحد عصبی واتصالات پخش شده نه فقط در یک یا چند واحد. به عبارت دیگر، مفاهیم یا نگاشت های ذخیره شده در یک شبکه عصبی دارای درجاتی از افزونگی ( Redundancy) است. در روش های استاندار در رده بندی تصاویر فتوگرامتری معمولا فرض می شود که داده های هررده از پوشش زمینی (Land Cover) دارای پراکندگی گوسی می باشند. اما روش شبکه عصبی در مواردی که پراکندگی داده ها شديدة غيرگوسی باشد . که غالبا چنین است نیز دارای پاسخی استوار است. در این نوشتار، کارایی شبکه های عصبی خودسامان (Self Organizing) برای رده بندی تصاویر فتوگرامتری بررسی و ارزیابی شده است.

پیشگفتار
شبکه های عصبی مصنوعی(ANN) نمونه ساده شده دستگاه مرکزی اعصاب اند که از عناصر حسابگر به شدت به هم مرتبط تشکیل شده اند که می توانند نسبت به محرک ها واکنش نشان دهند و خود را با شرایط محیط سازگار کنند. هرشبکه عصبی با مشخصات زیر تعریف می گردد
1- الگوی ارتباطات میان واحدهای عصبی یا نورون ها(Architecture)
2- روش تعیین وزن ها در ارتباطات ( Learning)
3 - تابع عملگر (Activating Function)

۲ مفاهیم بنیادی
هر ANN از یک دسته المان های حسابگر عصبی ورودی، خروجی و میانی (پنهان) تشکیل شده است. هر عنصرحسابگریا نورون عبارتست از یک سنجنده که وقتی ورودی های انباشته شونده در آن از یک حد آستانه در گذرد یک خروجی تولید نماید. هر ارتباط ورودی i دارای یک سیگنال ورودی بیرونی Xi ویک وزن نظير Wi است. وزن ها به عنوان افزاینده یا کاهنده سیگنال های ورودی به نورون عمل می کنند. وزن مثبت اثر انگیزانندگی و وزن منفی اثر بازدارندگی دارد. وزن صفر به معنی عدم اتصال است. دانش موردنیاز برای نگاشتن الگوهای ورودی به رده های مناسب، در وزن ها نهفته است. اما وزن های مناسب در آغاز مجهول اند. تا زمانی یک دسته وزن مناسب پیدا نشود، شبکه قادر به حل مسأله نخواهد بود. شبکه های عصبی در عملکرد خود دو مرحله دارند: نخست آموزش شبکه است. در این مرحله، کاربر تعداد مناسبی ورودی و خروجی) برای شبکه فراهم می سازد تا شبکه با استفاده از آن ارتباطات خودرابه گونه ای اصلاح نماید که خروجی به اندازه کافی به خروجی مطلوب نزدیک شود. مرحله دوم فراخوان یا محاسبه است. در این مرحله ورودی های موردنظر به شبکه معرفی می شوند و شبکه خروجی آنها را محاسبه می کند. هرنورون به صورت یک تابع عملگریا نگاشت(Mapping) رفتار می کند که خروجی آن به شکل می باشدکه
net عبارت است از ورودی های انباشته شده درنورون و f معمولا یک تابع غیرخطی ناکاهنده از net است.

کاربردشبکه های عصبی در رده بندی تصاویر فتوگرامتری
رده بندی( Classification) عبارت است از برچسب نهادن(Labelling) بر پیکسل ها برحسب تعلق آنها به رده های طیفی جداگانه با استفاده از داده های در دسترس. شبکه های عصبی در ساده ترین نگاه عبارتند از یک سیستم تبديل داده ها که هدف آن مرتبط نمودن عناصر یک مجموعه از داده ها به عناصریک مجموعه دیگر از داده ها است که در رده بندی این هدف عبارت خواهدبوداز تبدیل داده ها از فضای عارضه ها به فضای رده ها.

کارامد ترین روش برای نمایش داده های چندطیفی به منظور فرمول بندی الگوریتم هایی برای تجزیه و تحلیل کمی عبارتست ازنگاشت آنها بریک فضای برداری چند طیفی که تعداد بعدهای آن برابر تعداد مؤلفه های طیفی تصویر باشد. در این فضا، هر پیکسل از تصویر به صورت نقطه ای نگاشته می شود که مختصات آن برابر است با درجه روشنی (Brightness Value) پیکسل در هر باندطیفی

چنانچه باند های طیفی کافی برای ایجاد تمایز درنظر گرفته شده باشد، انتظار می رود که پیکسل ها در فضای چند طیفی، خوشه ها( Clusters) با گروه هایی را بر حسب انواع مختلف پوشش زمینی تشکیل دهند که اندازه و شکل این گروه هابه نوع پوشش، پدیده های توپوگرافی ونویز بستگی دارد. در گروه بندی پیکسل ها معمولا یک خوشه تنها ایجاد نمی شود بلکه خوشه های متعدد در هر رده اطلاعاتی( Information Class) جای خواهد گرفت، به این معنی که مثلا در رده اطلاعاتی پوشش گیاهی ممکن است چند دسته گیاه مختلف واقع شود که تمایز میان آنها به نوع گیاه، میزان رطوبت، نوع خاک و شرایط محیطی وابسته است. شبکه های عصبی در زمینه رده بندی ویژگی های برجسته ای دارند از اینکه امکان ترکیب داده ها از منابع مختلف در یک رده بندی یا ارزیابی رافراهم می کنند، برای نمونه می توان تصاویر چندطیفی(Multi Spectral) و انواع داده های توپوگرافی نظیرشیب، ارتفاع، نوع پوشش و... رابرای رده بندی به کار برد.
۱ - ۳ مقادیرآغازین وزن ها و بهره آموزش آزمایش ها نشان داده اند که انتخاب وزن های اولیه به صورت مقادیر تصادفی کوچک بین روشی کارآمد برای آغاز به کار پیروزمندانه شبکه است. همچنین ضریب بهره آموزش مشخص کننده اندازه تصحیحات اعمال شونده بروزن ها در هر تکرار می باشد که بر روند همگرایی اثر دارد. این ضریب معمولا در حدود 0 . 2 در نظر گرفته می شود.
۲ - ۳ ورودی شبکه داده های ورودی می توانند عکس های هوایی رقومی شده یا تصاویر ماهواره ای باشند. داده های تصویری را می توان به صورت پیکسل به پیکسل واردشبکه کرد. ممکن است برخی الگوریتم های پیش پردازشی نیز اعمال گردد.
۳ - ۳ خروجی شبکه راه طبیعی برای کدبندی رده های خروجی این است که یک گره خروجی برای هر رده از پوشش های زمینی منظورشود. عموما خروجی مطلوب شبکه، شامل مقادیر کوچک(درحدصفر) برای آن خروجی هایی که برده تعیین شده منطبق نباشندو یک مقدار بزرگ (در حدیک) برای آن خروجی که بر رده تعیین شده منطبق باشد می گردد.
۴ - ۳ استخراج رده ها ساده ترین راه برای انتساب یک رده به داده های ورودی انتخاب رده ای از گره های خروجی است که دارای بالاترین مقدار باشد. این روش را می توان با گزینش یک حد آستانه اصلاح کرد. یک پیکسل، رده بندی نشده منظور می شود اگر همه خروجی ها کمتر از حد آستانه مزبور باشند، در غیر اینصورت رده ای که دارای بالاترین گره خروجی باشدبه آن پیکسل اختصاص می یابد. هرچه مقدار خروجی یک پیکسل بزرگتر باشد نشاندهنده درجه اعتمادپذیری بالاتر برای تعلق آن پیکسل به رده مربوطه می باشد.
۵ - ۳ ساختار شبکه ساده ترین ساختار برای ورود داده ها این است که یک پیکسل از همه باند ها به درون شبکه خورانده شود. برای هر باند طیفی یک گره ورودی می توان در نظر گرفت. تعداد ورودی به هر گره بستگی به توپولوژی شبکه وابعادبردار داده ها دارد. مقدار یک پیکسل در هریک از باندهای تصویر چندطیفی به همراه منابع دیگر(مانندشیب، ارتفاع، دماو....) برای آن پیکسل به لایه ورودی معرفی می شود. گرچه ساختار لایه های آغازی و پایانی در یک شبکه عصبی توسط عوامل بیرونی کنترل می شود، اما تعداد لایه های پنهان و اندازه هریک از آنها باید به صورت تجربی تعیین گردد. هرچه تعداد گره های لایه پنهان بیشتر باشد، شبکه در تقسیم بندی فضای تصمیم گیری انعطاف پذیرتر خواهدشد. تعداد بهينه گره های لایه پنهان به نوع کار بستگی دارد و لازم است با آزمایش مشخص شود. اگر خطای مرحله آموزش به یک سطح پذیرفتنی کاهش نیابد، شمار گره ها باید افزایش داده شود. اگر خطاخیلی کوچک شوداما رده بندی حاصل ضعیف باشد، احتمالا شمار گره های لایه پنهان بیش از حدزیاد بوده است. نظرية قاطعی برای نحوه انتخاب اندازه لایه های پنهان وجودندارداما معمولأشمار گره هادرلایه پنهان مساوی یابزرگتر از تعداد گره های لایه ورودی در نظر گرفته می شود.
۶ - ۳ تعداد لایه ها برای رده بندی تصاویر چندطیفی، یک شبکه کاملا به هم متصل سه لایه ای با یک لایه پنهان کافی است. طبق نظرية Kolmogorov هیچگاه به بیش از سه لایه در یک شبکه نیاز نیست
۷ - ۳ الگوریتم آموزش پس از مشخص شدن داده های ورودی، نماینده روده ها و توپولوژی شبکه باید داده های آموزشی و پارامترهای شبکه همچون نرخ آموزش و معیار پایان تکرار را نیز معین نمود. آموزش در ANN به روش های زیرقابل انجام است و * ایجاد اتصال میان گره ها
* با تنظیم مقادیر وزن در گره های اتصال
* با تنظیم حد آستانه توابع عملگر

۸ - ۳ گزینش داده های آموزشی گرینش داده های آموزشی مساله ای است که در همه الگوریتم های نظارت شونده با آن مواجهیم. این داده ها باید نماینده رده های موردنظر و افزون بر این، در فضای عوارض، ممیزهایی برای جداسازی عوارض باشند. برای آماده سازی داده های آموزشی می توان نخست یک الگوریتم غیرنظارتی بر تصوير اعمال کرد و آنگاه از نواحی کوچک همگن ایجاد شده برای گزینش داده های آموزشی استفاده کرد.

۹ - ۳ معیار پایان آموزش یک معیار رایج برای پایان بخشیدن به روند آموزش شبکه این است که بر روی خطای کلی میان خروجی های واقعی و نظری یک حدآستانه نهاده شود.
۴ شبکه های عصبی خودسامان کهنن( Kohonen Self organizing Neural Networks)
یک ویژگی مهم سیستم های زیستی این است که می توانند بر پايه نظم محیط طبیعی خود و بدون آموزگار، روندی را در پیش بگیرندوعمل کنند. در شبکه های عصبی کهنن نیز هدف، کشف نظم، ساختار و الگو از خلال داده های ورودی بدون نظارت بیرونی است. شبکه کهنن غیرنظارت شونده و خودسامان است یعنی می تواند خود را برای بیان ویژگی های الگوهای ورودی سازمان دهی کند. این شبکه بسیار سریع و نیرومند است. یک شبکه کهنن آرایه ای کاملا به هم مرتبط از نورون ها است، یعنی خروجی هرنورون، ورودی به همه دیگر نورون ها از جمله خودش می باشد.

هرنورون دو دسته وزن دارد، یکی برای محاسبه مجموع وزن دار ورودی ها و دیگری برای کنترل ارتباطات میان شبکه ای. دسته اول اصلاح پذیر و دسته دوم ثابت است. مشخصه شبکه کهنن به کارگیری آموزش رقابتی است، یعنی نورون های لایه خروجی برای به دست آوردن قابلیت پاسخگویی به الگوهای ورودی با هم رقابت می کنند. پس از معرفی هرالگوی ورودی به همه نورون ها، هرنورون خروجی خودرا به صورت تابع Sigmoid برروی جمع وزن دار ورودی ها محاسبه می کند. سپس میان همه نورون ها اندرکنش (Interaction) صورت می گیرد تا بزرگترین خروجی مشخص شود و تنها به آن نورون اجازه صدور خروجی داده شود. ورودی لایه کهن از معادله زیر محاسبه می شود:

نورون برنده در لایه خروجی آن است که بزرگترین راداشته باشد. خروجی نورون برنده 1+ است. دیگر نورون ها در لایه کهنن هیچیک خروجی نخواهند داشت. خروجی 1 امین نورون را می توان به صورت زیر نشان داد:

که در آن تعداد نورون ها، ما درنگ انتقال درارتباط بازخورد، ( ) تابع کلاه مکزیکی و ( ) تابع عملگراست. نورون های برنده به صورت زیر آموزش می یابند

هرگره در آغاز دارای همسایگی بزرگی است. وقتی یک گره به عنوان نزدیکترین تشابه به یک ورودی انتخاب می شود، وزنش تغییر می کند تا تشابهش به ورودی افزایش یابد. گره های همسایه نیز دستخوش همین تغییر وزن خواهندشد. به مرور زمان، اندازه همسایگی تا یک حداز پیش تعریف شده کاهش می یابد. لازم به توجه است که نحوه یادگیری نه تنها به ضریب بهره اصلاح وزن و ضریب کاهش همسایگی بستگی دارد بلکه به شکل مرزهمسایگی نیز وابسته است. می توان روند رده بندی کهنن رابه صورت زیر خلاصه کرد:
1- آغاز به کار شبکه وزن های , در آغاز مقادیر تصادفی کوچک و شعاع همسایگی آغازی مقداری بزرگ در نظر گرفته می شود
۲- معرفی ورودی ها
داده های ورودی به شبکه معرفی می شوند که درآن عبارت است از ورودی به گره i در زمان t
3- محاسبه فاصله ها

در متن اصلی مقاله به هم ریختگی وجود ندارد. برای مطالعه بیشتر مقاله آن را خریداری کنید