بخشی از مقاله
خلاصه
در این مقاله، از شبکه عصبی پرسپترون چند لایه مبتنی بر ماشین با قابلیت یادگیری فوقالعاده برای طبقهبندی بیماری سرطان سینه استفاده شده است. الگوریتم یادگیری فوق العاده برای آموزش شبکههای عصبی پیشخور استفاده می شود که با تعین نوع تابع فعالساز لایه مخفی و تعداد نرون در لایه مخفی شبکه آموزش میبیند.
در این مقاله، با تغییر این دو پارامتر، یعنی تابع فعالساز لایه مخفی و تعداد نرون در لایه مخفی، عملکرد سیستم مورد بررسی قرار داده شده است. در این روش ، زمان تست، زمان آموزش، دقت طبقهبندی برای 10 بار اجرای ارزشیابی متقابل ده قسمتی برای توابع فعالسازی مختلف مورد بررسی قرار گرفت و میانگین، انحراف استاندارد، بیشینه و کمینه هر کدام گزارش شده است. الگوریتم پیشنهادی دارای قابلیت تعمیم فوقالعاده و دقت و سرعت بسیار بالایی میباشد.
.1 مقدمه
برای پیشگویی و تحلیل طبقهبندی، مدلهای آماری زیادی ارائه شده است. شبکه عصبی مصنوعی یک روش غیر پارامتری برای طبقهبندی است که در حیطه پزشکی بر اساس متغیرهای ورودی نسبت به طبقهبندی افراد به بیمار یا سالم اقدام میکند. طبقهبندی و پیشگویی وضعیت بیمار بر اساس عوامل خطر یکی از کاربردهای شبکههای عصبی مصنوعی است.
شبکه عصبی پیشخور اولین و سادهترین نوع شبکه عصبی مصنوعی میباشد. در این شبکه اطلاعات تنها از یک مسیر حرکت میکند که جهت آن رو به جلو میباشد. به طور معمول این شبکهها شامل مجموعهای از واحدهای حسی - نرونهای پایه - میباشند، که تشکیل دهندهی لایهی ورودی، یک یا چند لایهی پنهان و یک لایه خروجی میباشند. سیگنال ورودی در خلال شبکه و در مسیری رو به جلو به صورت لایه به لایه منتشر میشود. ایننوع شبکه معمولاً با عنوان پرسپترون چند لایه 1 - MLP - نامیده میشود.
استفاده از تکنیک های یادگیری ماشین در تشخیص پزشکی به تدریج افزایش یافته است. تکنیکهای داده کاوی و محاسبات نرم، برای استخراج قوانین و الگوها از مجموعه دادههای مختلف بهکار برده شدهاند.5]، 4، 3، 2، [1 تعدادی از این تکنیکها، نتایج بسیار خوبی را در مشکلات طبقهبندی، نشان دادهاند که میتوانند در شناخت بیماریها به کارشناسان پزشکی کمک کنند
طیف گستردهای از روشهایی که برای پیشبینی و تشخیص بیماری سرطان سینه ارائه شدهاند، به همراه دقت طبقهبندی هر روش در ذیل آورده شده است:
کواینلن با استفاده از الگوریتم درخت تصمیم با c=4.5 با ارزیابی متقابل 10 قسمتی به دقت طبقهبندی %94,74 دست یافته است .[7] همیلتن، شن و سرکن با استفاده از الگوریتم RIAC به دقت %94,99 رسیده است
ناک و کروز با استفاده از تکنیک نرون – فازی به دقت %95,06 دست یافته است .[9] پنا-ریز و سیپر با استفاده از تکنیک GA-FUZZY به دقت %97,36 دست یافته است .[10] ابنی و سیفرت با استفاده از تکنیک خوشهبندی فازی با ناظر به دقت 95,57% دست یافته است .[11] روش حداقل مربعات ماشین بردار پشتیبان - LS-SVM - توسط پولت و گانز انجام شد که به دقت %98,53 دست یافت .[12] لاوانیا و رانی با استفاده از الگوریتم درخت تصمیم به دقت طبقهبندی %92,97 رسیده است
ارکا و بال در مقایسه الگوریتم پسانتشارخطا، الگوریتم ژنتیک با کدگذاری حقیقی و الگوریتم ژنتیک کدگذاری باینری برای داده های سرطان سینه به ترتیب به دقت %93,1 و %94 و %96,5 دست یافت
به طور کلی کارهای انجام گرفته در زمینه تشخیص سرطان سینه که در همه این تحقیقات از شبکه پرسپترون با یک لایه مخفی و الگوریتم یادگیری پس انتشار خطا 2 - BP - استفاده شده است. می توان به سه گروه طبقه بندی کرد
-1 پیش بینی وجود ضایعات بدخیم سینه با استفاده از دادههای ماموگرافی
-2 کلاس بندی ضایعات بدخیم به عنوان سرطان پیشرفته
-3 پیش گیری بدخیم بودن تودههای بافتی سینه با استفاده از دادههای فراصوت
-4 شبکههای عصبی با میسر کردن اطلاعاتی از جمله خوش خیمی و یا بد خیمی تومورها، همچنین تشخیص نوع پیشرفته
سرطان که قبلاً فقط توسط جراحیهای نمونه برداری بافت زنده قابل دسترسی بوده، پتانسیل زیادی برای بهبود روشهای مدیریت بیماران دارای ضایعات سینه، دارند. با استفاده از این شبکهها میتوان تعداد جراحیهای غیر ضروری روی بیماران را کاهش داده و هزینههای مربوط را کم کرد. ماموگرافی و فراصوت دارای حساسیت خوبی است، بدین معنی که از روی تصاویر ماموگرافی با در صد اطمینان قابل قبولی میتوان موارد سالم و غیر سرطانی را تشخیص داد ولی در تشخیص موارد سرطانی قابل اعتماد نیست و به همین دلیل %65 از مواردی که به نمونه داری ارجاع داده می شوند دارای ضایعات خوش خیم می باشند که در واقع نیازی به نمونه برداری ندارند.
علیرغم، موفقیتهای کلی الگوریتمBP در یادگیری شبکههای عصبی چندلایه پیشخور، این الگوریتم ممکن است، به نقاط مینیمم محلی در فضای پارامتر، همگرا شود. بنابراین زمانی که الگوریتمBP همگرا میشود، نمیتوان مطمئن شد که به یک جواب بهینه رسیده باشیم. و از طرفی سرعت همگرایی الگوریتمBP ، خیلی کند است. از این گذشته، همگرایی الگوریتمBP، به انتخاب مقادیر اولیه وزنهای شبکه، بردارهای بایاس و پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است و گاهی ممکن است برای دستیابی به عملکردی بهتر، به تعداد زیاد تکرار مراحل یادگیری نیاز باشد. علاوه بر این توابع فعالساز مورد استفاده در این روشها باید مشتقپذیر باشند.
در شبکههای عصبی مبتنی بر ماشین با قابلیت یادگیری فوقالعاده - 5 - ELM، وزنهای ورودی - ارتباط لایه ورودی به لایه پنهان - و بایاس لایه پنهان بهطور تصادفی انتخاب میشوند و وزنهای خروجی - ارتباط لایه پنهان به لایه خروجی - به وسیلهی معکوس تعمیمیافته مور پنروز 6 - MP - تعیین میشوند. الگوریتم ELM نه تنها بسیار سریعتر با قابلیت تعمیم بالاتر از الگوریتمهای مبتنی بر گرادیان عمل میکند بلکه مشکلاتی از قبیل کمینه محلی و تنظیم پارامترهایی مثل نرخ یادگیری مناسب، سیکل یادگیری و توقف معیارها را ندارد و حداقل دخالت انسانی را دارد پیچیدگی محاسباتی الگوریتمهای فوق را ندارد. با این حال الگوریتم ELM در مقایسه با الگوریتمهای مبتنی بر گرادیان تمایل دارد تعداد نرونهای بیشتری در لایه پنهان داشته باشد.
ساختار ادامه مقاله به شرح زیر است: در بخش دوم الگوریتم ELM و در بخش سوم عملکرد الگوریتم ELM، با تغییر تعداد نرون و تابع فعال ساز لایه مخفی مورد بررسی قرار میگیرد و نتایج حاصل از شبیهسازی با الگوریتم ELM بیان میشود و در بخش پایانی نتیجه گیری و پیشنهادات ارائه میشود.
2. الگوریتم ELM
در این قسمت الگوریتم ELM بیان میشود. برای مطالعه بیشتر و آشنایی با کاربردهای الگوریتم، میتوان به [28-19 ] مراجعه کرد. این الگوریتم برای اولین بار توسط هوانگ و همکارانش در سال 2004 مطرح شد. این الگوریتم برای شبکه های عصبی پیشخور با یک لایه مخفی ارائه شده است. شبکه عصبی پیشخور - SLFN - 7 از سادهترین و متداولترین نوع شبکههای عصبی میباشند. برخلاف تصور عموم و بیشتر پیادهسازیهای عملی که در آنها، پارامترهای شبکههای پیشنهادی در هر مرحله باید تنظیم شوند، در این الگوریتم وزن های ورودی و بایاس لایه پنهان نیازی به تنظیم شدن ندارند و بهصورت تصادفی انتخاب میشوند و لایه خروجی SLFN میتواند به صورت یک سیستم خطی در نظر گرفته شود و وزن های لایه خروجی میتوانند به صورت تحلیلی و از طریق محاسبهی معکوس تعمیمیافته مور پنروز محاسبه شوند.
سرعت یادگیری این الگوریتم ، هزاران بار سریعتر از الگوریتمهای متداولی چون الگوریتم پسانتشار خطا است و تمایل به رسیدن به تعمیم خوب برای شبکههای عصبی پیشخور دارد بهطوری که میتواند بهراحتی به کوچکترین خطای آموزشی برسد و با به دست آوردن کوچکترین نرم وزنها، عملکرد تعمیم خوبی رانتیجه دهد. برای تمایز این الگوریتم با دیگر الگوریتمهای یادگیری متداول، این الگوریتم را یادگیری ماشین فوقالعاده مینامیم.
ابتدا ثابت میکنیم اگر تابع فعالساز در لایه مخفی بهطور نامحدود مشتقپذیر باشد، آنگاه وزنها و بایاس لایه پنهان SLFNها میتواند بهطور تصادفی تنظیم شوند، سپس مراحل الگوریتم ELM برای شبکه های عصبی پیشخور بیان میشود.