بخشی از مقاله

*** این فایل شامل تعدادی فرمول می باشد و در سایت قابل نمایش نیست ***

تشخیص هویت براساس چهره با استفاده از شبکه عصبی پایهای- شعاعی تحت نظارت الگوریتم جهش قورباغه مستوره آهنکوب
چکیده- شناسایی چهره زمینه تحقیقات وسیعی از بینایی ماشین و شناسایی الگو بوده است. یکی از کاربردهای وسیع بازشناسی چهره در زمینه تأیید هویت و مسأله امنیت است. در کنترل اماکن با جمعیت زیاد مانند فرودگاهها، ایستگاههای راهآهن، مترو و... این روش نسبت به سایر روش-های نظارتی دارای کارائی بیشتری است. در این مقاله تمرکز بر روی شناسایی هویت براساس چهره است و از شبکه عصبی پایهای- شعاعی برای تشخیص هویت استفاده شده است. برای افزایش دقت شناسایی بایستی آموزش شبکه عصبی پایهای- شعاعی با دقت بالایی انجام شود و وزنها، مراکز و پارامتر پراکندگی نورونها بهصورت بهینه تعیین شوند. برای آموزش شبکه عصبی از الگوریتم جهش قورباغه استفاده شده است. در جهت استخراج ویژگی از تصاویر از الگوریتمهای تحلیل مولفههای اصلی و تحلیل تفکیکی فیشر استفاده شده است. نتایج حاکی از این است که اگر استخراج ویژگی با استفاده از الگوریتم تحلیل تفکیکی فیشر انجام شود آنگاه شبکه عصبی پایهای- شعاعی آموزشیافته با الگوریتم جهش قورباغه با دقت %99 تشخیص هویت براساس چهره را انجام میدهد.
کلید واژه- الگوریتم تحلیل تفکیکی فیشر، الگوریتم تحلیل مولفههای اصلی، تشخیص هویت، شبکه عصبی پایهای- شعاعی.

-1 مقدمه
بازشناسی چهره یکی از دشوارترین جنبههای بازشناسی تصویر است. زیرا تصویر چهره یک ساختار انعطافپذیر دارد. هنگامی که موضوع بازشناسی چهره توسط ماشین پیش میآید، چندین مانع بزرگ وجود دارد که موفقیت و کارائی را در بازشناسی کاهش می-دهد. هنگام گرفتن تصاویر زمینه نمونه در پایگاه دادههای تصاویر چهره ممکن است تصویر گرفته شده در زوایای مختلفی ذخیره شده باشد در نتیجه این حالات چهره ممکن است کارائی بازشناسی را تا حدقابل توجهی کاهش دهد. برای حل این چالش قصد داریم روشی کارا را برای تشخیص هویت از طریق تصاویر چهره دارای زوایای مختلف توسط شبکه عصبی پایهای- شعاعی معرفی کنیم. در جهت افزایش دقت شبکه عصبی از الگوریتم جهش قورباغه برای آموزش شبکه عصبی پایهای - شعاعی و تعیین مقادیر بهینه مراکز، وزنها و پارامتر پراکندگی نورونها استفاده میشود. ادامه ساختار این مقاله بدین ترتیب است که در بخش دوم پیشپردازش تصاویر انجام میشود و در بخش سوم الگوریتم جهش قورباغه معرفی میشود. در بخش چهارم مروری بر شبکه عصبی پایهای- شعاعی خواهیم داشت. در بخش پنجم، مدل پیشنهادی معرفی میشود و به مقایسه و تجزیه و تحلیل نتایج مختلف در تشخیص هویت در زوایای مختلف میپردازیم و در بخش آخر نتیجهگیری بیان میشود.
-2 پیش پردازش تصاویر
در این تحقیق پیشپردازش تصاویر شامل مراحل آمادهسازی تصاویر افراد در زوایای مختلف، استخراج ویژگی از تصاویر است. در ادامه هر یک از این مراحل به طور مفصل بیان شده است.
-1-2 آماده سازی تصاویر
در این تحقیق از پایگاهداده ORL استفاده شده است که شامل 100 نمونه تصویر با ابعاد 70*80 از 10 شخص مختلف است. در این پژوهش از هر نفر 8 تصویر در مجموعه آموزشی و دو تصویر در مجموعه آزمایشی قرار گرفته است. بنابراین در مجموعه آموزشی 80 نمونه تصویر و در مجموعه آزمایشی 20 نمونه تصویر موجود است. ابتدا تصاویر خوانده شده و وارد حافظه میشوند بدین ترتیب هر تصویر در ماتریسی به ابعاد 70*80 ذخیره میشود. سپس هر تصویر به یک بردار ستونی تبدیل میشود و مجموعه آموزشی با 5600 سطر با 80 ستون ایجاد میشود که هر ستون تصویر یک فرد است. سپس میانگین ویژگی در هر سطر محاسبه میشود و از مقدار ویژگی در آن سطر کاسته میشود به این ترتیب میانگین ویژگیها در هر سطر برابر صفر میشود. بههمین ترتیب تصاویر آزمایشی نیز خوانده شده و وارد حافظه میشوند سپس به منظور ایجاد مجموعه آزمایشی هر تصویر به یک بردار ستونی تبدیل میشود و در مجموعه آزمایشی قرار میگیرد در نتیجه مجموعه آزمایشی در نهایت با 5600 سطر و 20 ستون ایجاد میشود که هر ستون مربوط به تصویر هر شخص است عمل محاسبه میانگین در هر سطر و تفاضل آن با میانگین انجام میشود تا میانگین دادهها در هر سطر برابر صفر شود این عمل باعث میشود محاسبه ماتریس کواریانس ساده شود. برای تعیین خروجی هدف آموزشی نیز از یک ماتریس 4*80 استفاده شده است که شماره شناسایی هر فرد به صورت کد باینری 4 بیتی دیکد شده است و چون تعداد نمونه آموزشی برابر 80 نمونه است بنابراین مجموعه خروجی هدف آموزشی 4*80 است. به همین ترتیب برای ایجاد خروجی هدف آزمایش نیز از یک ماتریس 4*20 استفاده شده و شماره شناسایی هر شخص به صورت کدهای 4 بیتی دیکد شده است و چون تعداد 20 نمونه وجود دارد پس مجموعه خروجی هدف 4*20 است. همچنین %80 دادهها برای آموزش شبکه عصبی و %20 دادهها برای آزمایش مدل استفاده میشود.
-2-2 استخراج ویژگی
مساله استخراج ویژگی، یکی از مسائلی است که در مبحث یادگیری ماشین و همچنین پردازش تصویر مطرح است. این مساله در بسیاری از کاربردها اهمیت به سزائی دارد، زیرا در این کاربردها تعداد زیادی ویژگی وجود دارد، که بسیاری از آنها یا بلااستفاده هستند و یا اینکه باراطلاعاتی چندانی ندارند. حذف نکردن این ویژگیها مشکلی از لحاظ اطلاعاتی ایجاد نمیکند ولی بارمحاسباتی را برای کاربرد موردنظر بالا میبرد و علاوه بر این باعث میشود که اطلاعات غیرمفید زیادی را به همراه دادههای مفید ذخیره شود. در این تحقیق از الگوریتم تحلیل مؤلفههای اصلی و تحلیل تفکیکی فیشر برای استخراج ویژگی از تصاویر استفاده شده است.

-1-2-2 الگوریتم تحلیل مؤلفههای اصلی
تحلیل مؤلفههای اصلی1 نوعی از تجزیه و تحلیل آماری است که تعداد کمتری از عوامل را با نام مؤلفههای اصلی از میان عوامل اولیه گزینش میکند. یک مجموعه nتایی از بردارها که هر یک p عضو دارد، در نظر بگیرید. هر یک از این بردارها را میتوان بهصورت یک نقطه در فضای بُعدیp نمایش داد. PCA محورهای متعامدی را نشان میدهد که بهترین نمایش را برای این n نقطه بهوجود بیاورند. تعداد این محورها کمتر یا مساوی تعداد متغیرهای اصلی هستند. ابتدا PCA نزدیکترین محور به ابر نقاط داده را بهدست میآورد. این ملاک را میتوان بهصورت ملاک دیگری که از نظر ریاضی با آن یکسان است، بیان کرد. بهعبارت دیگر، واریانس این تصویرها بیشترین حدممکن باشد. دومین محور نیز بههمین صورت بهدست میآید با این شرط که بر محور اول عمود باشد. این دو محور در کنار یکدیگر صفحهای با بهترین تطابق بر دادهها میسازد. این روش برای یافتن کلیه محورهای عمود(مؤلفههای اصلی) ادامه مییابد. در فضای جدید هیچ همبستگی بین متغیرها وجود ندارد. اولین متغیر جدید شامل بیشترین مقدار واریانس داده و متغیر دوم شامل دومین بیشترین مقدار واریانس در داده است، که توسط متغیر اول بیان نمیشود و بر آن عمود است. استخراج ویژگی از تصاویر پس از آمادهسازی تصاویر انجام میشود. در این مرحله با استفاده از الگوریتم تحلیل مؤلفههای اصلی عمل استخراج ویژگی از تصاویر انجام میشود. در این مرحله ابتدا میانگین ویژگیها در هر سطر محاسبه میشود و مقدار ویژگی در تصویر از میانگین آن ویژگی کاسته می-شود بدین ترتیب میانگین ویژگیها در تصویرها صفر میشود. سپس ماتریس کواریانس با استفاده از تصاویر مجموعه آموزشی محاسبه میشود. ماتریس کواریانس تجزیه شده و مقادیر ویژه و بردارهای ویژه آن تعیین میشود. سپس مقادیر ویژه براساس واریانس به صورت نزولی مرتب میشوند و سپس بردارهای ویژه براساس ترتیب مرتب شده مقادیر ویژه مرتب میشوند و براساس مقادیر ویژه تعداد 9 ویژگی اول از بردارهای ویژه که دارای بیشترین مقادیر ویژه هستند انتخاب میشوند و با ضربشدن در ماتریس دادههای آموزشی مجموعه آموزشی جدید استخراج میشود. برای استخراج ویژگی از تصاویر در مجموعه آزمایشی نیز از بردارهای ویژه مجموعه آموزشی استفاده میشود. در ماتریس مربوط به دادههای آزمایشی ابتدا میانگین هر ویژگی محاسبه شده و هر ویژگی از تصویر را از میانگین آن ویژگی کم میکنیم به این ترتیب ویژگیهای تصاویر دارای میانگین صفر میشوند سپس از بردارهای ویژه تعیین شده به ازای دادههای آموزشی استفاده شده و با ضربکردن آن در ماتریس دادههای آزمایشی و انتخاب 9 ویژگی از دادههای ایجاد شده عمل استخراج ویژگی به ازای دادههای آزمایشی انجام میشود.[1]
-2-2-2 الگوریتم تحلیل تفکیکی فیشر
تحلیل تفکیکی فیشر از روشهای آماری است که در یادگیری ماشین و بازشناسی الگو برای پیداکردن ترکیب خطی خصوصیاتی که به بهترین روش دو یا چند کلاس از اشیا را از هم جدا میکند، استفاده میشود. در تحلیل تفکیکی فیشر از ماتریس پراکندگی درون کلاسی و ماتریس پراکندگی بین کلاسی در فضای ورودی استفاده میشود و بردارهای ویژه و مقادیر ویژه تعیین میشوند. سپس مرتبسازی بردارهای ویژه براساس مقادیر نزولی مقادیر ویژگی انجام میشود و ابعادی که بیشترین مقادیر ویژه را دارند انتخاب و با ضربکردن بردارهای ویژه در مجموعه دادهها، دادههای به فضای جدید منتقل میشوند. در فضای جدید ماتریس پراکندگی درون کلاسی برای هر کلاس کمینه و ماتریس پراکندگی بین کلاسی بیشینه میشود که باعث افزایش دقت در مدل میشود. در تحقیق این مرحله پس از آمادهسازی تصاویر انجام میشود. در این مرحله با استفاده از الگوریتم تحلیل تفکیکی فیشر عمل استخراج ویژگی انجام میشود. در این مرحله ابتدا میانگین ویژگیها در هر سطر محاسبه میشود و مقدار ویژگی در تصویر از میانگین آن ویژگی کاسته می-شود به این ترتیب میانگین ویژگیها در تصاویر صفر میشود. در این وضعیت ماتریس پراکندگی درون کلاسی و بین کلاسی محاسبه میشود و از تجزیه مقادیر ویژه آن، ماتریس بردارهای ویژه و مقادیر ویژه محاسبه میشود. سپس مقادیر ویژه به صورت نزولی مرتب میشوند و سپس بردارهای ویژه براساس ترتیب مرتبشده مقادیر ویژه مرتب میشوند در این حالت براساس مقادیر ویژه تعداد 9 ویژگی اول از بردارهای ویژه که دارای بیشترین مقادیر ویژه هستند انتخاب میشوند و با ضربشدن در ماتریس دادههای آموزشی مجموعه آموزشی جدید استخراج میشود. برای استخراج بردارهای ویژه مجموعه آزمایشی از بردارهای ویژه و مقادیر ویژه مربوط به دادههای آموزشی استفاده میشود. در ماتریس مربوط به دادههای آزمایشی ابتدا میانگین هر ویژگی محاسبه شده و هر ویژگی از تصویر را از میانگین آن ویژگی کم میکنیم به این ترتیب ویژگیهای تصاویر دارای میانگین صفر میشوند سپس از بردارهای ویژه تعیین شده به ازای دادههای آموزشی استفاده شده و با ضربکردن آن در ماتریس دادههای آزمایشی عمل استخراج ویژگی بهازای دادههای آزمایشی انجام میشود.[2]
-3 الگوریتم جهش قورباغه
الگوریتم جهش قورباغه یکی از الگوریتمهای الهام گرفته از طبیعت است که توسط لنزی و یوسف توسعه داده شد. در این الگوریتم گروهی از قورباغهها(مجموعهای از جوابها) به چندین زیرمجموعه تقسیم میشوند، که هر قورباغه فرهنگ مختص به خود را دارد و میتواند از فرهنگها یا ایدههای قورباغههای دیگر در طول روند تکامل استفاده کند. الگوریتم SFLA ترکیب روش قطعی و روش تصادفی است. روش قطعی به الگوریتم امکان میدهد تا پیامها را بهصورت کارایی مبادله کند. روش تصادفی انعطافپذیری و مقاومت الگوریتم را تضمین میکند. الگوریتم با انتخاب تصادفی گروههای قورباغه شروع میشود. گروههای قورباغه به چندین زیرگروه تقسیم میشوند. هر یک از این زیرگروهها میتوانند جستجوی محلی را بهصورت مستقل و با روش متفاوتی انجام دهند. قورباغههای موجود در یک زیرگروه میتوانند بر روی سایر قورباغههای موجود در همان زیرگروه اثر بگذارند. بدین ترتیب قورباغههای موجود در یک زیرگروه تکامل مییابند. تکامل ممتیک کیفیت ممتیک قورباغههای منفرد را بهبود و قابلیت دستیابی به هدف را افزایش میدهد. برای رسیدن به یک هدف خوب میتوان وزن قورباغههای خوب را افزایش و وزن قورباغههای بد را کاهش داد. بعد از تکامل برخی از ممتیکها، زیرگروهها باهم ترکیب میشوند. بهواسطه ترکیب ممتیکها در حوزه سراسری بهینه میشوند و بهوسیله مکانیزم ترکیب زیرگروهها قورباغه جدیدی ایجاد میشود. ترکیب، کیفیت ممتیکهایی که تحت تأثیر زیرگروههای مختلف قرار میگیرند را افزایش میدهد. جستجوی محلی و سراسری تا برآوردهشدن شرط همگرایی ادامه مییابد. توازن بین مبادله پیام سراسری و جستجوی محلی به الگوریتم امکان میدهد تا به راحتی از مینیمم محلی پرش کند و تا دستیابی به بهینهسازی توسعه یابد. یکی از خصیصههای الگوریتم SFLA همگرایی سریع است. در ادامه به شرح الگوریتم میپردازیم][3و. [4]
-1-3 جستجوی سراسری
(1 مقداردهی اولیه: m و n را انتخاب کنید، m تعداد memeplexها و n تعداد قورباغههای موجود در هر memeplex را نشان میدهد. بنابراین اندازه کل جمعیت موجود در آبگیر از طریق رابطه F=m.n بهدست میآید.
(2 تولید جمعیت مجازی: از فضای شدنی، F قورباغه مجازی (U(1),U(2),…,U(F)) نمونهبرداری میشود. مقدار شایستگی f(i) هر قورباغه U(i) بهازای هر U(i)=(U1i,U2i,…,Udi)، محاسبه میشود(d تعداد متغیرهای تصمیمگیری است)[3] و. [4]
(3 درجهبندی قورباغهها: قورباغهها براساس شایستگیشان بهصورت نزولی مرتب و در آرایه X={U(i),f(i),i=1,..,F} ذخیره می-شوند. موقعیت بهترین قورباغه PX در کل جمعیت انتخاب میشود((.(Px=U(1

(4 تقسیم قورباغهها در mempelexها: آرایه X را در m، (Y1,Y2,…,Ym) memeplex که هر کدام شامل n قورباغه هستند، تقسیم میشوند][3و. [4]

(5 تکامل ممتیک در هر :memeplex هر (Yk , k=1,…,m) memeplex بهوسیله جستجوی محلی(الگوریتم جهش قورباغه) که در ادامه توضیح دادهشده است، تکامل مییابد][3و. [4]

(6 ترکیب memeplexها: بعداز اینکه در هر memeplex تعداد معینی تکامل ممتیک انجام شد، memeplexها را (Y1,…,Ym) در X قرار میدهد بهطوریکه رابطه X=(Yk , k=1,…,m) برقرار باشد. موقعیت بهترین قورباغه موجود در جمعیت Px بهنگام میشود. اگر شرایط همگرایی برآورده شده باشد، متوقف میشود. در غیراین صورت به مرحله چهارم از جستجوی سراسری میرود][3و. [4]
-2-3 جستجوی محلی
در مرحله پنجم جستجوی سراسری، تکامل هر memeplex بهصورت مستقل nبار انجام میشود. بعد از اینکه memeplexها تکامل یافتند، الگوریتم جهت انجام ترکیب به جستجوی سراسری باز میگردد. در ادامه جزئیات جستجوی محلی در هر memeplex تشریح میشود][3و. [4]
(1 مقداردهی اولیه: im و in مقدار اولیه صفر را میگیرند. im تعداد memeplexها و in تعداد مراحل تکامل را میشمارد.
(2 ایجاد submemeplexها: هدف قورباغهها این است که با بهبود ممهایشان بهسمت موقعیتهای بهینه حرکت کنند. روش انتخاب submemeplex تخصیص وزنهای بیشتر به قورباغههایی که کارایی بالاتر دارند و وزنهای کمتر به قورباغههایی با مقادیر کارایی کمتر است. وزنها با توزیع احتمال مثلثی طبق رابطه 1 تخصیص داده میشوند][3و. [4]

(1)
که در آن j اندیس عضو jام و n تعداد عناصر است. برای ساخت آرایه submemeplex از هر n قورباغه موجود در هر memeplex تعداد q قورباغه بهصورت تصادفی انتخاب میشوند. قورباغههای موجود در submemeplex برحسب میزان شایستگیشان بهصورت نزولی مرتب میشوند. موقعیت بهترین قورباغه و بدترین قورباغه موجود در submemeplex بهترتیب با PB و Pw مشخص میشوند . (3 تصحیح موقعیت بدترین قورباغه: موقعیت جدید بدترین قورباغه موجود در )submemeplexقورباغهای که بدترین مقدار کارایی را دارد) از طریق رابطه (2) محاسبه میشود. S اندازه گام(میزان جهش) قورباغه است و از طریق رابطه (3) محاسبه میشود][3و. [4]

اگر موقعیت جدید بهتر از موقعیت قبلی است، آنگاه U(q) جدید را جایگزین U(q) قبلی میشود و به مرحله 6 از جستجوی محلی میرود. درغیر این صورت به مرحله 4 جستجو محلی میرود][3و. [4]
(4 محاسبه اندازه گام بهوسیله :Px اگر در مرحله 3 نتیجه بهتری حاصل نشد، آنگاه پس از محاسبه اندازه گام قورباغه، موقعیت جدید U(q) بهوسیله رابطه (4) محاسبه میشود.

اگر U(q) در بین فضای شدنی باشد، مقدار کارایی جدید f(q) محاسبه میشود. چنانچه f(q) جدید بهتر از قبلی است، آنگاه U(q) جدید جایگزین U(q) قبلی میشود و به مرحله 6 جستجوی محلی میرود. در غیراین صورت به مرحله 5 جستجوی محلی میرود][3و. [4]
(5سانسور: اگر موقعیت جدید در ناحیه شدنی نیست یا بهتر از موقعیت قبلی نیست، بهصورت تصادفی یک قورباغه جدید (r) در یک مکان شدنی تولید و جایگزین قورباغهای میشود که موقعیت جدیدش برای پیشروی مناسب نیست میشود. f(r) محاسبه شده و U(q) را برابر r و f(q) را برابر f(r) قرار میدهد][3و. [4]
(6 بهنگام کردن :memeplex بعداز تغییر ممتیک بدترین قورباغه موجود در submemeplex، قورباغههای موجود در Z را در موقعیتهای اصلیشان در Yim قرار میدهد. Yim را براساس مقدار کارایی بهصورت نزولی مرتب میکند. اگر in<n است، به مرحله 3 جستجوی محلی میرود. اگر im<m است، به مرحله 1 جستجوی محلی میرود. در غیر این صورت جهت ترکیب memeplexها به جستجوی سراسری بازمیگردد][3و. [4]
-4 شبکه عصبی پایهای- شعاعی
شبکههای عصبی بهعنوان یک تکنولوژی کاربردی ظاهر شدهاند که به صورت مؤفقیتآمیزی در زمینههای متفاوت بهکار برده میشوند. مهمترین مزیت شبکه عصبی قابلیت خودتطبیقی، خودسازماندهی و عملیات بلادرنگ و ... است. شبکه عصبی پایهای شعاعی بهطور گستردهای برای تخمین غیرپارامتریک توابع چندبُعدی از طریق مجموعهای محدود از اطلاعات آموزشی بهکار میرود. شبکههای عصبی شعاعی بهواسطه آموزش سریع و فراگیر، بسیار جالب و مفید هستند و مورد توجه خاصی قرار گرفتهاند. شبکههای عصبی پایهای-شعاعی تقریبسازی هر تابع پیوسته و با هر درجه دقت میباشند. نکته بسیارجالب آن است که این شبکهها تنها با داشتن یک لایه مخفی، دارای چنین خاصیتی هستند. شبکههای پایهای- شعاعی بیشترین الهام را از تکنیکهای آماری طبقهبندی الگوها گرفتهاند که اساساً بهعنوان گونهای از شبکههای عصبی، حیاتینو یافتهاند و مزیت عمده آنها طبقهبندی الگوهایی با فضای غیرخطی است.][5

در شبکه عصبی پایهای- شعاعی، لایه ورودی فقط یک لایه ورودی است و در آن هیچ پردازشی صورت نمیگیرد. لایه دوم یا لایه پنهان، یک انطباق غیرخطی مابین فضای ورودی و یک فضای معمولاً با بُعد بزرگتر برقرار میکند و نقش مهمی در تبدیل الگوهای غیرخطی به الگوهای تفکیکپذیر خطی دارد. سرانجام لایه سوم، جمع وزنی را به همراه یک خروجی خطی تولید میکند. در صورتیکه از این شبکه عصبی برای تقریب تابع استفاده شود، چنین خروجیای مفید خواهد بود ولی در صورتیکه نیاز باشد طبقهبندی الگوها انجام شود، آنگاه یک محدودکننده سخت یا یک تابع سیگوئید را میتوان بر روی عصبهای خروجی قرار داد تا مقادیر خروجی 0 یا 1 تولید شوند.[6]
همانطور که از توضیحات بالا مشخص میشود خصوصیات منحصربفرد این شبکه، پردازشی است که در لایه پنهان انجام میگیرد. تابع لایه پنهان دارای رابطهای مطابق با رابطه (5) است:

(5)
که در آن p تعداد توابع شعاعی، wi وزن نروناُم،Xc i i مرکز ثقل نروناُم،x i بردار ورودی و φ تابع شعاعی است. رابطه (5) نشان میدهد که برای تقریب تابع f از p تابع شعاعی که دارای مراکز ثقل Xci هستند استفاده میشود. نماد ||.|| تابع فاصله در فضای Rn است که معمولاً فاصله اقلیدسی انتخاب میشود. از آنجایی که منحنی نمایش تابعهای پایهای شعاعی بهصورت شعاعی متقارن است، نرونهای لایه مخفی به نرونهای تابع شعاعی معروفند. تابع معروف در شبکههای شعاعی همان تابع گوسی یا نمایی است که در رابطه (6) مشخص شده است.[7]

(6)
که در آن r=||x-xc|| است و σ فاکتور عرض هسته است. دلیل انتخاب تابع نمایی گوسی بهعنوان تابع پاسخ نرونها در شبکه عصبی - این است که تابع نمایی جزء گروهی از توابعی است که دارای بهترین خواص در تقریبسازی هستند.[7]
-1-4 ماتریس درهمریختگی
در حوزه هوش مصنوعی، ماتریس درهمریختگی به ماتریسی گفته میشود که در آن عملکرد الگوریتمهای مربوطه را نشان میدهند. معمولاً چنین نمایشی برای الگوریتمهای یادگیری با ناظر استفاده میشود، اگرچه در یادگیری بدون ناظرنیز کاربرد دارد. معمولاً به کاربرد این ماتریس در الگوریتمهای بدون ناظر ماتریس تطابق میگویند. هر ستون از ماتریس، نمونهای از مقدار پیشبینی شده را نشان میدهد. در صورتی که هر سطر نمونهای واقعی(درست) را در بر دارد. در خارج از هوش مصنوعیاین ماتریس معمولاً ماتریس پیشایندی یا ماتریس خطا نامیده میشود.

در متن اصلی مقاله به هم ریختگی وجود ندارد. برای مطالعه بیشتر مقاله آن را خریداری کنید