بخشی از مقاله

*** این فایل شامل تعدادی فرمول می باشد و در سایت قابل نمایش نیست ***

طبقه بندی صورت ها و نا صورت ها با استفاده از الگوریتم ADABOOST
چکیده
مسائل پردازش چهره به دودسته کلی تقسیم میشود یکی مجموعه مسائل به تشخیص چهره از غیر Detection)ea( و دیگری هم مسائل مربوط به تشخیص هویت از روی تصویر چهره (ReCOgnition). جهت طبقه بندی داده ها از دسته کننده های زیادی استفاده می شود که یکی از این دسته کننده ها (ClaSSifierS) الگوریتمی به نام AdabOOSt می باشد. AdabOOSt یک روش باز شناسایی تمایز بین چند مورد است. AdabOOSt متدی است که با استفاده از الگوریتم BOOSting به دسته بندی سمپل ها یا تصاویر ورودی می پردازد. AdabOOSt با کلاسیفایرهای مختلف می تواند به کار رود. یک مقدار آستانه که مقدارهای کوچک تر از آن از یک کلاس و مقادیر بزرگتر از آن جزء کلاس دیگر در نظر گرفته شده است، در این الگوریتم بکار گرفته میشود. در حقیقت از نتایج حاصل از طبقه بندهای ضعیف استفاده میشود و دسته بندی نهایی انجام میگردد.این دسته بندی هم به صورت مرحله به مرحله انجام میشود به این صورت که در مرحله ی اول ، نتیجه اولیه از نتایج Weak ClaSSiTier ها به دست می آید و سپس بر حسب محاسبه ی ضریب خطا، اثر برخی از این Weak ClaSSifier ها بیشتر میگردد و اثر برخی دیگر کاهش می یابد. هر کدام از Weak ClaSSifier ها یک ویژگی خاص بر روی تصاویر را مورد بررسی قرار داده و بر حسب threShOld که برای آن تعریف شده است، نتیجه ی دسته بندی خود مبنی بر وجود یا عدم وجود چهره را اعلام می دارد. ایده اصلی در این مقاله دیدن هر تصویر به صورت یک سیگنال so باشد. در واقع ما هر تصویر l با استفاده .3 دستورات متلاب بنے یک سیگنال تبدیل کرده وسیگنالها l بنے عنوان ورودی به الگوریتم AdabOOSt می دهیم و این الگوریتم با استفاده از مقدار آستانه تعریف شده در برنامه تصاویر را به دو گروه صورت و ناصورت تقسیم کرده ودر انتها با توجه به مقدار تکرار برنامه یک مقدار خطا به ما می دهد. پایگاه داده مورد استفاده در این تحقیق شامل ۱۵۰۰۰ صورت و ناصورت با اندازه هر تصویر باشد. دقت نهایی تشخیص صورت 3 ls صورت براساس روشهای اعمال شده برابر ۹۸٪ در دادگان آموزشی و آزمایش می باشد.

کلمات کلیدی: الگوریتم ThreShOld ،AdabOOSt، کلا سیفایر ضعیف، صورت و ناصورت.

۱. مقدمه
مسائل پردازش چهره به دودسته کلی تقسیم میشود یکی مجموعه مسائل به تشخیص چهره از غیر چهره و دیگری هم مسائل مربوط به تشخیص هویت از روی تصویر چهره. جهت طبقه بندی داده ها ازدسته کننده های زیادی استفاده می شود که یکی از این دسته کننده ها الگوریتمی به نام AdClbOOSt می باشد. AdolbOOS یک روش باز شناسایی تمایز بین چند مورد است. AdolbOOSt متدی است که با استفاده از الگوریتم BOOSting به دسته بندی سمپل ها یا تصاویر ورودی می پردازد. این الگوریتم با کلاسیفایرهای مختلف به کار می رود. یک مقدار استانه که مقدارهای کوچک تر از ان از یک کلاسی و مقادیر بزرگتر از آن جزء کلاس دیگر می باشد از جمله کلاسیفایرهایی است که در این الگوریتم بکار گرفته میشود. در حقیقت از نتایج حاصل از We Clk ClOISSUfle1 استفاده می شود و دسته بندی نهایی انجام میگردد.این دسته بندی هم به صورت مرحله به مرحله انجام می شود به این صورت که در مرحله ی اول ، نتیجه اولیه از نتایج Weak ClaSSifier ها به دست می آید و سپس بر حسب محاسبه ی ضریب خطا، اثر برخی از این آWe Clk ClClSSIJle ها بیشتر میگردد و اثر برخی دیگر کاهش می یابد. هر کدام از Weak ClaSSiTier ها یک ویژگی خاصی بر روی تصاویر را مورد بررسی قرار داده و بر حسب مقدار آستانه که برای آن تعریف شده است، نتیجه ی دسته بندی خود از تصاویر رو بر میگردانند. ازنظر عملی ، AdClbOOSt مزیت های زیادی دارد. سریع، ساده و جهت برنامه ریزی آسان است . پارامتری برای تنظیم ندارد (بجز برای تعداد اعداد صحیح T)، نیاز به هیچ دانش قبلی در ارتباط با آموزنده ی ضعیف نداشته و می تواند بطور انعطاف پذیری با هر روش دیگری برای یافتن فرضیه ضعیف ترکیب شود نهایتا، با مجموعه ای از تئوری داده های مناسب داده شده و اموزنده ای ضعیف که می تواند با قابلیت اطمینان تنها معتدلانه فرضیه ضعیف دقیق را ایجاد کند. عملکرد واقعی AdolbOOSt در یک مساله ی مشخص ، کاملا وابسته به داده و آموزنده ی ضعیف است. AdolbOOSt بصورت تجربی توسط محققانی در مقاله های [7]، [3]، [10]، [13] آزمایشی شده اند. برای مثال ، فروند و شاپیر [7] AdabOOSt را بر مجموعه ای از داده های (UCI (Uni17er"Sity Of Collif Ormid Iru2line ، با استفاده از C4.5 بعنوان الگوریتم آموزشی ضعیف، آزمایش کرده اند . بعضی از نتایج این آزمایش ها بهبودی چشمگیر در عملکرد را نشان می دهد. در آزمایشات دیگر ، شاپیر و سینگر [6] از ACI CubOOS برای اعمال دسته بندی متنی استفاده کرده اند . برای این کار ، فرایض ضعیف که بر حضور یا عدم حضور کلمه یا عبارت آزمایش شده اند بکار رفته اند. تمامی آزمایش ها و برای آزمایش سنجش عملکرد همه ی آنها، بAdolbOOSt بطور قابل توجهی بهتر از دیگر روش های تست شده عمل کرده است . AClClbOOSt همینطور در فیلتر کردن متن ، مسائل رتبه بندی و مسائل طبقه بندی ناشی از پردازش زبان طبیعی بکار رفته است . تعمیم AddbOOSt توسط شاپیر و سینگر، تفسیری از AdabOOSt بعنوان روشی باشیب نزولی فراهم می نماید. در کار، کوهن و سینگر [14] نشان دادند که چگونه می توان AdCubOOSt را برای آموزش فهرست قوانین مشابه با آنچه که توسط سیستم بصورت RIPPER، IREP و قوانین 4.5 C تولید شده اعمال نمود. در مقاله ی دیگری ، فروند و میسون [8] نشان داده اند که چگونه تقویت را برای آموزشی تعمیم درخت تصمیم به اصطلاح درختان جایگزین اعمال نمود. خصوصیت مناسب ACI CubOOSU ، توانایی آن برای شناسایی داده های دورافتاده است ، یعنی مثال هایی که هم در داده های آموزشی برچسب نخورده و هم بطور ذاتی جهت دسته بندی مبهم و دشوار هستند. زیرا ACI CubOOSt به وزن دشوارترین نمونه ها، توجه می کند. در ایران نیز تحقیقات زیادی بر روی این الگوریتم انجام شده است که از آن جمله می توان به تحقیق محمد شهرام معین و همکاران با عنوان بازشناسی چهره با استفاده از ترکیب طبقه بندی ها از طریق روش AdolbOOSt اشاره کرد که به نتایج خوبی رسیده اند [1].
۲. بانک داده
پایگاه داده مورد استفاده در این تحقیق شامل ۱۵۰۰۰ تصویر می باشد که از این ۱۵۰۰۰ تصویر ۱۰۰۰۰ تصویر غیر چهره و ۵۰۰۰ تصویر چهره می باشد، هر کدام از تصاویر ما ۲۴× ۲۴ پیکسل میباشد.
B Clg girlg و 110 B OOStl دو شاخه اصلی تئوری نمونه برداری مجدد برای طراحی کلاسیفایر هستند. بAdoubOOSt که مخفف PAC(Probably 4 AdaboOStaż: J. AdaboOSt:3JuS JAdaptive BoOSting (AppTOXim0utely COTre Ct Le0UT"ming برمی گردد. ارایه دهندگان PAC ثابت کردند که ترکیبی از یادگیرنده های ساده که نتایجی بهتر از انتخاب تصادفی دارند می تواند منجر به یک کلاسیفایر نهایی خوب شود که این مطلب ایده اصلی BOOSting است. بعد از چندین الگوریتم نسبتاً موفق که محدودیت هایی داشتند AdabOOSt در سال ۱۹۹۶توسط Freund و SCl ChCupire به عنوان الگوریتم عملی نظریه BOOSting|معرفی شد. ایده اصلی B OOStingدر استفاده از تعدادی کلاسیفایر ضعیف و ترکیب ان ها برای ایجاد یک کلاسیفایر قوی است. در اینجا کلاسیفایر ضعیف را یادگیرنده های ضعیف و کلاسیفایر قوی را فرضیه نهایی می نامیم. ثابت شده است که شرط لازم برای همگرایی فرضیه نهایی ( میل کردن خطا به صفر ) این است که یادگیرنده های ضعیف کمتر از ۵۰٪ خطا داشته باشند یا به عبارت دیگر نتیجه ای بهتر از انتخاب تصادفی داشته باشند [11].
اگر یادگیرنده های ضعیف را h 1, h2 ...... , h T بنامیم، فرضیه نهایی به شکل زیر خواهد بود:

ضریب CIt مشخص می کند که هر کدام از یادگیرنده های ضعیف با چه ضریبی در فرضیه ظاهر شوند . می توان گفت که این ضریب بیانگر اهمیت هر کدام از یادگیرنده های ضعیف است چون هر چه مقدار این ضریب برای یک یادگیرنده ضعیف بیشتر باشد آن یادگیرنده ضعیف تاثیر بیشتری در نتیجه نهایی خواهد داشت. فرض کنید مجموعه آموزشی X باشد که شامل نمونه های است که نمونه های Cl بعدی هستند و مجموعه Y شامل برچسب کلاس های X به صورت باشد که یعنی یک حالت دو کلاسه داریم [11][4].
۳-۱. الگوریتم Adab OOSt
۱. ورودی
۲. مقداردهی اولیه
۳. برای T" , ... ,1 = با تکرار کن.
• کلاسیفایر را با توجه به مجموعه نمونه های وزن دار{S. dt{ آموزش بده و فرضیه }1+ ,1-ht - « X را به دست بیاور (ht = L(S, d. • خطای آموزشی وزنی tع کلاسیفایر ht را محاسبه کن:


کهZt ضریب نرمالیزه سازی است و باعث می شود که مجموع وزن ها در هر مرحله برابر یک باشد.


3-2. توضیح مرحله به مرحله الگوریتم
هرکدام از نمونه های آموزشی در هر مرحله یک مقدار وزن می گیرند که مجموعه وزن های نمونه ها در هر مرحله تکرار روی تعیین یادگیرنده ضعیف ht تاثیرگذار است. این مجموعه وزن ("D در هر مرحله تکرار آپدیت می شود. مقدار وزن برای نمونه هایی که درست طبقه بندی شوند کم و برای نمونه هایی که اشتباه طبقه بندی شوند زیاد می شود. مقدار خطای اموزش هم در هر مرحله برابر با مجموع وزن داده های اشتباه طبقه بندی شده است بنابراین با این روش در هر مرحله روی نمونه هایی که در مراحل قبل اشتباه طبقه بندی شده اند تمرکز می شود. به همین دلیل این الگوریتم وفقی است و Adolptt De BOOStirl9 نام گذاری شده است [12] [10].
در مرحله اول همه داده ها وزن یکسان می گیرند و مجموع وزن در هر مرحله باید برابر یک باشد. به این ترتیب می توان وزن داده ها را به صورت یک توزیع اجتمال گسته درنظر گرفت که در ابتدا یک توزیع یکنواخت است و در نتیجه همه داده ها تاثیر یکسانی در تعیین یادگیرنده مرحله اول fl1 دارند، ولی در مرحله بعد 2 = t وزن داده هایی که توسط fl1 درست طبقه بندی شده اند

در متن اصلی مقاله به هم ریختگی وجود ندارد. برای مطالعه بیشتر مقاله آن را خریداری کنید