بخشی از پاورپوینت

--- پاورپوینت شامل تصاویر میباشد ----

اسلاید 1 :

مقدمه
دستاوردهاي اين پروژه
كاوش متمركز وب
كاوش متمركز وب با استفاده از يادگيري تقويتي
طراحي و پياده سازي كاوشگر متمركز يادگيري تقويتي
نتايج حاصل از پياده سازي و ارزيابي
توسعه مكانيسم هاي پرس و جو در كاوشگرهاي متمركز
معرفي “سلسله مراتب مفهومي با دامنه خاص (DSCH)”
ارائه الگوريتمي خودكار DSCH – پياده سازي و ارزيابي آن
ارائه معماري يكپارچه براي موتورهاي جستجوي با دامنه خاص
نتيجه گيري و پيشنهادات آينده
مقالات ارائه شده حاصل از پروژه

اسلاید 2 :

كاوش متمركز  وب به عنوان راه حلي براي بازيابي اطلاعات وب 
صفحات مربوط به يك موضوع و يا از نوع خاص را جستجو و كپي كرده، شاخص­بندي و نگهداري مي كند. 
نتايج مورد انتظار از كاوش متمركز 
يافتن بيشترين صفحات مربوط  با كاوش كمترين ابرپيوند نامربوط
تحقيقات مرتبط
Fish
Web Watcher
Page-Rank
IBM Focused Crawler (Clever)
Cora
Context Focused Crawler
KAON
Apprentice
 

اسلاید 3 :

كاوش متمركز وب با استفاده از يادگيري تقويتي
توسعه روشهاي Cora براي محاسبه مقدار Q يادگيري تقويتي و پيشنهاد روشهاي جديد
استفاده از دسته بندي كننده ماشينهاي بردار پشتيبان براي اولين بار در كاوشگرها و مقايسه با نتايج قبلي
ارزيابي تاثير مقادير متفاوت پارامترهاي يك كاوشگر يادگيري تقويتي در كارآيي كاوشگر مانند متن اطراف ابرپيوند، تعداد دسته ها در دسته بندي كننده و مقدار گاما در محاسبه Q
توسعه پرس و جوي كاربر در كاوشگرهاي متمركز
معرفي ابزار "سلسله مراتب مفهومي با دامنه خاص" و استفاده از آن براي توسعه خودكار پرس و جوي كاربر در معماري -CSََAKU
طراحي، پياده سازي و ارزيابي الگوريتمي جديد براي يادگيري "سلسله مراتب مفهومي با دامنه خاص" با استفاده از اسناد آموزشي
پيشنهاد يك معماري يكپارچه (با ارائه چارچوب فرمال ) براي موتورهاي جستجوي با دامنه خاص كه از سلسله مراتب مفهومي با دامنه خاص و استدلال بر پايه موارد براي يادگيري از جستجوهاي قبلي استفاده مي كند

اسلاید 4 :

خواصي از يادگيري تقويتي كه آن را براي كاوش متمركز مناسب مي سازد:
توانايي مدل كردن پاداشهاي تاخيري (آينده) حاصل از تعقيب ابرپيوندها
امكان يادگيري از سعي و خطا – مناسب براي محيط هاي پويا و با تعداد داده هاي آموزشي كم
كارآيي به صورت پاداش در طول زمان قابل اندازه گيري است
مزيت كاوشگر يادگيري تقويتي بر كاوشگر متمركز معمولي
امكان در نظر گرفتن پاداش هاي آينده يك ابرپيوند در اولويت كاوش آن

اسلاید 5 :

توابع T و R مشخص هستند
پاداشهاي آني (R: Reward Function)
سند مرتبط حاصل از كليك كردن ابرپيوند
پاداشهاي آينده (V: Value function)
سند (اسناد) مرتبط حاصل از تعقيب ابرپيوند در چند سطح بعدتر
“عمل”: تعقيب (پيمايش) يك ابرپيوند خاص (A: set of actions)
تعداد اعمال در اختيار، پويا و بزرگ
"حالت" شامل (S: set of states)
مجموعه اسناد هدفي است كه بايد کاوش شوند.
مجموعه‌ پيوندهايي كه يافته شده‌اند.

اسلاید 6 :

مشكلات
فضاي حالات بسيار بزرگ است.
تعداد اعمال در اختيار هم بسيار زياد است
فرض هاي كاوشگر يادگيري تقويتي Cora براي سادگي و تعميم مساله:
"حالت" مستقل از اينست كه كدام اسناد هدف تابحال ديده ‌شده‌اند.
تبديل تمامي حالات به يک حالت
ميزان ربط اعمال (ابرپيوندها) به موضوع (هدف) مي‌تواند با كلمات "در همسايگي" ابرپيوند متناظر با هر عمل مشخص شود.
مي‌توان بين ابرپيوندها تعميم انجام داد و آنها را بوسيله متن اطرافشان با هم مقايسه كرد.

اسلاید 7 :

امكان يادگيري برخط
طراحي كاوشگر يادگيري تقويتي در اين پروژه
فاز آماده سازي بستر آزمايش و پيش پردازش
فاز يادگيري
فاز آزمايش

اسلاید 8 :

دسته بندي كننده بيز ساده (مورد استفاده در Cora)
روش آماري براي دسته بندي متن (احتمال تعلق يك متن به هر دسته)
از روش بيز استفاده مي كند و كلمه “ساده” به اين معني است كه احتمال رخداد كلمات در هر دسته و سند را مستقل از هم در نظر مي گيرد.
روش شناخته شده و پر كاربرد براي دسته بندي متن
دسته بندي كننده ماشينهاي بردار پشتيبان (SVMs)
بر اصل "حداقل سازي خطاي ساختاري" در نظريه يادگيري محاسباتي تكيه دارد
يافتن قضيه h كه حداقل خطاي مطلق را تضمين ميكند، معادل يافتن چند سطحي است كه داراي حداكثر حاشيه با بردارهاي پشتيبان در داده هاي آموزشي است

اسلاید 9 :

دلايل تناسب ماشينهاي بردار پشتيبان براي دسته بندي متن 
ابعاد زياد فضاي ورودي – راه حل SVMsبه تعداد ويژگيها (صفات) بستگي ندارد. 
تعداد كم ويژگيهاي غير مرتبط 
تُنك بودن بردارهاي اسناد 
ماشينهاي بردار پشتيبان Transductive 
روش TSVMSيك نوع خاص از SVMsاست كه هدفش يادگيري از تعداد معدودي داده آموزشي است
 در دسته بندي متن نسبت به الگوريتم SVMsبه كارآيي بهتري دست يافته است
دستاورد استنتاج Transductive به جاي استقراء (Induction) استفاده ميكند
 در استقرا، يادگيرنده سعي ميكند تا به طريقه استقراء يك تابع تصميم را نتيجه بگيرد كه داراي نرخ خطاي پاييني در تمامي توزيعهاي داده هاي آموزشي و آزمايشي براي يك يادگيري خاص باشد. در بسياري از موقعيتها مي خواهيم يك مجموعه از مثالها (مجموعه آموزشي) را با كمترين خطاي ممكن دسته بندي كنيم. اين مساله، هدف استنتاج Transductive است.
 
 

اسلاید 10 :

Immediate (Two classes): – std. FC
If the link is a paper its Q value is 1 else 0.
Distance:
Calculates Q values as gamma ^ (distance to the nearest reward)
Future (Three classes):
Calculate Q values for three classes - immediate, future, none. Score = 1 for immediate, gamma for future, zero for none.
Future (Four classes):
Calculates Q values for four classes - immediate, one-step, two-step, none.Score = 1 for immediate, gamma for one-step, gamma^2 for two-steps, zero for none

در متن اصلی پاورپوینت به هم ریختگی وجود ندارد. برای مطالعه بیشتر پاورپوینت آن را خریداری کنید