دانلود پاورپوینت بررسی الگوریتم موتورهای جستجو

PowerPoint قابل ویرایش
13 صفحه
11900 تومان
119,000 ریال – خرید و دانلود

لطفا به نکات زیر در هنگام خرید دانلود پاورپوینت بررسی الگوریتم موتورهای جستجو توجه فرمایید.

1-در این مطلب، متن اسلاید های اولیه دانلود پاورپوینت بررسی الگوریتم موتورهای جستجو قرار داده شده است

2-در صورت مشاهده بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل اسلاید ها میباشد ودر فایل اصلی این پاورپوینت،به هیچ وجه بهم ریختگی وجود ندارد

اسلاید ۱ :

تعریف الگوریتم موتور جستجو

الگوریتم نیز مجموعه ای از دستورالعمل ها است که موتور جستجوگر به کمک آن تصمیم میگیرد که سایت ها را چگونه در خروجی هایش مرتب کند.
 موتور جستجوگر برای رده بندی صفحات وب از الگوریتم خاصی استفاده میکند که فوق العاده سری میباشد
برای اینکه سایت ها با هم مقایسه شوند و بر حسب میزان ارتباط با موضوع جستجو شده، مرتب شوند، موتور جستجوگر، الگوریتم را بر مجموعهای از پارامترها اعمال میکند. پارامترهای مورد توجه موتور جستجوگر نیز همانند الگوریتم آنها ناشناخته میباشد و این ناشناخته ها جذابیت دنیای موتورهای جستجوگر را دوچندان میکنند.
اگر عبارت یکسانی در تمام موتورهای جستجوگر، جستجو شود هیچ کدام از آنها نتایج یکسانی را ارائه نمیدهند و با نتایج کاملا متفاوتی روبرو میشویم. تفاوت در ارائه نتایج جستجو در موتورهای جستجوگر از تفاوت آنها در الگوریتمها و پایگاه دادهشان ناشی میشود. حتی اگر همه آنها از پایگاه داده یکسانی نیز استفاده کنند، بازهم نتایج جستجویشان متفاوت خواهد بود.

اسلاید ۲ :

تعریف موتور جستجو

  • موتور جستجو یا جویشگر یا جستجوگر به طور عمومی به برنامه‌ای گفته می‌شود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو می‌کند. در اینترنت به برنامه‌ای گفته می‌شود که کلمات کلیدی موجود در فایلها و سندهای وب جهانی، گروههای خبری،و آرشیوهای FTP را جستجو می‌کند.
  • برخی از موتورهای جستجو برای تنها یک وب‌گاه(پایگاه وب) اینترنت به کار برده می‌شوند و در اصل موتور جستجویی اختصاصی آن وب‌گاه هستند و تنها محتویات همان وب‌گاه را جستجو می‌کنند.
  • برخی دیگر نیز محتویات وب‌گاههای زیادی را پیمایش کرده و چکیده‌ای از آن را در یک پایگاه اطلاعاتی به شکل شاخص‌گذاری‌شده نگهداری می‌کنند. کاربران سپس می‌توانند با جستجو کردن در این پایگاه داده به پایگاه وبی که اطلاعات موردنظر آنها را در خود دارد پی ببرند.

اسلاید ۳ :

انواع موتور های جستجو

  • موتورهای جستجو به دو دسته کلی تقسیم می‌شوند.

     ۱- موتور های جستجوی پیمایشی ( خودکار )

این نوع موتور ها وب را پیمایش کرده، اطلاعاتی را ذخیره می‌کنند، سپس کاربران از میان این اطلاعات ذخیره شده، آنچه را که می‌خواهند جستجو می‌کنند.

     ۲- موتور های جستجوی تکمیل دستی ( غیر خودکار ) یا دایرکتوریها

  • وابسته به کاربرانی است که آنرا تکمیل می کنند.
  • دارندگان سایت ها به دایرکتوری مراجعه می کنند، گروه مناسب برای سایت خود را در آن بر می گزینند و سایت خود را به آن گروه معرفی می کنند.
  • پس از آنکه اطلاعات سایت ها به گروه های مختلف ارسال شد، ویراستاران دایرکتوری آن اطلاعات را بررسی می کنند. در صورتی که گروه درخواست شده، با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد، سایت معرفی شده را در گروه یاد شده می پذیرند و در غیر این صورت از قبول آن امتناع می کنند.
  • در صورتی که کاربران استفاده درستی از گروه های دایرکتوری بنمایند می توانند اطلاعات مفیدی را به کمک آنها کسب کنند.
  • دایرکتوری از وجود یک سایت مطلع نمی گردد مگر زمانی که آن سایت به دایرکتوری معرفی شود تا در یکی از گروه های آن قرار گیرد.
  • تفاوت اصلی دایرکتوری با یک موتور جستجوگر در این است که دایرکتوری نرم افزار اسپایدر ندارد .
  • یکی از ایراداتی که به دایرکتوری ها وارد می شود این است که سایت های مرده زیادی در خود دارند. به عبارت دیگر یک سایت بعد از آنکه به آن معرفی شده است دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آنرا به عنوان یک سایت فعال به کاربران معرفی می کند.
  • قرار گرفتن در پایگاه داده دایرکتورهای عمده، نقش مهمی در  کسب رتبه های بالا در موتورهای جستجوگر (نوع اول) دارد. دایرکتوری های عمده عبارتند از : Yahoo, Look Smart , Dmoz

اسلاید ۴ :

۳-  موتورهای جستجوی ترکیبی با نتایج مختلط

  • به موتورهایی گفته می‌شود که هر دو حالت را در کنار هم نمایش می‌دهند. غالباً، یک موتور جستجوی ترکیبی در صورت نمایش نتیجه جستجو از هر یک از دسته‌های فوق، نتایج حاصل از دسته دیگر را هم مورد توجه قرار می‌دهد. مثلاً موتور جستجوی MSN بیشتر نتایج حاصل از فهرست‌های تکمیل‌دستی را نشان می‌دهد اما در کنار آن نیم نگاهی هم به نتایج حاصل از جستجوی پیمایشی دارد.

۴- ابر جستجوگرها

این گونه جدید از موتورهای جستجوگر که قدمت چندانی نیز ندارند، بصورت همزمان از چندین موتورجستجوگر برای کاوش در شبکه برای کلید واژه مورد نظر استفاده می کنند .بدین معنی که این موتور عبارت مورد نظر شما را در چندین موتورجستجوگر ‍ِ جستجو کرده و نتایج آنها را با هم ترکیب کرده و یک نتیجه کلی به شما ارائه می‌دهد.

مانند موتور داگ پایل از نتایج موتورهای MSN-yahoo-google-Ask . یا MetaCrawler, DogPile, IXQuick, Mamma

 

اسلاید ۵ :

مقدمه

  • امروزه بر روی اینترنت صدها میلیون صفحه حاوی اطلاعات وجود دارد. کاربران اینترنت با آگاهی از آدرس یک سایت ، قادر به اتصال به سایت مورد نظر و استفاده از منابع اطلاعاتی موجود بر روی سایت خواهند بود. کاربر با دریائی از اطلاعات مواجه است، در صورتیکه قصد یافتن اطلاعاتی خاص را داشته باشد، برای جستجو و یافتن اطلاعات مورد نیاز از مراکز جستجوی اطلاعات در اینترنت استفاده می گردد . به مراکز فوق Search engines نیز گفته می شود .
  • مراکز جستجو در اینترنت ، نوع خاصی از سایت های موجود در وب بوده که با هدف کمک برای یافتن اطلاعات ، ایجاد شده اند. مراکز جستجو در اینترنت به منظور پاسخگوئی به کاربران متقاضی و جستجوکنندگان اطلاعات با یکدیگر مشابه بوده و تنها تفاوت موجود میدان انتخاب شده برای عملیات جستجو است . 
  • مراکز جستجو در اینترنت ، صرفا” اطلاعات مربوط به چندین هزار صفحه وب را ایندکس و روزانه دو تا سه هزار کاربر متقاضی به آنها مراجعه می کنند.

اسلاید ۶ :

بررسی یک موتور پیمایشی 

بخش های مجزای یک موتور جستجو گر عبارتند از :

  • Spider یا عنکبوت
  • Crawler یا خزنده
  • Indexer یا بایگانی کننده
  • Database یا پایگاه داده
  • Ranker یا سیستم رتبه بندی

اسلاید ۷ :

  • نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجو گر را برعهده دارد .
  • کار این نرم افزار شبیه کار کاربران وب است .
  • اسپایدر به هنگام مشاهده صفحات از خود بر روی سرورها رد پا بر جا می گذارد .
  • اسپایدرها کاربردهای دیگر نیز دارند ، مثلا عده ای از آنها به سایت ها مراجعه و فقط به بررسی لینک های آنان می پردازد و یا به دنبال آدرس پست الکترونیکی می گردند .
  • Google که یکی از مراکز جستجوی معتبر است . از چندین Spider ( معمولا” سه Spider در هر لحظه ) برای ایجاد مقادیر اولیه برای سیستم ، استفاده می کند . هر Spider قادر به نگهداری ارتباط خود با بیش از ۳۰۰ صفحه وب در یک لحظه است . با استفاده از چهار spider ، سیستم فوق قادر به جستجوی ۱۰۰ صفحه در ثانیه و تولید ۶۰۰ کیلوبایت اطلاعات در هر ثانیه است . اطلاعات مورد نیاز هر یک از spider ها می بایست بسرعت در اختیار آنان گذاشته شود. سیستم اولیه Google ، دارای یک سرویس دهنده اختصاصی به منظور تغذیه آدرس های URL مورد نیاز برای هر یک از Spider ها بود.

اسلاید ۸ :

  • کراولر نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می کند ، آن مشخص می کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد .
  • کراولر ممکن است از قبل برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه در اختیار اسپایدر قراردهد تا از انها دیدن کند .
  • به عمل کراولر خزش ( Crawling ) می گویند .

اسلاید ۹ :

  • تمام اطلاعات جمع آوری شده در اختیار ایندکسر قرار می گیرد.
  • اطلاعات مورد تجزیه و تحلیل قرار می گیرد و به بخش های متفاوت تقسیم می شوند .
  • ایندکسر صفحه را به پارامترهای آن خرد می کند .
  • ایندکسر برای کاهش حجم داده ها از بعضی کلمات رایج مانند a,the,www,,is,.. صرف نظر می کند .

اسلاید ۱۰ :

  • تمام داده های تجزیه و تحلیل شده در ایندکسر به پایگاه داده ارسال می گردد .
  • یک موتور جستجو باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و اطلاعات قدیمی را بروز رسانی نماید .
  • پایگاه داده از امتیازات یک موتور جستجو گر است .
  • از تفاوتهای اصلی موتورهای جستجو گر حجم پایگاه داده و همچنین روش ذخیره سازی داده ها در پایگاه داده است .
مطالب فوق فقط متون اسلاید های ابتدایی پاورپوینت بوده اند . جهت دریافت کل ان ، لطفا خریداری نمایید .
PowerPoint قابل ویرایش - قیمت 11900 تومان در 13 صفحه
119,000 ریال – خرید و دانلود
سایر مقالات موجود در این موضوع
دیدگاه خود را مطرح فرمایید . وظیفه ماست که به سوالات شما پاسخ دهیم

پاسخ دیدگاه شما ایمیل خواهد شد