whatsapp call admin

مقاله در مورد معرفی سایت به موتورهای جستجوگر

word قابل ویرایش
52 صفحه
11700 تومان
117,000 ریال – خرید و دانلود

معرفی سایت به موتورهای جستجوگر

بخش اول اشنایی با موتورهای جستجوگر

• موتور جستجوگر چیست؟۴…………………………………
• انواع موتورهای جستجوگر۶……………………………….
• مفاهیم پایه موتورهای جستجوگر۱۰…………………………
• یک موتور جستجوگر چگونه کار می کند؟۱۳…………………..

بخش دوم بهینه سازی موتورهای جستجوگر

• بهینه سازی موتورهای جستجوگر۱۸…………………………
• اندازه گیری ترافیک سایت و تحلیل ترافیک۲۵…………………..
• محاسبه Page Rank گوگل۲۸……………………………
• چطور طراحی یک سایت بر روی رتبه ان در موتور جستجو تاثیر می گذارد؟۳۲…………………………………………….
• مشخصاتی که یک وب سایت نباید داشته باشد۳۵……………….
• راه ورود موتور جستجو گر به سایت۳۷………………………

بخش سوم معرفی سایت به موتورهای جستجوگر

• استفاده از سرویسهای رایگان و یا ارزان قیمت۳۹…………….
• خودتان معرفی کنید۴۰………….………………………….
• کمک گرفتن از افراد متخصص۴۰………….…………………
• استفاده از نرم افزارها۴۰……………….………………….
• معرفی به دایرکتوری ها۴۰…………………………………
• معرفی به موتورهای جستجوگر۴۵…………………………..
• چگونه می توان کاری کرد که سایت ما به سرعت در موتورهای جستجوگر ثبت شود۴۶…………………………………….
• چگونه سایت خود را چسبناک کنیم۴۹………………………..
• چرا سایت ما در موتورهای جستجوگر ثبت نمی شود؟۵۰……….
• جلوگیری از ثبت صفحات شخصی در موتورهای جستجوگر۵۲…..

مقدمه:
همانطور که میدانیم شبکه جهانی اینترنت روز به روز در حال گسترش است و طراحان صفحات وب از یک طرف و استفاده کننده گان از طرف دیگر با این شبکه ارتباط برقرار می کند .در این میان افزایش روز افزون صفحات وب مشکل انتخاب صفحات مورد نیاز را برای کاربران ایجاد ساخته است . پس از ان موتورهای جستجو به کمک کاربران شتافته و ان ها را در بدست اوردن اطلاعات مورد نیاز یاری می دهند .
این موتورهای جستجو از یک طرف برای کاربران مهم است و از طرف دیگر برای طراحان و مدیران .
اهمیت موتورهای جستجو برای کاربران به این لحاظ است تا صفحات مفید خود را بدست اورند و برای طراحان و مدیران این اهمیت دارد که سایت ان ها به کاربران از طرف موتورهای جستجو معرفی شود.
در این مقاله به کمک طراحان و مدیران رفته و طی سه بخش ,اشنایی با موتورهای جستجوگر , بهینه سازی موتورهای جستجوگر و معرفی سایت به موتورهای جستجوگر راه های مهینه سازی سایت خود و روش بالا کشیدن خود در موتورهای جستجو را به ان ها نشان می دهد.

بخش اول:
آشنایی با موتورهای جستجوگر
موتور جستجوگر چیست؟
موتور جستجوگر ابزاری است که به ما کمک می کند، جستجو کنیم. ابزاری است که ما را از به خاطر سپردن آدرس سایتهای بسیار بی نیاز می کند. می توان گفت که موتور جستجوگر یک سایت است که به سوالات ما پاسخ می دهد. با مراجعه به یکی از آنها ابتدا می گوییم که چه می خواهیم بعد از آن است که موتور جستجوگر صدها، هزاران و شاید میلیونها پاسخ برای آن به ما ارایه می دهد.

عده ای اینگونه تصور می کنند که موتور جستجوگر برای پاسخ دادن به سوالات ما در همان لحظه تمام اینترنت را می گردد. این تصور درست نیست بلکه موتور جستجوگر برای سرعت دادن به فرایند پاسخ دهی به سوالات کاربران، ابتدا پایگاه داده ای از تمام سایتهای که می شناسد، تشکیل می دهد. سپس برای پاسخ دادن به سوالات از همین پایگاه داده کمک می گیرد.
موتور جستجوگر نرم افزاری دارد که لحظه به لحظه اطلاعات پایگاه داده اش را افزایش داده، به روز رسانی می کند. به هنگام پاسخ دادن به سوالات نیز موتور جستجوگر با مراجعه به این پایگاه داده پاسخها را می یابد و بهترین پاسخها را در ابتدای نتایج جستجوی خود قرار می دهد.

هر موتور جستجوگر برای تشخیص بهترین پاسخها از الگوریتمی مختص به خود کمک می گیرد. هر چه این الگوریتم بهتر عمل کند، پاسخهای داده شده بهتر خواهند بود و موتور جستجوگر محبوب تر می شود. محبوبیت گوگل نیز ناشی از در اختیار داشتن بهترین الگوریتم در ارایه نتایج جستجو است.

دقت پاسخها، تعداد پاسخها و جدیدتر بودن این پاسخها سه حوزه ای هستند که موتورهای جستجوگر در آن به جنگ یکدیگر می پردازند زیرا می دانند که کاربران دقیقا این سه مورد را می خواهند. این سه مورد پاسخ این سوال هستند که چرا همه موتورهای جستجوگر مانند گوگل و یاهو معروف نمی شوند؟
بیایید اینگونه فرض کنیم که موتور جستجوگر طراحی شده است که دقیقا به سوال کاربر پاسخ می گوید و دقیق ترین و جدیدترین پاسخ را به وی ارایه می دهد. آیا در این صورت همه می توانند 
متاسفانه پاسخ منفی است. زیرا رفتار کاربران نیز مهم است. ما اگر نتوانیم به موتور جستجوگر بگوییم که چه می خواهیم، آن نیز نمی تواند پاسخی درست به ما بدهد. “۳۱ روز بعد از اول اسفند” برای گوگل همان “۳۱ روز بعد از اول اسفند” است در حالیکه مقصود من “اول بهار” یا “اول فروردین ماه” بوده است!
آشنایی کاربران با تکنیکهای جستجو به آنها کمک میکند، بهتر و سریعتر به آنچه که می خواهند دست یابند. مقوله دیگری که در جستجوی اطلاعات باید مد نظر قرار داده شود، ارزیابی اطلاعات است. به عبارت دیگر آیا هر چه که در اینترنت وجود دارد، اطلاعات موثق و معتبری می باشد؟ پاسخ منفی است.
توجه به این موضوع بسیار مهم است. ما همواره به دنبال اطلاعاتی هستیم که نیاز ما را برآورده کند. شاید پاسخهای داده شده در یک جستجو، بسیار دقیق و معتبر باشند اما ممکن است فراتر از نیاز کاربر باشد. لذا کاربران باید هم با مقوله جستجو در اینترنت و کار با موتورهای جستجوگر آشنا باشند و هم با مقوله ارزیابی اطلاعات.
اطلاعات موجود در اینترنت را می توان از دیدگاه تجاری به سه دسته تقسیم بندی کرد:
الف – اطلاعات رایگان و پیدا
ب – اطلاعات رایگان و ناپیدا
ج – اطلاعات تجاری
موتور جستجوگر هر چقدر هم از پایگاه داده بزرگی برخوردار باشد نمی تواند تمام اطلاعات وب

را در خود داشته باشد. ماهیت تجاری بودن بسیاری از سایتها و همینطور محدودیتهای تکنولوژیکی موتور جستجوگر را از دسترسی به تمام اطلاعات وب دور می کند. گفته می شود اگر اطلاعات تمام موتورهای جستجوگر بر روی هم ریخته شود حداکثر ۵۰ درصد وب را شامل می شود.
در حقیقت بخش اعظم وب از دسترسی موتورهای جستجوگر دور است که به آن وب پنهان گفته می شود. بنابراین برای یک جستجوی کامل نیاز به مراجعه به سایر ابزار جستجو نیز داریم. ابزاری

نظیر کتابخانه های مجازی و وبهای پنهان.
بازاریابی با موتورهای جستجوگر بدین معناست که کاری کنیم تا موتور جستجوگر سایت ما را در رتبه های بالاتر قرار دهد تا شانس مراجعه به سایت ما افزایش یابد. موتور جستجوگر ممکن است میلیونها سایت را در پاسخ به سوال کاربر نمایش دهد اما آیا کاربران تمام این سایتها را بازدید می کنند؟ خیر در اغلب موارد آنها نیاز اطلاعاتی خود را با مراجعه به سایتهای رتبه یک تا ۳۰ برآورده می کنند. بنابراین نیازی به مراجعه به سایتهای دیگر نخواهند داشت.
امروزه جنگ موتورهای جستجوگر برای کسب سهم بیشتری از میزان جستجوهای کاربران وارد حوزه های دیگری شده است. در حال حاضر رقابت اصلی میان گوگل، یاهو و MSN است.
موتورهای جستجوگر هر روز هوشمندتر می شوند و ماهیت تجاری بیشتری می یابند. سوالی که شاید خیلی ها می پرسند این است که آیا گوگل نیز رتبه های عادی خود را خواهد فروخت؟ به عبارت دیگر آیا می توان با پرداخت هزینه، جایی در صدر نتایج عادی گوگل داشت؟
از دیدگاه کاربرانی که از موتورهای جستجوگر برای دسترسی به اطلاعات مورد نیاز استفاده می کنند، مهمترین مقوله های مورد توجه عبارتند از:
• استفاده از کدام ابزار جستجو
• تکنیکهای موثر جستجو برای صرفه جویی در وقت و هزینه
• تحلیل نتایج جستجو
• ارزیابی اطلاعات بدست آمده
از دیدگاه دارندگان سایتها و تجارت الکترونیک که موتور جستجوگر را ابزار نخست بازاریابی خود می دانند، مقوله های زیر مد نظر است:
• میزان وابستگی به رتبه ها تا چه میزان
• رتبه های بالا در کدام موتور جستجوگر

• رتبه های بالا در موتورهای جستجوگر پولی یا موتورهای جستجوگر رایگان
• چگونگی کسب رتبه های بالا
• رتبه های بالا با چه عباراتی
• تحلیل ترافیک سایت

برخی موضوعات مورد توجه از دیدگاه تکنولوژی های جستجو و موتورهای جستجوگر نیز عبارتند از:
• کسب درآمد بیشتر
• طراحی بهترین الگوریتم برای رتبه بندی صفحات
• راهکاری تشخیص تقلب در رتبه ها از سوی دارندگان سایتها
• نزدیک تر کردن جستجو به زبان محاوره کاربر
• فشرده سازی اطلاعات و بزرگتر کردن هر چه بیشتر پایگاه داده
• طراحی روشهای سریعتر بازیابی اطلاعات
• جستجوی بهتر در فایلهای صوتی و تصویری
انواع موتورهای جستجوگر:
موتورهای جستجوگر، با درجات متفاوتی از موفقیت، در واقع یک کار انجام می دهند: فراهم آوردن یک وسیله جستجوی ساده برای کمک به کاربران در رسیدن به اطلاعات مورد نیاز.
برای نیل به این مهم، موتورهای جستجوگر از اطلاعات موجود در پایگاه داده شان کمک می گیرند. اطلاعات این پایگاه داده نیز به روش های گوناگونی تامین می شود با توجه به نوع جمع آوری اطلاعات، خدمات جستجویی که در وب ارایه می شود به دو گروه اصلی زیر تقسیم بندی می گردد:

• موتور جستجوگر( Search Engine)
• فهرست( Directory )

تفاوت اصلی دو گروه اشاره شده در این است که اطلاعات پایگاه داده گروه اول را نرم افزارها جمع آوری می کنند حال آنکه این کار برای گروه دوم توسط انسانها انجام می شود.

الف Search Engine( یا موتور جستجوگر

در حالت کلی زمانی که صحبت از موتور جستجوگر می شود، مقصود، این نوع آن است. در این نوع از موتورهای جستجوگر، کار جمع آوری اطلاعات بر عهده اسپایدرها است. اسپایدر نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. پایگاه داده این نوع از موتورهای جستجوگر بزرگتر از سایر انواع است و اطلاعاتی را که آنها ارایه می دهند، معمولا” به روزتر می باشد.

عملیات به روز رسانی و گسترش اطلاعات پایگاه داده موتور جستجوگر از یک هفته تا چند ماه به طول می انجامد. اسپایدرها، هیچ گاه از کار نمی ایستند و به طور مداوم به جمع آوری اطلاعات مشغول هستند. ممکن است اطلاعات جمع آوری شده توسط اسپایدرها از صفحات جدید باشد و یا اطلاعات به روز شده از صفحاتی باشد که قبلا” هم به آنها مراجعه کرده اند.
زمانیکه صحبت از تکنیک های بهینه سازی سایت ها (SEO) به میان می آید در واقع تکنیک هایی مطرح اند که برای کار با این نوع از موتورهای جستجوگر مؤثرند. بعضی از این نوع موتورهای جستجوگر عبارتند از :

Google, Yahoo, MSN, AllTheWeb, Gigablast, WiseNut, Teoma

ب) Directory یا فهرست
دایرکتوری ها اطلاعات را در گروه های مختلف دسته بندی می کنند. تفاوت اصلی دایرکتوری با یک موتور جستجوگر در این است که دایرکتوری اسپایدر ندارد. دارندگان سایت ها به دایرکتوری مراجعه می کنند، گروه مناسب برای سایت خود را در آن بر می گزینند و سایت خود را به آن گروه معرفی می کنند.

پس از آنکه اطلاعات سایت ها به گروه های مختلف ارسال شد، ویراستاران دایرکتوری آن اطلاعات را بررسی می کنند و در صورتی که گروه درخواست شده، با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد، سایت را در گروه یاد شده می پذیرند.
دایرکتوری از وجود یک سایت مطلع نمی گردد مگر زمانی که آن سایت به دایرکتوری معرفی شود. یکی از ایراداتی که به دایرکتوری ها وارد می شود این است که سایت های مرده زیادی در خود دارند. به عبارت دیگر یک سایت بعد از آنکه در یکی از گروه های آن قرار گرفته، دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آنرا به عنوان یک سایت فعال به کاربران معرفی می کند.
البته دایرکتوری های حرفه ای با استخدام ویراستاران خبره تلاش بسیاری برای رفع این نقص و نواقص مشابه می نمایند. امکان دارد دایرکتوری ها برای بررسی این مورد از اسپایدرها هم کمک بگیرند. در این مورد خاص، کار اسپایدر این است که بررسی کند که آیا سایت هایی که قبلا” در گروه ها قرار گرفته اند، هنوز هم فعال می باشند؟ در مواردی هم امکان دارد که اسپایدرها تغییر زمینه فعالیت سایت ها و یا فعال بودن پیوندهای درون صفحات سایت

ها را بررسی کنند.
قرار گرفتن در پایگاه داده دایرکتورهای عمده، نقش مهمی در کسب رتبه های بالا در موتورهای جستجوگر(نوع اول) دارد. دایرکتوری های عمده عبارتند از:
Yahoo, Look Smart , Dmoz
بعضی از ارایه دهندگان خدمات جستجو در واقع تلفیقی از هر دو گروبخش فهرست خود کمک گرفته است.
اما زیرگروههایی برای دو گروه اصلی خدمات جستجو وجود دارد که هم از دیدگاه کاربران وب و هم از دیدگاه مدیران سایتها حایز اهمیت می باشند. این خدمات جستجو عبارتند از:
•ابر جستجوگر( Meta Search Engine )
• رتبه بازای پول Pay Per Click Search Engine))
• موتور جستجوگر خاص( Spcialty Search Engine)

Meta Search Engine یا ابر جستجوگر:

ابرجستجوگر از نتایج سایر موتورهای جستجوگر استفاده می کند. کار آن بدین صورت است که سوال کاربر را همزمان به موتورهای جستجوگر مختلفی ارسال می کند. پس از دریافت نتایج جستجوی آنها به بررسی نتایج دریافت شده می پردازد و در نهایت ترکیبی از رتبه های بالای آنها را طبق الگوریتم خود بعنوان نتایج جستجو به کاربر نشان می دهد. ابر جستجوگر اسپایدر و پایگاه داده ندارد. برخی از آنها عبارتند از:
Vivisimo, Mamma, IXQuick, WebCrawler, Kartoo, DogPile

Pay-per-Click Search engine یا موتورهای جستجوگر رتبه به ازای پول!

کار آنها بسیار شبیه یک مزایده است: با توجه به واژه کلیدی انتخابی، برای بالاترین رتبه، باید بالاترین قیمت نسبت به سایر متقاضیان پرداخت شود.

در واقع نحوه ارائه نتایج جستجو در PPC به این ترتیب است که اگر سایتی خواهان بالاترین رتبه (رده اول)‌ در نتایج جستجوی آن می باشد، باید بالاترین رقم به ازای هرکلیک را نسبت به تمام رقبا بپردازد.
به عنوان مثال اگر سایتی مکان اول را برای عبارت Persian Carpet به قیمت ۱۰ ریال خریده باشد، هر بار که عبارت یاد شده جستجو گردد و بیننده‌ای با دنبال کردن پیوند ارائه

شده در نتایج جستجو به سایت مورد نظر برود، دارندگان آن سایت باید ۱۰ ریال به موتور جستجوگر بپردازند. اگر ۱۰۰۰ بیننده این کار را انجام دهند، آن گاه باید ۱۰۰۰×۱۰ ریال، پرداخته شود.

البته این گونه نیست که PPC فقط سایت هایی را لیست می‌کند که با آنها قرارداد تجاری بسته است. بلکه ابتدا کلیه سایت های طرف قرارداد خود را برای عبارات‌ مورد نظر آن سایت ها لیست می‌کند و سپس سایت های دیگر را که معمولا از پایگاه داده سایر موتورهای جستجوگر است، لیست می‌کند. نمونه ای از روش ارایه نتایج جستجوی این نوع از موتورهای جستجوگر را در شکل زیر نشان داده شده است.

شکل- نمونه ای از روش ارایه نتایج جستجو در موتورهای جستجوگر PPC

سایت های رده ۱۱۰ و ۱۱۱ برای عبارت free stuff هزینه می پردازند که بالاتر از سایت های قرار گرفته در رتبه های ۱۱۲ و ۱۱۳ ایستاده اند.
به عبارت های sponsored listing و additional listing توجه نمایید. در این مورد می‌توان به Overture و Findwhat اشاره کرد.

فواید آنها:
(۱ دارنده سایت تنها زمانی پول می پردازد که واقعا” بیننده ای به سایت او بیاید.

(۲ سایت تقریبا” در عرض چند ساعت و یا حداکثر یک هفته در نتایج جستجو قرار می گیرد و دیگر نیازی به چندین ماه انتظار نیست تا در نتایج جستجوی سایر موتورهای جستجوگر قرار گیرد که آن هم معلوم نیست دارای چه رتبه ای خواهند بود
(۳ سایتی اگر بالاترین رتبه را می خواهد، کافی است که بالاترین قیمت را بپردازد و دیگر نیازی به کاربرد تکنیک های رایج برای کسب رتبه های بالا نیست.

(۴ چون اینگونه سایتها معمولا به صورت شبکه ای از سایتها فعالیت می کنند، یک سایت با استفاده از سیستم آنها در نتایج جستجوی موتورهای جستجوگر دیگر که دارای شراکت

تجاری با آنها هستند هم قرار می گیرد. به عنوان مثال اورچر، یاهو و آلتاویستا در یک شبکه هستند.

: Specialty Search Engine یا موتورهای جستجوگر خاص
این نوع از موتورهای جستجوگر بر موضوعی خاص تمرکز دارند و تنها سایت های مرتبط با آن موضوع را در پایگاه داده خود قرار می دهند. به عنوان مثال یکی از آنها ممکن است تنها سایت های ایرانی را بپذیرد و موضوع فعالیتش سایت های ایرانی باشد.
این موتور‌های جستجوگر اطلاعات تخصصی‌تری را ارائه می‌دهند زیرا معمولا توسط افراد متخصص در آن زمینه اداره می شوند. موتورهای جستجوگر منطقه ای و موضوعی به این دسته تعلق دارند. در این مورد می توان به مواردی نظیر ChemicalSearch وIndustrySearch اشاره کرد.

مفاهیم پایه موتورهای جستجو:
قبل از شروع گفتگو درباره هر موضوعی نیاز به آن است که مفاهیم اولیه و اصطلاحات رایج در آن موضوع، بیان شود تا طرفین گفتگو راحت تر به منظور یکدیگر پی ببرند. ما نیز در این بخش، بعضی از مفاهیم و اصطلاحاتی را که در صفحه های دیگر سایت از آنها به کرات استفاده می شود، شــرح داده شده است.
Spider:
نرم افزاری است که کار جمع آوری اطلاعات از صفحات مختلف را بر عهده دارد.

Crawler:
نرم افزاری که مسیر حرکت اسپایدر را مشخص می کند.
Directory :
فهرست. نوعی از موتورهای جستجوگر که پایگاه داده آن توسط ویراستاران تکمیل می گردد.

Keyword:
بــه واژه ها ی مهم (کلیدی) هر صفحه گفته می شود. اما غالبا” منظور کلماتی است که دوست داریم با آنها رتبه های مناسبی کسب کنیم.

Keyword Density:
چگالی کلمه، منظور تعداد دفعات تکرار واژه های کلیدی در مقایسه با سایر کلمات متن است.

Keyword Staffing:

تکرار یک کلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه. این کار تقلب محسوب می شود.

:Tinny Text
نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به این صورت، تقلب محسوب است.

 

Invisible Text:
متن نامرئی. منظور استفاده از متن های همرنگ با پس زمینه صفحه است. متن هایی که از دید کاربران مخفی می ماند. به عنوان مثال اگر پس زمینه یک صفحه سیاه است، متن صفحه نیز با رنگ سیاه نوشته می شود تا دیده نشود . این نوع متن ها از مصادیق تقلب می باشند.

Spam:
تقلب، به تمام تلاش هایی گفته می شود که به کمک آن سعی می شود از راه های غیر معمول، رتبه های بالایی کسب شود. یا در اختیار گذاردن اطلاعاتی که موتورهای جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تکرار یک کلمه به دفعات و پشت سر هم، استفاده از متن های هم رنگ زمینه و …

ALT tag:
محتوای این شناسه، متنی است که یک عکس را توضیح می دهد.

Deep Crawl:
به معنای این است که موتور جستجوگر، می تواندصفحات زیادی از یک سایت را در پایگاه داده اش قرار دهد. موتور جستجوگر هرچه پایگاه داده اش بزرگتر باشد، صفحات بیشتری از یک سایت را می تواند در پایگاه داده اش قرار دهد. همه موتورهای جستجوگر دارای این ویژگی نمی باشند.

Robots.txt:
با این فایل متنی و ساده، میزان دسترسی موتور جستجوگر به محتوای یک “سایت” را می توان کنترل کرد.

:META robots tag
به کمک این شناسه میزان دسترسی موتور جستجوگر به محتوای یک “صفحه” را می توان کنترل کرد.

Link:
پیوند. در واقع پلی بین دو صفحه است. به کمک آن می توان از یک صفحه به صفحه دیگر رفت.

:Link Popularity
مقصود این است که چه تعداد از سایت های دیگر به سایتی مشخص لینک کرده اند یا اینکه از چند سایت دیگر می توان به کمک پیوندها به سایتی مشخص رفت.

Link Reputation:

اشاره به این دارد که سایر سایتها درباره سایتی که بدان لینک داده اند، چه می گویند. عموما در این موارد عنوان، متن لینک و کلمات اطراف لینک در سایت مقصد، بررسی می شوند.

Learn Frequency:
بعضی از موتورهای جستجوگر می توانند تشخیص دهند که محتوای صفحات پس

از چه مدتی تغییر می کند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند.

URL-Uniform Resource Locator:
به آدرس منحصر به فرد هر منبع موجود در اینترنت گفته می شود. این منبع می تواند یک صفحه وب، یک فایل متنی و… باشد

Stop Word:
به کلماتی گفته می شود که در کل اینترنت از آنها بسیار استفاده شده است. کلماتی نظیر the, a, an, web, www, home page و …

Meta tags:
به کمک این شناسه ها، اطلاعاتی از صفحه در اختیار بینندگان (موتور جستجوگر، مرورگرها و …) قرار داده می شود.

META Keywords:
به کمک آن، کلمات کلیدی صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

META Description
به کمک آن، توضیحی مختصر از صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

Stemming:
به معنای این است که موتور جستجوگر می تواند صورت های مختلف یک کلمه را جستجو کند. به عنوان مثال با جستجوی swim موتور جستجوگر به دنبال swimmer ، swimming نیز می گردد. همه موتورهای جستجوگر دارای این ویژگی نمی باشند.

Rank:
رتبه یک صفحه در نتایج جستجو است زمانی که جستجویی مرتبط با محتوای آن صفحه انجام می شود.

Spamdexing:

مختصر شده spam indexing است. منظور طراحی و معرفی صفحاتی به موتورهای جستجوگر است که کیفیت نتایج جستجو را پایین می آورند. موتورهای جستجوگر تمایل دارند که کاربران بارها و بارها به آنها مراجعه کنند و کیفیت بالای نتایج می تواند این روند را تضمین کند. لذا آنها هرکدام به نوعی سعی در تشخیص صفحاتی دارند که کیفیت نتایج جستجو را پایین می آورد. برخی از این موارد عبارتند از: ساختن صفحاتی که همگی دارای محتوای یکسانی اند، تکرار یک ک

لمه بیش از حد و …

Comment:
توضیحاتی است که طراحان سایت در لا به لای کدهای HTML می گنجانند تا برای فهمیدن وظیفه بخش های متفاوت کدهای HTML در مراجعات آتی نیازی به صرف وقت بسیار نداشته باشند.
موتور جستجوگرچگونه کار می کند:

وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا” پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند که چگونه امکان دارد گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه کند؟
نه گوگل و نه هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند. همه آنها در زمان پاسخ گویی به کاربران، تنها در پایگاه داده ای که در اختیار دارند به جستجو می پردازند و نه در وب!
موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا” جمع آوری، تجزیه و تحلیل می کند و آنرا در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می گردد.
بخش های مجزای یک موتور جستجوگر عبارتند از:
Spider• یا عنکبوت
Crawler• یا خزنده
Indexer• یا بایگانی کننده
Database• یا پایگاه داده
Ranker• یا سیستم رتبه بندی

الف )Spider (عنکبوت(
اسپایدر یا روبوت (Robot)، نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز

یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، اطلاعات مورد نیاز را جمع آوری می کند و آنرا در اختیار سایر بخش های موتور جستجوگر قرار می دهد.

کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید می کنند، اسپایدر هم درست این کار را انجام می دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.

Index.html صفحه ای است که کاربران آنرا به صورت شکل (۱) می بینند:

اما یک اسپایدر آنرا چگونه می بیند؟
برای این که شما هم بتوانید دنیای وب را از دیدگاه یک اسپایدر ببینید، کافی است که کدهای HTML صفحات را مشاهده کنید. برای این کار در مرورگر مورد استفاده خود، مسیر نشان داده شده در شکل را دنبال کنید.

با انجام این کار فایل متنی شکل به شما نشان داده می شود:

آیا این دنیای متنی برای شما جذاب است؟
اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها رد پا برجای می گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، می توانید مشخص کنید که اسپایدر کدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده اند.

اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عده ای از آنها به سایت های مختلف مراجعه می کنند و فقط به بررسی فعال بودن لینک های آنها می پردازند و یا به دنبال آدرس پست الکترونیکی (Email) می گردند.

ب) Crawler (خزنده (
کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می کند. آن مشخص می کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می گیرد که کدام یک از لینک های صفحه ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضی ها را دنبال کند و یا هیچ کدام را دنبال نکند.
کراولر، ممکن است قبلا” برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال کردن لینک های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می تواند در پایگاه داده اش ذخیره کند و همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر

داده نشده باشد.

شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات سایت شما را با خود ببرند، می توانید آنها را از بعضی از صفحات سایت تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می شود. به عمل کراولر ، خزش (Crawling) می گویند.
ج)Indexer (بایگانی کننده(گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می گیرند و به بخش های متفاوتی تقسیم می شوند. تجزیه و تحلیل بدین معنی است که مشخص می شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، کلمات چندبار تکرار شده است، کلمات در کجای صفحه قرار دارند و … .
در حقیقت ایندکسر، صفحه را به پارامترهای آن خرد می کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می کند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.
در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده ها از بعضی کلمات که بسیار رایج هستند صرفنظر می کند. کلماتی نظیر a ، an ، the ، www ، is و … . از این گونه کلمات هستند.

د ) DataBase (پایگاه داده)
تمام داده های تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می گردد. در این بخش داده ها گروه بندی، کدگذاری و ذخیره می شود. همچنین داده ها قبل از آنکه ذخیره شوند، طبق تکنیکهای خاصی فشرده می شوند تا حجم کمی ُُاز پایگاه داده را اشغال کنند.
یک موتور جستجوگر باید پایگاده داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز رسانی نماید. بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می گردد. یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده ها در پایگاه داده است.

در شکل (۴) حجم پایگاه داده چند موتور جستجوگر با هم مقایسه شده است.

شکل ۴- مقایسه حجم پایگاه داده چند موتور جستجوگر در دسامبر ۲۰۰۱
GG= Google, AV= Altavista, Fast= AllTheWeb
INK= Inktomi, NL= NorthernLight

و) Ranker (سیستم رتبه بندی(
بعد از آنکه تمام مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ گویی به سوالات کاربران است. کاربران چند کلمه را در جعبه جستجوی (Search Box) آن وارد می کنند و

سپس با فشردن Enter منتظر پــاسخ می مانند.
برای پاسخگویی به درخواست کاربر، ابتدا تمام صفحات موجود در پایگاه داده که به موضوع جستجو شده، مرتبط هستند، مشخص می شوند. پس از آن سیستم رتبه بندی وارد عمل شده، آنها را از بیشترین ارتباط تا کمترین ارتباط مرتب می کند و به عنوان نتایج جستجو به کاربر نمایش می دهد.
سیستم رتبه بندی برای پاسخ گویی به سوالات کاربران، پارامترهای بسیاری را در نظر می گیرد تا بتواند بهترین پاسخ ها را در اختیار آنها قرار دارد. حرفه ای های دنیای SEM به طور خلاصه از آن به) Algo الگوریتم) یاد می کنند.

این فقط قسمتی از متن مقاله است . جهت دریافت کل متن مقاله ، لطفا آن را خریداری نمایید
word قابل ویرایش - قیمت 11700 تومان در 52 صفحه
117,000 ریال – خرید و دانلود
سایر مقالات موجود در این موضوع
دیدگاه خود را مطرح فرمایید . وظیفه ماست که به سوالات شما پاسخ دهیم

پاسخ دیدگاه شما ایمیل خواهد شد