Search Engine Optimization

 

 


مشخصات مقاله

نام مقاله : بهینه سازی صفحات وب بر پایه موتور های جستجو
نویسنده : میلاد خسروانی
ویرایش متن : میلاد خسروانی
استاد مشاور : مهندس شهرام غایبی







• مقدمه
• معرفی انواع جستجوگر ها
• Search Engine
• Directory
• Meta Search Engine
• Pay Per Click
• Specially Search Engine
• Natural Search Engine
• مقدمات SEO
• انتخاب واژه های کلیدی
• فرایند بهینه سازی
• بهینه سازی متن
• محل اعمال پارامتر ها
• چند نکته مهم
• استفاده بهینه از واژه های کلیدی
• Meta tags
• محبوبیت لینک
• تقلب
• خوراک Spider
• منابع


مقدمه

SEO یا بهینه سازی بر پایه موتورهای جستجو درواقع پاسخ به نیاز اصلی سایت های وب جهان گستر یعنی ترافیک هدفمند یا آمار بالای بازدید کنندگان از سایت است. برای داشتن بیننده در یک سایت یا به عبارت دیگری بازاریابی برای یک سایت چندین روش وجود دارد :
روش نخست تبلیغات در خارج از وب است. یعنی تبلیغات به روش سنتی ، کارایی این روش به دلایل ذیر چندان مناسب نیست . با وجود اینترنت و پیامدهای آن توجه جامعه ی جهانی ازرسانه های دیگر به سمت این پدیده کشیده شده وتبلیغات به روش سنتی حتی در زمینه های قبلی نیز کارایی خود را از دست داده چه برسد برای کار کرد در خود اینترنت. گذشته از این چون این تبلیغات درخارج از محیط وب انجام می شود ،پس تاثیر گذاری آن کم است. تصور کنید که این تبلیغ روی تابلوی تبلیغاتی یک اتوبان نصب شده باشد ، حتی در صورتی که توجه بیننده را جلب کند، احتمال اینکه او به سایت مورد نظر برود کم است چون تا از خیابان به منزل یا محل کار یا محیطی که در آن به اینترنت دسترسی دارد برود ،فاصله زمانی زیادی رخ داده و تاثیرگذاری آگهی از بین رفته است.
روش دوم تبلیغات در خود وب است به عنوان مثال قراردادن یک flash تبلیغاتی در یک سایت پر بیننده. که کار روش دوم در اکثر موارد از روش اول بهتر است اما ضعفهایی هم دارد مثلا هزینه ی زیاد واینکه ما مطمئن نیستیم که کاربران آن سایت پر بیننده به آگاهی ما علاقه مند هستند یا نه .
یک روش نوین دیگر هم وجود داردکه با روش های سنتی کاملا در تضاد است . در این روش در واقع به جای ارائه ی سایت به بیننده در واقع به نیاز وپرسش خود او جواب می دهیم . اینجا به جای اینکه دنبال بیننده باشیم خود بیننده ما را پیدا کرده وبه سراغ ما می آید . اما او چگونه اینکار را انجام می دهد؟ بهتر است از آمار کمک بگیریم تا متوجه شویم که کاربران اینترنت چگونه موضوع های مورد علاقه ی را پیدا می کنند :
تقریبا 90% از کاربران اینترنت با حداقل یک موتور جستجوگر آشنا هستند و از آن استفاده می کنند .
50% از کاربران اینترنت هر روز جستجو می کنند که بیش از نیمی از این جستجوها برای کالا یا خدمات است .
یکی از اولین کارهایی که یک کاربر تازه کار شبکه انجام می دهد ، جستجو در یکی از موتورهای جستجوگر است .
از آمار بالا نتیجه می شود که جستوجوگرها محبوب ترین ابزار برای جستوجوی اطلاعات در محیط وب هستند پس در این روش سعی می شود تا کاربر به این روش ما را پیدا کند درنتیجه چیزی که خود او به دنبالش بوده را ما به او ارائه می کنیم .
نیاز به جستجوگرها یک نیاز انکارنا پذیر است . باتوجه به حجم عظیم وب و اطلاعاتی که روزانه به وب افزوده می شود کاربروب برای پیدا کردن موضوع خاصی دروب با وجود این همه اطلاعات بی پایان دچار مشکل است و پیداشدن موتور های جستجوگر درواقع پاسخ بر این نیاز کاربران است. درSEO سعی براین است که بینندگان بیشتری بااین روش با سایت مورد نظر روبه رو شوند به عبارت بهتر سایت با صفحه ی مورد نظر درصفحه ی نتایج موتور جستوجوگر که به کاربر ارائه می شود رتبه ی بالایی کسب کند . هدف نهایی قرار گرفتن در صفحه ی اول نتایج است (نتایج اول تا دهم) و اولویت به نتایج اول تا سوم است .
گذشته از این ها مهمترین نقش SEO در تجارت آنلاین است یعنی جایی که حضور بیننده پر اهمیت ترین موضوع است. شرکت های بزرگ سرمایه گزاری زیادی برای قرار گرفتن سایت شان در لیست جستوجوگرهای بزرگ انجام می دهند همین موضوع باعث رونق بازار SEO شده است.


معرفی انواع جستجوگرها


قبل از اینکه به تکنیکهای SEO بپردازیم لازم است که یک شناخت کلی از یک جستجوگر داشته باشیم. ابتدا به برسی ساختار یکی از انواع مهم جستجوگر ها یعنی Search Engine می پردازیم.


1. Search Engine
هر موتور جستجوگر چندین بخش مرتبط به هم دارد :

1. روبات نرم افزاری : تشکیل شده از دو بخش است : Spider و Crawler
Spider یا عنکبوت نوعی برنامه نرم افزاری است که وظیفه کاوش در وب و جمع آوری اطلاعات از وب و ارسال آن به موتور جستجوگر را به عهده دارد . و کراولر تعیین می کند که Spider باید چه کارهایی انجام دهد. کار Spider به این صورت است که طبق دستور Crawler به یک صفحه می رود اطلاعات آن صفحه را از رویSource صفحه خوانده .و به Search Engine ارسال می کند سپس باز هم با دستور Crawler لینک هایی که در آن صفحه وجود دارند را دنبال می کند .در صفحه های مقصد باز هم همین عمل را تکرار می کند . به این ترتیب Spider با دنبال کردن لینک ها )تارهای شبکه وب( مانند یک عنکبوت در شبکه تار عنکبوتی وب حرکت می کند و اطلاعات جدید را جمع آوری می کند . مجموعه روبات نرم افزاری وظیفه بایگانی کردن وب را به عهده دارد .

2. بایگانی : این قسمت شامل بخش تجزیه و تحلیل گر (Indexer) وبخش پایگاه داده
(Database) است.

Indexer : اطلاعاتی را که روبات نرم افزاری جمع آوری میکند در اختیار این بخش قرار میدهد. Indexer اطلاعات ارسالی را تجزیه و تحلیل می کند. به عبارت دیگر اطلاعات را سازماندهی می کند. به عنوان مثال در یک سند چند کلمه وجود دارد، کلمات کلیدی در کجای متن هستند، نسبت کلمات کلیدی به کل متن چند است، تصاویر در کجای صفحه هستند و به طور کلی همه پارامترهایی را که به جستجوگ، در تعیین رتبه سند کمک میکنند در این مرحله بدست میایند. این پارامترها در Indexer به یک مقیاس عددی تبدیل می شوند تا سیستم رتبه بندی بتواند الگوریتم های خاص ویژه و فوق محرمانه موتور جستجوگر را که آنها هم محرمانه هستند اعمال کند و در نهایت رتبه هر سایت مشخص می شود.
Indexer سپس اطلاعات صفحه و پارامترها را در اختیار پایگاه داده جستجوگر قرار می دهد. با توجه به اینکه هر جستجوگر نوعی بایگانه کننده وب به شمار می رود، پس باید پایگاه داده عظیمی برای بایگانی وب داشته باشد. علاوه بر این یک جستجوگر باید الگوریتم های خاصی برای جستجو در پایگاه داده خودش داشته باشد تا در کمترین زمان اسناد مورد نظر را بر اساس سوالات کاربر ارائه دهد.
علاوه بر این برای بالا بردن سرعت جستجو در پایگاه داده، اطلاعات گروه بندی و کدگذاری می شوند تا دسترسی به آنها آسانتر شود. این مرحله ضعف عمده جستجوگرها بشمار می رود چون در صورت وجود ابهام در سوال کاربر و گروه بندی های کلی نتایج بسیار وحشتناکی ببار می اورد . یکی از تفاوت های عمده موتورهای جستجوگر در حجم پایگاه داده آنها و همینطور نحوه سازماندهی اطلاعات و جستجو در پایگاه داده است.
هر موتور جستجوگر فقط نتایجی را به کاربر ارائه می دهد که در پایگاه داده اش وجود دارند، به عبارت بهتر عمل جستجو فقط در پایگاه داده جستجوگر انجام می شود. پس، پیش از مراجعه کاربر، جستجوگر باید پایگاه داده خود را آماده کند.

3. سیستم رتبه بندی Ranker : این مرحله تنها مرحله ای است که بعد از وارد کردن
کلمات کلیدی توسط کاربر انجام می شود. یعنی قبل از عمل جست و جو مراحل قبل باید به پایان رسیده باشند؛ Spider اطلاعات را ارسال کرده، در جستجوگر اطلاعات تجزیه تحلیل و ذخیره شده اند و پایگاه داده جستجوگر آماده شده است و سیستم آماده پاسخگویی می شود.

البته کار روبات نرم افزاری هیچگاه تمام نمی شود و دائما در حال پرسه زنی و جمع آوری اطلاعات از وب است. بعد از اینکه کاربر کلمات کلیدی خود را وارد کرد، این کلمات در بانک اطلاعاتی جستجو می شوند و نتایج مرتبط بدست می آید. اما هنوز یک مرحله باقی مانده است، یعنی چگونگی ارائه این نتایج به کاربر. اگر نتایج جستجو کم باشد مشکل چندانی پیش نمی آید و نتایج در یک صفحه به کاربر ارائه می شوند. اما در صورتی که صفحات زیادی پیدا شود مثلا چند هزار صفحه، در این صورت، تصمیم گیری در مورد اینکه کدام صفحات در رتبه های بالا بویژه بین ده رتبه اول قرار بگیرند بسیار مهم است.
سیستم رتبه بندی این وظیفه را به عهده دارد. این سیستم با اعمال یکسری الگوریتم های ویژه و خاص و البته محرمانه، روی پارامترهای سندهای مختلف، به هر صفحه یک رتبه اختصاص می دهد و در نهایت صفحات در خروجی به ترتیب از بیشترین تا کمترین ارتباط مرتب می شوند.
مهمترین تفاوت موتور جستجوگرهای مختلف، تفاوت در الگوریتم های سیستم رتبه بندی آنها است. همین موضوع باعث می شود که یک کلیدواژه در چند جستجوگر مختلف، نتایج متفاوتی داشته باشد.
هدف از بهینه سازی سایت این است که پارامترهای مورد توجه جستجوگر که در صفحات سایت وجود دارند را طوری تنظیم و بهینه کنیم که در سیستم رتبه بندی و بعد از اعمال الگوریتم ها روی آنها، رتبه مناسبی به سایت داده شود.
نکته قابل توجه این است که هیچکدام از این پارامترها و الگوریتم ها شناخته شده و قطعی نیست و در موتورهای مختلف، متفاوت است. و در طول فرایندهای بهبود رتبه، از روی تجربه و مقایسه نتایج مختلف حدس زده می شوند.
مهمترین ویژگی این نوع جستجوگرها، وجود روبات نرم افزاری است که هیچگاه از فعالیت نمی ایستد و همواره اطلاعات جدید وب را جمع آوری می کند یا اطلاعات قدیمی را به روز می کند. که این امر به روز بودن نتایج ارائه شده را در پی دارد.
مهمترین جستجوگر در این دوره Google است.
سایر جستجوگرهای مهم عبارتند از :
Fast (All the web)
Altavista
MSN
Teoma
Info Seek
Nurthern Light

2. Directory :
دایرکتوری یا فهرست، اطلاعات وب را به صورت موضوعی طبقه بندی می کند؛ به این صورت که کاربرازکل اطلاعات به قسمت های جزئی وتخصصی می رسد. درواقع کاربردر هر مرحله یک فهرست را انتخاب می کند و از آن فهرست یک زیرفهرست و به همین ترتیب آنقدر ادامه می دهد تا به نتیجه دلخواه برسد. به عنوان مثال اگر شما به دنبال تاریخچه یک تیم فوتبال باشید، به جای وارد کردن کلمات مرتبط در موتور جستجوگر، از دایرکتوری شاخه ورزشی را انتخاب می کنید سپس، زیرشاخه فوتبال و زیر شاخه تاریخ تیم های فوتبال را انتخاب می کنید که در این زیرشاخه ممکن است اطلاعات مورد نظر شما وجود داشته باشد.
ساختار دایرکتوری ها به این ترتیب است که هر دایرکتوری چندین ویراستار دارد، هر سایت برای قرار گرفتن در دایرکتوری باید ضمن معرفی سایت و انتخاب گروه و زیر گروه مناسب، خود رابه دایرکتوری معرفی کند. بعد از آن ویراستارهای دایرکتوری سایت را از نظر تناسب محتوا با گروه انتخابی و سایر قوانین برسی می کنند. در صورت پذیرفته شدن، سایت مورد نظر در دایرکتوری به ثبت می رسد. در نتیجه این نوع جستجوگرها نیازی به روبات نرم افزاری ندارند و از آن استفاده نمی کنند. بنابراین تا زمانیکه یک سایت خود را به دایرکتوری معرفی نکند از دید آن پنهان است.
در فرایند بهینه سازی قرار گرفتن در دایرکتوری های بزرگ یک مرحله مهم و از اولین مراحل شروع ثبت در موتورهای جستجوگر است.
مهمترین دایرکتوری ها عبارتند از :
Yahoo
Internet Public Library
Dmoz
Look Smart
Galaxy

3. موتورهای جستجوگر مادر (Meta Search Engine) :
این نوع جستجوگر از چندین موتور جستجو به طور همزمان و موازی استفاده می کند. به این صورت که سوال کاربر را به طور همزمان به چند موتور جستجوی مهم می فرستد وگزیده نتایج مهم و غیر تکراری آنها را به کاربر ارائه می کند. به این ترتیب نتایج چندین موتور جستجو در یک صفحه در اختیار کاربر قرار داده می شود.
مهمترین انواع موتورهای مادر عبارتند از :
Mamma
Meta Crawler
Dog pile
Ixquick

4. جستجوگر پرداخت به ازای هر کلیک (Pay per click search engine) :
طرز کار این نوع جستجو گرها دقیقا مشابه Search Engine است، با این تفاوت که شما برای قرار گرفتن در رتبه ای خاص باید مبلغ بالاتری نسبت به سایر رقبا بپردازید.
مثلا اگر سایتی در رتبه سوم صفحه نتایج به ازای کلیدواژه خاصی باشد و برای قرار گرفتن در این رده مبلغ ¢30 به ازای هر کلیک را می پردازد، شما برای قرار گرفتن در این رتبه باید مبلغی بیشتر از ¢30 بپردازید. این مبلغ تنها برای یک کلیک است. یعنی هر زمان که یک کاربر کلیدواژه مذکور را جستجو کند و از طریق این جستجوگر سایت شما را پیدا کند، شما باید این مبلغ را بپردازید. به عبارت بهتر قرار گرفتن در رتبه های این نوع سایت ها حالت مزایده دارد.
اگر سایت شما یک سایت تجاری باشد، برای قرار گرفتن در رتبه بندی اکثر جستجوگرها شما مجبور به پرداخت مبلغی معین هستید.

5. جستجوگرهای تخصصی (Specially Search Engine) :
در این نوع از جستجوگرها شما می توانید در میان اسناد و در یک زمینه خاص و یا یک موضوع تخصصی جستجو کنید. دامنه نتایج این جستجوگرها محدود به همان موضوع می شود.
این جستجوگر می تواند از نوع موتور جستجوگر یا دایرکتوری و یا موتور مادر ولی نوع دایرکتوری مرسوم تر است.
از مهمترین انواع این نوع،جستجوگرهای ویژه،مطالب پزشکی و اناتومی،تجاری،صنعتی و..... هستند.
جستجوگرهای ویژه زیادی در مورد جستجوی عکس فعالیت می کنند،اما بهترین وکاربرد ترین آنها Corbis است.
Corbis عکسها و تساویر زیادی را بر اساس موضوع طبقه بندی کرده است. و هر روز عکسهای جدیدی به این مجموعه اضافه می شود. با توجه به این که طبقه بندی تصاویر توسط ربات نرم افزاری امکانپذیر نیست، بنابراین در مورد جستجوی تصویر موتورهای جستجوگر حرفی برای گفتن ندارند. دلیل این امر به خاطر ساختار متنی روبات نرم افزاری و بویژه Spider است. Spider تنها قادر به خواندن Source صفحه است بنابراین تنها می تواند از وجود یک عکس مطلع شود و نمی تواند در مورد تناسب آن تصویر با کلیدواژه تصمیم گیری کند.
در مورد Corbis و یا سایت های مشابه، طبقه بندی توسط ویراستاران حرفه ای انجام می شود. بنابراین شما می توانید از تناسب عکس ها با سوالات مطمئن باشید. با توجه به غنی بودن پایگاه داده این سایت، پیدا کردن عکس های خیلی خاص هم راحت است. و از آنجایی که انتخاب عکسها توسط انسان ونه روبات انجام می گیرد، عکس ها جنبه زیبایی شناختی دارند. از طرف دیگر اضافه شدن عکس های جدید به صورت روزانه، به تازه و به روز بودن نتایج بسیار کمک میکند.
متد جدیدی که در Corbis هم از آن استفاده شده، طرح سوالات از پیش طراحی شده برای رفع ابهام از سوالات کاربر است. مثلا اگر کاربر کلمه Winter را بنویسد. باید فهمید که منظور او منظره ای از زمستان است، یا یک تابلوی نقاشی با نام زمستان، یا یک عکس معروف. پرسیدن سوال از کاربر بهترین راه پی بردن به مقصود او است. این سوالات توسط ویراستاران حرفه ای انجام می شود.
از دیگر جستجوگرهای تخصصی :
Internet White Pages
MeSH
Yahoo Health

6. جستجوگر زبان طبیعی (Natural Search Engine) :
از مدتها پیش یکی از آرزوهای کاربران وب و حتی کامپیوتر صحبت کردن با ماشین و اینترنت بوده است. این جستجوگر پاسخی برای رسیدن به این آرمان است. در این سایت شما می توانید یک جمله به زبان انگلیسی بنویسید، به عبارت بهتر به جای وارد کردن کلمات کلیدی شما سوال خود را به صورت یک جمله طبیعی مطرح میکنید. در مرحله بعد جمله وارد شده، بر اساس ساختارهای زبان و الگوریتم های پیچیده تجزیه و تحلیل میشود تا منظور کاربر مشخص شود. در نهایت نتایج با توجه به تفسیری که از جمله کاربر بدست می آید ارائه می شود.
این جستجوگر بر خلاف تقاضای زیاد چندان موفق نبوده است. زیرا برای رسیدن به نتیجه مورد نظر باید چندین بار جستجو کنید و هر بار جمله خود را تغییر دهید. بنابراین بیشتر کاربران واژه های کلیدی را ترجیح می دهند.


مقدمات SEO
شروع بهینه سازی

بعد از این که به انواع جستجوگرها و ساختار و طرز کار آنها پرداخته شد، لازم است مقدمات بهینه سازی را فراهم کنیم. اولین اقدام انتخاب کلیدواژه ها است.

• انتخاب واژه های کلیدی
واژه های کلیدی همان کلماتی هستند که می خواهیم عمل جستجو بر اساس آنها انجام شود و در صفحه نتایج جستجوی این واژه ها، سایت یا سند ما به عنوان یکی از نتایج ارائه شود.
در انتخاب کلمات کلیدی باید به چند نکته توجه شود :
1. ارتباط معنایی با محتویات سایت : از نقطه نظر منطقی کلیدواژه های شما باید با موضوع سایت مرتبط باشند.اول اینکه کاربری که برای این کلمات جستجو می کند به دنبال نتایجی در رابطه با این موضوع می گردد و دوم اینکه اگر اینچنین نباشد رتبه سایت بسیار پایین خواهد آمد و حتی ممکن است به عنوان یکی از مصادیق تقلب (Spam) شناخته شود.
2. میزان محبوبیت : محبوبیت کلیدوازه به معنای میزان تقاضای آن از طرف کاربران است. یا به عبارت بهتر، چه تعداد از کاربران وب، برای پیدا کردن نتایج مرتبط با این کلمات، در طول روز یا هفته جستجو می کنند. هر چه که این محبوبیت بیشتر باشد، بدون شک بعد از قرار گرفتن در رتبه بندی جستجوگر، ترافیک بالاتری نصیب شما می شود.



دامنه محبوبیت هم از اهمیت بالایی برخوردار است. مثلا یک واژه آلمانی بین یک عده خاص ( آلمانی زبان ها ) دارای محبوبیت است.
3. تعداد سایت های ارایه کننده کلیدواژه : این سایت ها در واقع همان رقیبان شما هستند که در طول فرایند بهینه سازی باید با آن ها دست و پنجه نرم کنید. پس اگر کلیدواژه شما از محبوبیت بالایی برخوردار است اما رقیبان بسیارزیادی با شما رقابت می کنند (بویژه که از سایت های مهم باشند) بهتر است از آن واژه صرفنظر کنید و یا تا حد امکان تخصصی تر آن را دنبال کنید، یعنی با ترکیب واژه با دیگر واژه ها یک عبارت چند کلمه ای بسازید.
کیفیت رقبای شما نیز خیلی مهم است. یعنی آن ها چقدر "مهم" هستند. مثلا رقابت به سایت Amazone خیلی سخت تر و دشوارتر از رقابت به یک وبلاگ محلی است. چون به هر حال هر جستجوگری ترجیح می دهد که نتایج ارائه شده اش از اعتبار و شهرت برخوردار باشند.
البته ممکن است بعضی از این رقبا ارتباطی با واژه مورد نظر نداشته باشند. در این صورت شما می توانید براحتی بالاتر از آن ها قرار بگیرید.
4. ساده بودن کلیدواژه : به دلیل اینکه در مراحل بعدی بیشتر عملیات روی کلیدواژه ها انجام میشود، و از جمله اینکه از کلیدواژه باید در اسم صفحه، آدرس سایت و.... استفاده شود، پس بنابراین باید بخاطر سپردن آن توسط کاربر آسان باشد تا اگر دوباره خواست به ما سر بزند همان کلیدواژه را جستجو کند و یا با نوشتن آدرس سایت که حاوی همان کلیدواژه است به سایت متصل شود.
5. عبارت کلیدی : انتخاب یک عبارت به جای یک واژه میتواند تعداد سایت های رقیب را کاهش دهد و از طرف دیگر اطلاعات به صورت تخصصی تر ارائه می شود. اما باید از قرار دادن کلمات رایج مثل a an the خودداری کرد، به دلیل اینکه توسط Indexer نادیده گرفته می شوند.

• فرایند بهینه سازی

بعد از اینکه کلمات کلیدی انتخاب شد، نوبت به بکارگیری آن ها در صفحات سایت می رسد. بهتر است که برای هر دو یا سه صفحه یک کلمه کلیدی در نظر گرفته شود و همینطور سایت باید دارای صفحات زیادی باشد.
روی صفحه اول سایت نباید حساب باز کرد، چون معمولا کمتر دارای متن است. پس از این صفحه برای ظاهر و پیش نمایش سایت استفاده می کنیم. نکته مهم این است که حتما باید از صفحه اول به تمام صفحات لینک وجود داشته باشد. بهتر است تمام صفحات سایت از نظر ظاهر، لوگوها و اجزای صفحه مشابه باشند.
• بهینه سازی متن ها
بعد از اینکه Spider متن صفحه را به Indexer می فرستد، Indexer در این مرحله اطلاعات متن را تجزیه و تحلیل می کند و پارامترهایی را به صورت مقیاس عددی به وجود میاورد. برای بهینه سازی لازم است که این مقیاس ها یک عدد نرمال شده باشند، و بطور کلی همه پارامترها در یک حد تقریبا مساوی قرار داشته باشند. اختلاف شدید در بین پارامترهای یک متن خطرناک است چون ممکن است بعنوان تقلب (Spam) شناخته شود. پارامترها در جستجوگرهای مختلف، متفاوت هستند اما بعضی بین بیشتر جستجوگرها مشترک هستند و بعضی ها هم مهمتر هستند که در ادامه بحث به آنها پرداخته شده است.

1. تعداد کلیدواژه های متن : منظور از تعداد کلید واژه ها، دفعاتی است که یک واژه یا عبارت کلیدی در متن تکرار می شود. هر چه دفعات تکرار بیشتر باشد، نمره این پارامتر بالاتر می رود.

2. چگالی کلیدواژه : منظور از چگالی، نسبت دفعات تکرار کلمات کلیدی به کل متن است. ما باید مقدار این پارامتر را در حد معقول نگهداریم. فرمول محاسبه درصد چگالی به صورت زیر است :
100 * تعداد کلمات متن/ تعداد کلیدواژه ها
در شرایط مختلف متن، چگالی بین 3 تا 20 مناسب است. البته چگالی بالای 10 برای بیش از یک کلیدواژه استفاده می شود ( عبارت کلیدی ) و باید برای چگالی بالای 20 نگران بود چون به احتمال فراوان مشمول تقلب خواهد شد.
با تجدید نظر در متن صفحه با رویکرد استفاده به اندازه از کلیدواژه ها، صفحه از این نظر بهینه می شود.

3. مکان کلمات کلیدی : منظور از این پارامتر، جایی است که کلمات کلیدی در متن دارند مثلا در عنوان متن هستند یا در پاراگراف اول هستند و......
اولویت به ترتیب در مکان های زیر است :
عنوان متن ، عنوان فصل ها ، اولین کلمه پاراگراف ، خط های اول پاراگراف اول ، پاراگراف اول ، خطوط بالای متن .
باید سعی شود در هر کدام از این مکان ها از کلیدواژه استفاده شود. بویژه در عنوان متن، چون بعضی از جستجوگرها، عمل جستجو را به عنوان صفحه محدود می کنند.

4. فاصله کلیدواژه ها از هم : منظور این است که کلیدواژه ها چقدر از هم دور یا به هم نزدیک هستند. مثلا اگر در یک متن 4 کلیدواژه مجود باشد، نحوه پخش این کلمات در متن مهم است. ممکن است همه در یک خط باشند، یا هر کلمه در یک پاراگراف باشد. همینطور اینکه چند کلمه بین کلیدواژه ها قرار دارند.
در این مرحله باید سعی شود که کلیدواژه ها خیلی به هم نزدیک نباشند و در همه جای متن وجود داشته باشند.

• محل اعمال پارامترها
اما این پارامتر ها کجا اعمال می شوند ؟ مثلا در فرمول چگالی "کل متن" کجاست ؟
1. URL : وجود کلیدواژه در URL بسیار مهم است و به طور چشمگیری باعث بالا رفتن رتبه سایت می شود. تمام پارامترهای بالا در متن URL اعمال می شوند. بخصوص در مورد آدرس سایت اهمیت دوچندان می شود. این پارامترها همچنین در اسم پوشه ها و دایرکتوری ها و اسم و آدرس فایل ها نیز اعمال می شوند. پس تا حد امکان از کلید واژه در این مکان ها استفاده کنید.
2. Title : اسم صفحه از جمله متن هایی است که بسیار مورد توجه موتورهای جستجوگر است. اسم صفحه همان متنی است که بالای گردشگر اینترنت ظاهر می شود، همینطور موقع ذخیره کردن صفحه و اضافه کردن آن به صفحات محبوب به عنوان اسم پیش فرض ظاهر می شود.
3. متن صفحه : در متن صفحه باید پارامترها را با دقت اعمال کرد. همچنین ساختار متن باید حفظ شود تا اعتبار خود را از دست ندهد. در بهترین شرایط و به ازای هر 20 کلمه از متن، حداکثر از یک کلیدواژه استفاده کنید. با توجه به اینکه نباید کلیدواژه ها پشت سرهم باشند و یا ساختار زبانی متن را دچار اشکال کنند چون بعضی جستجوگرها اشکال های نحوی را تشخیص می دهند و گذشته از این از مصادیق تقلب هم هست.
• چند نکته مهم :
1. بکارگیری کلیدواژه ها به صورت های زیر باعث نتایج بهتر می شود :
Bold, Italic, Underline, Heading, Bullets، رنگ متفاوت با رنگ متن، فونت بزرگتر و......
2. تگ های متا (Meta tags) : از این تگ ها برای معرفی کلیدواژه به موتورهای جستجوگر استفاده می شود.
Meta Keyword : ساختار این تگ به صورت زیر است :
<Meta name="Keyword" content="Keywords ….. ">
در قسمت Content باید کلمات کلیدی نوشته شود. جستجوگرها از این تگ بیشتر برای رفع ابهام و ارتباط آن ها با سایت استفاده می کنند و تاثیر چندانی در رتبه بندی ندارد.
Meta Description : ساختار این تگ به صورت زیر است :
<Meta name=" Description " content=" Describe your keywords">
در این تگ و در قسمت content توضیح کوتاهی در مورد صفحه آورده می شود.

3. محبوبیت لینک ( Link Popularity) :
این بخش از بهینه سازی از اهمیت بسیار بالایی برخوردار است. بویژه در مورد Google که ایده اصلی رتبه بندی را بر اساس Link Popularity قرار داده است. Link Popularity از چند جهت برسی می شود، اول تعداد لینک هایی که به صفحه مورد نظر وارد می شوند و دوم اهمیت و کیفیت این لینک ها. به عنوان مثال :

در این مثال لینکهای ورودی یک سایت ورزشی برسی شده است. این سایت 4 لینک ورودی دارد. سایر لینکهایی که از سایتهای ناشناس ( سایت هایی که هنوز در رتبه بندی جستجوگر قرار نگرفته اند) وارد این سایت میشود از دید جستجوگر پنهان هستند. اما همه این لینک ها ارزش مساوی ندارند. لینک 1، یک لینک با کیفیت است چون بین دو سایت با زمینه کاری مشابه رد وبدل شده است. لینک شماره 2 یک لینک مهم است چون از یک سایت مهم می اید. لینک 3 هم مهم است وهم با کیفیت. و لینک 4 که نه مهم است و نه با کیفیت. لینک 5 هم که برای جستجوگر وجود خارجی ندارد.
Link Anchor text یا همان متنی که لینک میشود هم بسیار با اهمیت است و از جمله جاهایی است که پارامترها اعمال می شوند و برای فهمیدن کیفیت لینک هم از آن ها استفاده می شود. بنابراین وجود کلیدواژه در متن لینک بخصوص در مبدا لینک بسیار مهم است.

4. تقلب (Spam) : قرار دادن موارد زیر در صفحه از مصادیق تقلب است و سایت را بکلی از نتایج حذف می کند.
استفاده از رنگ مشابه پیش زمینه، استفاده از فونت بسیار کوچک، چگالی بالا، تکرار بیش از حد یک کلمه، تکرار یک متن به صورت متوالی و...
5. خوراک Spider : یکی از مواردی که به Spider ها در جمع آوری اطلاعات کمک می
کند تهیه نقشه سایت یا ( Site map ) است. بدلیل اینکه در این صفحه به همه قسمتهای سایت لینک داده شده است مکان مناسبی برای Spider است تا همه سایت را بایگانی کند.

مطالب بسیار زیاد دیگری در مورد SEO وجود دارد که هر کدام به یک کتاب مجزا نیاز دارد.




برای دانلود کتابهای بیشتر به آدرس www.erfanrad.blogfa.com مراجعه کنید.
 

سئو

پیج+رنک+گوگل
بهینه+سازی+صفحات+وب
تبادل+لینک
رنکینگ+گوگل
رتبه+بندی+گوگل
page+rank+google
ranking+google
سئو
انجمن+سئو
لینک
کپی+رایت
فروش+تخصصی+لینک
افزایش+رنکینگ
 گوگل
 گوگل+فارسی
 مرورگر+گوگل
 گوگل+ادسنس
 گوگل+ریدر
 گوگل+دسکتاپ
 آنالیزر+گوگل
 وبلاگ+گوگل
 سرویس+های+گوگل
 سایت+مپ