بهینهسازی موتور جستجو ؛ (به انگلیسی: Search Engine Optimization)، به اختصار سئو (به انگلیسی: SEO)، یک روند مناسب برای بهتر دیده شدن یک وب سایت یا یک صفحه وب در نتایج جستجو طبیعی یک موتور جستجو است. معمولاً وب سایتهایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدیدکننده بیشتری از طریق موتورهای جستجو بدست میآوردند و این بازدیدکنندگان میتوانند به مشتری تبدیل شوند.
سئو ممکن است انواع مختلف جستجو را دربر گیرد، از جمله جستجوی تصویر، جستجو در ویدیو، جستجوی دانشگاهی، جستجو در اخبار و جستجو در نقشه. «سئو» یک سایت شامل فاکتورهای زیادی میشود که توسط موتورهای جستجو بررسی و بازبینی میشود.
از دید بازاریابی اینترنتی، «سئو» به چگونگی کار کردن موتورهای جستجو و اینکه کاربران چه چیزی جستجو میکنند و همینطور کلمات کلیدی تایپ شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار میگیرد را مورد بررسی قرار میدهد.
بهینهسازی وب سایت شامل توسعه و ویرایش مطالب موجود در خود سایت و اچتیامال و برنامهنویسی و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیتهای نمایهسازی در موتور جستجو و ترویج یک سایت برای افزایش تعداد لینک دهنده یا لینکهای ورودی، و دیگر تاکتیکهای جستجوگرها است.
در نتیجه در خلاصهترین تعریف «سئو» را میتوان به معنای بهینهسازی سایت برای موتورهای جستجو دانست.
از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند، مدیران وب سایتها و تولیدکنندگان محتوا، شروع به بهینهسازی سایتها برای موتورهای جستجو نمودند.
در ابتدا تمام کارهایی که مدیران وب سایتها باید انجام میدادند، ارسال آدرس صفحه به موتورهای مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه میفرستادند، استخراج لینکهای صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود.
فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آن را در سرور موتور جستجو ذخیره میکند و یک برنامه دیگر موسوم به ایندکسکننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج میکند؛ اطلاعاتی از قبیل واژههای موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژههای بخصوص، و تمام لینکهای موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار میگیرد.
مدیران سایتها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرار گرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینهسازی موتور جستجو مهیا کرد.
نسخههای اولیه الگوریتمهای جستجو به اطلاعات فراهم شده توسط مدیران وب سایتها نظیر متا تگ واژههای کلیدی، یا فایل ایندکس موتورهای جستجو مانند ایالآیوب اعتماد و اتکا میکردند. متاتگها یک راهنمایی برای محتوای هر صفحه فراهم میکنند.
با اینحال، استفاده از دادههای متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه میتواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. دادههای نادرست، ناقص و ناسازگار در متا تگها میتواند موجب رتبهبندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگیهای منبع اچتیامال یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.
با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبهبندی رنج میبردند.
به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شدهاند.
از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص میشود، کیفیت پایین یا نتایج نامرتبط میتواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبهبندی پیچیدهتر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار میگیرند و دستکاری را برای مدیران شبکه، سختتر میسازند.
لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بکروب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگوریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه میشد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینکهای ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که به صورت تصادفی شبکه را جستجو میکند مورد دسترسی قرار گرفته، تخمین میزند و لینکهای یک صفحه به صفحه دیگر را دنبال میکند.
در واقع، این بدان معناست که برخی لینکها از سایر لینکها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش میدهد.
ارتباط با گوگل
پیچ و برین، گوگل را در سال ۱۹۹۸ بنیانگذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژههای کلیدی، متاتگها، عنوانها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده میشود که تنها به عوامل داخل صفحه توجه میکنند، اجتناب نماید.
علیرغم اینکه به بازی گرفتن رتبه صفحه سختتر بود، مدیران شبکه سرانجام ابزارها و طرحهای تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روشها ثابت کردند که به طریقی مشابه میتوان رتبه صفحه را تحت تأثیر قرار داد. ب
سیاری از وب سایتها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرحها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینکها میشوند.
گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور بههنگامتر و مرتبط نمودن جستجوها ارائه شد. بهطور تاریخی، ادمینهای وب سایتها، ماهها یا حتی سالها روی بهینهسازی یک وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشتهاند.
با گسترش عمومیت وب سایتها و وبلاگهای رسانههای اجتماعی، موتورهای جستجوی پیشرفته در الگوریتمهای خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبهبندی شوند.
در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایتهایی را که حاوی محتوای تکثیر شده از وب سایتها و منابع دیگر باشند، جریمه میکند. بطور تاریخی، وب سایتها محتوا را از یکدیگر کپی کرده و از آن در رتبهبندی موتورهای جستجو بهرهمند شدهاند. با این حال، گوگل یک سیستم جدید پیادهسازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه میکند.
در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایتهایی بود که از روشهای دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده میکردند.
در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.
در سپتامبر سال ۲۰۱۶، گوگل اعلام کرد که گوگل پنگوئن به الگوریتم اصلی رتبهبندی گوگل ملحق شدهاست و دیگر آپدیتهای آن اعلام نمیشود. از سال ۲۰۱۶ به بعد، الگوریتم پنگوئن گوگل دیگر به صورت لحظهای نتایج جستجو را بررسی خواهد کرد.
تا سال ۱۹۹۷، طراحان موتورهای جستجو دریافتند که مدیران وب سایتها تلاش میکنند که در موتورهای جستجوی آنها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبههای خود در نتایج جستجو را از طریق لبریز نمودن صفحات خود با واژگان کلیدی بسیار زیاد یا نامرتبط، دستکاری میکردند.
موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتمهای خود را جهت جلوگیری مدیران وب در دستکاری رتبهها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک کنفرانس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینهسازی آن را به هم مرتبط سازد.
تقسیمبندی مراحل بهینهسازی
بهینهسازی داخلی
استانداردهای مشخصی از سوی گوگل برای وب سایتها تعریف شدهاست و تمامی وب سایتها ملزم به رعایت این استانداردها هستند. در سئوی داخلی وب سایت بر اساس استانداردهای تعریف شده از سوی گوگل، بهینهسازی میشود. منظور از کلمهٔ سئوی داخلی این است که در این بخش تمامی تغییرات بهینهسازی در داخل وب سایت انجام میشوند.
پارامترهای مختلفی در سئوی داخلی مورد توجه گوگل هستند که میتوانیم با بهینهسازی این پارامترها امتیازات مثبتی از گوگل دریافت کنیم و شانسمان را برای رسیدن به رتبههای اول افزایش دهیم.
بهینهسازی خارجی
بهینهسازی خارجی، مجموعه اقداماتی است که در خارج از وب سایت انجام میشود تا وب سایت در کلمات کلیدی هدف به رتبههای برتر برسد. برای کار بر روی بهینهسازی خارجی نیازی به دسترسی به پنل مدیریتی وب سایت و کنترل پنل هاست وجود ندارد؛ زیرا تمامی مراحل بهینهسازی خارجی در بیرون از وب سایت انجام میشود.
کار بر روی سئوی خارجی بسیار حساس و پیچیدهتر از سئوی داخلی است. زیرا ممکن است با کوچکترین اشتباهی، وب سایت مورد نظر از سوی گوگل جریمه شده و رتبهٔ فعلی خود را نیز از دست بدهد. افراد زیادی هستند که با آف پیج سئو بصورت کامل آشنا نیستند و بدون هیچگونه استراتژی خاصی شروع به لینک سازی و یا خرید رپورتاژ آگهی میکنند که این امر باعث میشود وبسایت آنان دچار پنالنی شود . برای اینکه با لینک سازی و کارهایی که میبایست در آف پیج سئوی وبسایت انجام دهیم بیشتر آشنا شویم بهتر است از مباحث آموزشی موجود در دنیای اینترنت و یا با تمرین و تجربه یاد گیریم تا وبسایت خود و یا مشتریانمان را پنالتی نکنیم و به خطر نیندازیم
تکنیکهای کلاه سفید در مقابل تکنیکهای کلاه سیاه
تکنیکهای سئو میتوانند به دو گروه عمده طبقهبندی شوند: تکنیکهایی که موتورهای جستجو به عنوان بخشی از یک طراحی خوب توصیه میکنند، و تکنیکهایی که مورد تأیید موتورهای جستجو نیست.
موتورهای جستجو تلاش میکنند که اثر دسته دوم را کاهش دهند. هرز آگهیها از آن جمله هستند. مفسران صنعتی و شاغلانی که از این تکنیکهای سئو استفاده میکنند، آنها را به سئو کلاه سفید یا کلاه سیاه طبقهبندی کردهاند.
تکنیکهای کلاه سفید تمایل به تولید نتایجی دارند که مدت زمان زیادی برقرار هستند، در حالیکه تکنیکهای کلاه سیاه پیشبینی میکنند که هنگامی که موتورهای جستجو سر از کارشان درآورند، وب سایتهای آنها در نهایت ممکن است بطور موقت یا دائم متوقف گردد.
اگر از دستورالعملهای موجود جستجو پیروی کرده و فریبی در کار نباشد، یک تکنیک سئو کلاه سفید تلقی میشود. از آنجاییکه دستورالعملهای موتور جستجو به عنوان مجموعهای از قوانین نوشته نشدهاست، این یک تمایز مهم و قابل توجه است.
تکنیک سئو کلاه سفید تنها دربارهٔ تبعیت از دستورالعملها نیست، اما در مورد حصول اطمینان از این امر است که محتوایی که یک موتور جستجو ایندکس کرده و سپس رتبهبندی میکند، مشابه همان محتوایی باشد که یک کاربر خواهد دید.
مشاوره کلاه سفید در مجموع جهت ایجاد محتوا برای کاربران مورد استفاده قرار میگیرد، نه برای موتورهای جستجو. سپس، آن محتوا به جای تلاش جهت تحریک نمودن الگوریتم و فریب دادن آن از اهداف مورد نظر خود، به سادگی در دسترس عنکبوتها قرار میگیرد. تکنیکهای کلاه سفید در بسیاری جهات شبیه توسعه وب هستند که در دسترس بودن را ارتقاء میدهد؛ هرچند که این دو یکسان نیستند.
تکنیکهای سئو کلاه سیاه تلاش میکنند تا رتبهبندی را از طریق فریب از روشها و راههایی که مورد تأیید موتور جستجو نیست، بهبود دهند. یک تکنیک کلاه سیاه از متن پنهان شده به عنوان متن رنگآمیز شده مشابه با پس زمینه یک div نامرئی، یا به عنوان متنی در خارج از صفحه نمایش استفاده میکنند. تکنیک دیگر، تکنیکی موسوم به کلاکینگ (به انگلیسی: Cloaking) است که بسته به اینکه یک صفحه توسط بازدیدکننده انسانی فراخوانی شود یا توسط یک موتور جستجو، صفحه متفاوتی را بدست میدهد.
دسته دیگری که گاهی مورد استفاده قرار میگیرد، سئو کلاه خاکستری است. این تکنیک بین کلاه سفید و سیاه است که از روشهایی استفاده میکند که از مجازات سایت جلوگیری میکند، اما با این وجود، بهترین محتوا را برای کاربر مهیا نکرده و ترجیحاً روی بهبود رتبهبندیهای موتور جستجو تمرکز میکند.
موتورهای جستجو ممکن است سایتهایی که از روشهای کلاه سیاه استفاده میکنند را جریمه کنند، که این امر از طریق کاهش دادن رتبه آنها، یا حذف کردن لیستهای آنها از دیتابیسهای خود یا همه موارد میتواند صورت گیرد. چنین مجازاتهایی میتوانند بطور خودکار توسط الگوریتمهای موتور جستجو یا از طریق بازنگری دستی سایت صورت پذیرد. یک نمونه، حذف ریکو و بیامدبلیو از گوگل در فوریه ۲۰۰۶ به دلیل استفاده از شیوههای فریبنده بود. با این حال، هر دو کمپانی به سرعت عذرخواهی کرده و با اصلاح نمودن صفحات متخلف، به لیست گوگل بازگشتند.
اگر می خواهید درآمد خود را از اینترنت بالا ببرید مطلب زیر را مطالعه کنید. مدت مطالعه ۶ دقیقه