سئو چیست
- فناوری اطلاعات IT

سئو یا بهینه سازی موتورهای جستجو چیست؟ مخفف SEO

بهینه‌سازی موتور جستجو ؛ (به انگلیسی: Search Engine Optimization)، به اختصار سئو (به انگلیسی: SEO)، یک روند مناسب برای بهتر دیده شدن یک وب سایت یا یک صفحه وب در نتایج جستجو طبیعی یک موتور جستجو است. معمولاً وب سایت‌هایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدیدکننده بیشتری از طریق موتورهای جستجو بدست می‌آوردند و این بازدیدکنندگان می‌توانند به مشتری تبدیل شوند.

سئو ممکن است انواع مختلف جستجو را دربر گیرد، از جمله جستجوی تصویر، جستجو در ویدیو، جستجوی دانشگاهی، جستجو در اخبار و جستجو در نقشه. «سئو» یک سایت شامل فاکتورهای زیادی می‌شود که توسط موتورهای جستجو بررسی و بازبینی می‌شود.

از دید بازاریابی اینترنتی، «سئو» به چگونگی کار کردن موتورهای جستجو و اینکه کاربران چه چیزی جستجو می‌کنند و همین‌طور کلمات کلیدی تایپ شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار می‌گیرد را مورد بررسی قرار می‌دهد.

بهینه‌سازی وب سایت شامل توسعه و ویرایش مطالب موجود در خود سایت و اچ‌تی‌ام‌ال و برنامه‌نویسی و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیت‌های نمایه‌سازی در موتور جستجو و ترویج یک سایت برای افزایش تعداد لینک دهنده یا لینک‌های ورودی، و دیگر تاکتیک‌های جستجوگرها است.

در نتیجه در خلاصه‌ترین تعریف «سئو» را می‌توان به معنای بهینه‌سازی سایت برای موتورهای جستجو دانست.

از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند، مدیران وب سایت‌ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی سایت‌ها برای موتورهای جستجو نمودند.

در ابتدا تمام کارهایی که مدیران وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه به موتورهای مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود.

فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آن را در سرور موتور جستجو ذخیره می‌کند و یک برنامه دیگر موسوم به ایندکس‌کننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آن‌ها در صفحه، و نیز وزن خاص واژه‌های بخصوص، و تمام لینک‌های موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار می‌گیرد.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرار گرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا کرد.

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای هر صفحه فراهم می‌کنند.

با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند.

به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند.

از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند.

لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگوریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که به صورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند.

در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

ارتباط با گوگل
پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید.

علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه صفحه را تحت تأثیر قرار داد. ب

سیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وب سایت‌ها، ماه‌ها یا حتی سال‌ها روی بهینه‌سازی یک وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند.

با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌کند. بطور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه می‌کند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.

در سپتامبر سال ۲۰۱۶، گوگل اعلام کرد که گوگل پنگوئن به الگوریتم اصلی رتبه‌بندی گوگل ملحق شده‌است و دیگر آپدیت‌های آن اعلام نمی‌شود. از سال ۲۰۱۶ به بعد، الگوریتم پنگوئن گوگل دیگر به صورت لحظه‌ای نتایج جستجو را بررسی خواهد کرد.

تا سال ۱۹۹۷، طراحان موتورهای جستجو دریافتند که مدیران وب سایتها تلاش می‌کنند که در موتورهای جستجوی آن‌ها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبه‌های خود در نتایج جستجو را از طریق لبریز نمودن صفحات خود با واژگان کلیدی بسیار زیاد یا نامرتبط، دستکاری می‌کردند.

موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتم‌های خود را جهت جلوگیری مدیران وب در دستکاری رتبه‌ها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک کنفرانس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینه‌سازی آن را به هم مرتبط سازد.

تقسیم‌بندی مراحل بهینه‌سازی
بهینه‌سازی داخلی
استانداردهای مشخصی از سوی گوگل برای وب سایت‌ها تعریف شده‌است و تمامی وب سایت‌ها ملزم به رعایت این استانداردها هستند. در سئوی داخلی وب سایت بر اساس استانداردهای تعریف شده از سوی گوگل، بهینه‌سازی می‌شود. منظور از کلمهٔ سئوی داخلی این است که در این بخش تمامی تغییرات بهینه‌سازی در داخل وب سایت انجام می‌شوند.

پارامترهای مختلفی در سئوی داخلی مورد توجه گوگل هستند که می‌توانیم با بهینه‌سازی این پارامترها امتیازات مثبتی از گوگل دریافت کنیم و شانسمان را برای رسیدن به رتبه‌های اول افزایش دهیم.

بهینه‌سازی خارجی
بهینه‌سازی خارجی، مجموعه اقداماتی است که در خارج از وب سایت انجام می‌شود تا وب سایت در کلمات کلیدی هدف به رتبه‌های برتر برسد. برای کار بر روی بهینه‌سازی خارجی نیازی به دسترسی به پنل مدیریتی وب سایت و کنترل پنل هاست وجود ندارد؛ زیرا تمامی مراحل بهینه‌سازی خارجی در بیرون از وب سایت انجام می‌شود.

کار بر روی سئوی خارجی بسیار حساس و پیچیده‌تر از سئوی داخلی است. زیرا ممکن است با کوچک‌ترین اشتباهی، وب سایت مورد نظر از سوی گوگل جریمه شده و رتبهٔ فعلی خود را نیز از دست بدهد. افراد زیادی هستند که با آف پیج سئو بصورت کامل آشنا نیستند و بدون هیچگونه استراتژی خاصی شروع به لینک سازی و یا خرید رپورتاژ آگهی میکنند که این امر باعث میشود وبسایت آنان دچار پنالنی شود . برای اینکه با لینک سازی و کارهایی که میبایست در آف پیج سئوی وبسایت انجام دهیم بیشتر آشنا شویم بهتر است از مباحث آموزشی موجود در دنیای اینترنت و یا با تمرین و تجربه یاد گیریم تا وبسایت خود و یا مشتریانمان را پنالتی نکنیم و به خطر نیندازیم

تکنیک‌های کلاه سفید در مقابل تکنیک‌های کلاه سیاه
تکنیک‌های سئو می‌توانند به دو گروه عمده طبقه‌بندی شوند: تکنیک‌هایی که موتورهای جستجو به عنوان بخشی از یک طراحی خوب توصیه می‌کنند، و تکنیک‌هایی که مورد تأیید موتورهای جستجو نیست.

موتورهای جستجو تلاش می‌کنند که اثر دسته دوم را کاهش دهند. هرز آگهی‌ها از آن جمله هستند. مفسران صنعتی و شاغلانی که از این تکنیک‌های سئو استفاده می‌کنند، آن‌ها را به سئو کلاه سفید یا کلاه سیاه طبقه‌بندی کرده‌اند.

تکنیک‌های کلاه سفید تمایل به تولید نتایجی دارند که مدت زمان زیادی برقرار هستند، در حالیکه تکنیک‌های کلاه سیاه پیش‌بینی می‌کنند که هنگامی که موتورهای جستجو سر از کارشان درآورند، وب سایت‌های آن‌ها در نهایت ممکن است بطور موقت یا دائم متوقف گردد.

اگر از دستورالعمل‌های موجود جستجو پیروی کرده و فریبی در کار نباشد، یک تکنیک سئو کلاه سفید تلقی می‌شود. از آنجاییکه دستورالعمل‌های موتور جستجو به عنوان مجموعه‌ای از قوانین نوشته نشده‌است، این یک تمایز مهم و قابل توجه است.

تکنیک سئو کلاه سفید تنها دربارهٔ تبعیت از دستورالعمل‌ها نیست، اما در مورد حصول اطمینان از این امر است که محتوایی که یک موتور جستجو ایندکس کرده و سپس رتبه‌بندی می‌کند، مشابه همان محتوایی باشد که یک کاربر خواهد دید.

مشاوره کلاه سفید در مجموع جهت ایجاد محتوا برای کاربران مورد استفاده قرار می‌گیرد، نه برای موتورهای جستجو. سپس، آن محتوا به جای تلاش جهت تحریک نمودن الگوریتم و فریب دادن آن از اهداف مورد نظر خود، به سادگی در دسترس عنکبوت‌ها قرار می‌گیرد. تکنیک‌های کلاه سفید در بسیاری جهات شبیه توسعه وب هستند که در دسترس بودن را ارتقاء می‌دهد؛ هرچند که این دو یکسان نیستند.

تکنیک‌های سئو کلاه سیاه تلاش می‌کنند تا رتبه‌بندی را از طریق فریب از روش‌ها و راه‌هایی که مورد تأیید موتور جستجو نیست، بهبود دهند. یک تکنیک کلاه سیاه از متن پنهان شده به عنوان متن رنگ‌آمیز شده مشابه با پس زمینه یک div نامرئی، یا به عنوان متنی در خارج از صفحه نمایش استفاده می‌کنند. تکنیک دیگر، تکنیکی موسوم به کلاکینگ (به انگلیسی: Cloaking) است که بسته به اینکه یک صفحه توسط بازدیدکننده انسانی فراخوانی شود یا توسط یک موتور جستجو، صفحه متفاوتی را بدست می‌دهد.

دسته دیگری که گاهی مورد استفاده قرار می‌گیرد، سئو کلاه خاکستری است. این تکنیک بین کلاه سفید و سیاه است که از روش‌هایی استفاده می‌کند که از مجازات سایت جلوگیری می‌کند، اما با این وجود، بهترین محتوا را برای کاربر مهیا نکرده و ترجیحاً روی بهبود رتبه‌بندی‌های موتور جستجو تمرکز می‌کند.

موتورهای جستجو ممکن است سایت‌هایی که از روش‌های کلاه سیاه استفاده می‌کنند را جریمه کنند، که این امر از طریق کاهش دادن رتبه آنها، یا حذف کردن لیست‌های آن‌ها از دیتابیس‌های خود یا همه موارد می‌تواند صورت گیرد. چنین مجازات‌هایی می‌توانند بطور خودکار توسط الگوریتم‌های موتور جستجو یا از طریق بازنگری دستی سایت صورت پذیرد. یک نمونه، حذف ریکو و بی‌ام‌دبلیو از گوگل در فوریه ۲۰۰۶ به دلیل استفاده از شیوه‌های فریبنده بود. با این حال، هر دو کمپانی به سرعت عذرخواهی کرده و با اصلاح نمودن صفحات متخلف، به لیست گوگل بازگشتند.

اگر می خواهید درآمد خود را از اینترنت بالا ببرید مطلب زیر را مطالعه کنید. مدت مطالعه ۶ دقیقه

با اپلیکیشن کسب درآمد کنید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.