بهینه سازی موتور جستجو (SEO) فرآیند بهبود کیفیت و کمیت ترافیک وب سایت به یک وب سایت یا یک صفحه وب از موتورهای جستجو است.[1][2] سئو ترافیک بدون پرداخت (معروف به نتایج "طبیعی" یا "ارگانیک") را به جای ترافیک مستقیم یا ترافیک پولی هدف قرار می دهد. ترافیک بدون پرداخت ممکن است از انواع مختلف جستجوها، از جمله جستجوی تصویر، جستجوی ویدیویی، جستجوی دانشگاهی، [3] جستجوی اخبار، و موتورهای جستجوی عمودی خاص صنعت سرچشمه بگیرد.
به عنوان یک استراتژی بازاریابی اینترنتی، سئو سایت نحوه کار موتورهای جستجو، الگوریتم های برنامه ریزی شده کامپیوتری که رفتار موتور جستجو را دیکته می کند، آنچه افراد جستجو می کنند، عبارات جستجوی واقعی یا کلمات کلیدی تایپ شده در موتورهای جستجو و اینکه کدام موتورهای جستجو توسط مخاطبان مورد نظر ترجیح داده می شوند را در نظر می گیرد. . سئو به این دلیل انجام می شود که وقتی وب سایت ها در صفحه نتایج موتور جستجو (SERP) رتبه بالاتری داشته باشند، یک وب سایت بازدیدکنندگان بیشتری از موتور جستجو دریافت می کند. این بازدیدکنندگان می توانند به طور بالقوه به مشتریان تبدیل شوند.[4]
وب مسترها و ارائه دهندگان محتوا در اواسط دهه 1990 شروع به بهینه سازی موتورهای جستجو کردند، زیرا اولین موتورهای جستجو در حال فهرست نویسی وب اولیه بودند. در ابتدا، همه وب مسترها فقط نیاز داشتند آدرس یک صفحه یا URL را به موتورهای مختلف ارسال کنند، که یک خزنده وب را برای خزیدن آن صفحه می فرستد، پیوندهای صفحات دیگر را از آن استخراج می کند، و اطلاعات یافت شده در صفحه را برمی گرداند. نمایه شده است.[5] این فرآیند شامل عنکبوت موتور جستجو است که یک صفحه را دانلود کرده و آن را در سرور خود موتور جستجو ذخیره می کند. برنامه دوم که به عنوان نمایه ساز شناخته می شود، اطلاعات مربوط به صفحه را استخراج می کند، مانند کلماتی که در آن وجود دارد، جایی که آنها قرار دارند و هر وزنی برای کلمات خاص، و همچنین تمام پیوندهایی که صفحه در آن قرار دارد. سپس تمام این اطلاعات در یک زمانبندی قرار میگیرد تا در تاریخ بعدی خزیده شود.
صاحبان وب سایت ارزش رتبه و دیده شدن بالا در نتایج موتورهای جستجو را تشخیص دادند، [6]، فرصتی را برای متخصصان سئو کلاه سفید و کلاه سیاه ایجاد کرد. به گفته دنی سالیوان، تحلیلگر صنعت، عبارت "بهینه سازی موتور جستجو" احتمالاً در سال 1997 مورد استفاده قرار گرفت.
نسخه های اولیه الگوریتم های جستجو به اطلاعات ارائه شده توسط وبمستر مانند متا تگ کلمه کلیدی یا فایل های فهرست در موتورهایی مانند ALIWEB متکی بودند. متا تگ ها راهنمای محتوای هر صفحه را ارائه می دهند. با این حال، استفاده از متادیتا برای نمایه سازی صفحات کمتر قابل اعتماد بود، زیرا انتخاب کلمات کلیدی توسط مدیر وب در متا تگ به طور بالقوه می تواند نمایش نادرستی از محتوای واقعی سایت باشد. دادههای ناقص در متا تگها، مانند آنهایی که مشخصههای دقیق، کامل یا نادرست نبودند، این پتانسیل را ایجاد کردند که صفحات در جستجوهای نامربوط به اشتباه توصیف شوند. منبع یک صفحه در تلاش برای رتبه بندی خوب در موتورهای جستجو.[9] در سال 1997، طراحی سایت متوجه شدند که مدیران وبسایتها تلاش میکنند تا در موتور جستجوی خود رتبه خوبی کسب کنند و برخی از مدیران وبسایتها حتی با پر کردن صفحات با کلمات کلیدی بیش از حد یا نامربوط، رتبهبندی خود را در نتایج جستجو دستکاری میکنند. موتورهای جستجوی اولیه، مانند Altavista و Infoseek، الگوریتم های خود را برای جلوگیری از دستکاری مدیران سایت در رتبه بندی تنظیم کردند.[10]
موتورهای جستجوی اولیه با اتکا به عواملی مانند تراکم کلمات کلیدی که منحصراً در کنترل وبمستر بود، از سوء استفاده و دستکاری رتبهبندی رنج میبردند. برای ارائه نتایج بهتر به کاربران خود، موتورهای جستجو مجبور بودند برای اطمینان از اینکه صفحات نتایج آنها مرتبطترین نتایج جستجو را نشان میدهند، به جای صفحات نامرتبط مملو از کلمات کلیدی متعدد توسط وبمستران بیوجدان، سازگار میشدند. این به معنای دور شدن از اتکای شدید به تراکم اصطلاحی به یک فرآیند جامع تر برای امتیاز دهی به سیگنال های معنایی بود.[11] از آنجایی که موفقیت و محبوبیت یک موتور جستجو با توانایی آن در تولید مرتبط ترین نتایج برای هر جستجو مشخص می شود، نتایج جستجو با کیفیت پایین یا نامربوط می تواند کاربران را به یافتن منابع جستجوی دیگر سوق دهد. موتورهای جستجو با توسعه الگوریتمهای رتبهبندی پیچیدهتر، با در نظر گرفتن عوامل دیگری که دستکاری آنها برای مدیران وبسایت دشوارتر بود، پاسخ دادند.
شرکتهایی که از تکنیکهای بیش از حد تهاجمی استفاده میکنند، میتوانند وبسایت مشتریان خود را از نتایج جستجو ممنوع کنند. در سال 2005، وال استریت ژورنال در مورد شرکتی به نام Traffic Power گزارش داد که ظاهراً از تکنیکهای پرخطر استفاده میکرد و نتوانست آن خطرات را برای مشتریان خود فاش کند.[12] مجله Wired گزارش داد که همان شرکت از وبلاگ نویس و SEO Aaron Wall به دلیل نوشتن در مورد ممنوعیت شکایت کرد.[13] مت کاتس گوگل بعدا تایید کرد که گوگل در واقع Traffic Power و برخی از مشتریانش را ممنوع کرده است.[14]
برخی از موتورهای جستجو نیز به صنعت سئو دسترسی پیدا کرده اند و حامیان مالی و مهمانان مکرر کنفرانس های سئو، گفتگوهای اینترنتی و سمینارها هستند. موتورهای جستجوی اصلی اطلاعات و دستورالعمل هایی را برای کمک به بهینه سازی وب سایت ارائه می دهند.[15][16] Google یک برنامه Sitemaps دارد تا به مدیران وبسایت کمک کند تا بفهمند آیا Google در فهرستبندی وبسایت خود با مشکل مواجه است یا خیر و همچنین دادههایی را در مورد ترافیک Google به وبسایت ارائه میدهد.[17] Bing Webmaster Tools راهی را برای وب مسترها فراهم می کند تا نقشه سایت و فیدهای وب را ارسال کنند، به کاربران امکان می دهد «نرخ خزیدن» را تعیین کنند و وضعیت فهرست صفحات وب را ردیابی کنند.
در سال 2015، گزارش شد که گوگل در حال توسعه و ترویج جستجوی موبایل به عنوان یک ویژگی کلیدی در محصولات آینده است. در پاسخ، بسیاری از برندها شروع به اتخاذ رویکرد متفاوتی برای استراتژی های بازاریابی اینترنتی خود کردند.[18]
No comments:
Post a Comment