از آنجایی که امروزه تعداد افرادی که برای رفع نیازها و خرید محصولات مد نظرشان از فضای اینترنت استفاده میکنند اهمیت قرار گرفتن در صفحه اول نتایج جستجوی گوگل روز به روز بیشتر و بیشتر میشود چراکه اکثریت کاربران علاقه ای به سر زدن به صفحات دوم و سوم و… نتایج ندارند و از یکی از ۱۰ نتیجه صفحه اول استفاده میکنند. اهمیت سئو تکنیکال از همینجا مشخص می شود .
پس داشتن اطلاعات درباره روش رساندن سایت به صفحه اول گوگل یعنی سئو سایت نیز روز به روز مهمتر میشود. اگر بخواهیم خیلی ساده به شما بگوییم سئو یک وب سایت به سه بخش داخلی یا on-page، خارجی یا off-page و تکنیکال یا فنی تقسیم میشود.
سئو سایت و موارد تشکیل دهنده آن
سئو داخلی مربوط به فعالیتهایی است که برای بهبود ساختار محتوای یک سایت انجام میشود. سئو خارجی همانطور که از نام آن مشخص است مربوط به سیگنالهای خارجی یک سایت است. اما
تکلیف سئو تکنیکال چه میشود؟
چه مواردی جز این بخش هستند؟
سئو فنی در اصل پایه و اساس سئو داخلی و خارجی یک وب سایت اینترنتی است و تمام امور فنی سایت را در بر میگیرد. ما پیش از این مبحث در مقالات زیادی به بررسی موارد تاثیر گذار در سئو داخلی و سئو خارجی و تکنیکها و استراتژیهای مربوط به این دو زمینه پرداختهایم. اما در این مقاله قصد داریم به صورت کامل روی سئو تکنیکال تمرکز کنیم و چک لیستی را در اختیار شما قرار بدهیم که بر اساس به روزترین اطلاعات جمع آوری شدهاند.
اما پیش از بررسی چک لیست بهتر است در ابتدا با هدف سئو تکنیکال آشنا شوید:
هدف اصلی فرآیند سئو تکنیکال چیست؟
هدف اصلی فرایند پردردسر سئو تکنیکال را میتوان در موارد زیر خلاصه کرد:
ایندکسشدن کامل پروژه
رباتهای موتورهای جستجو توانایی درک کامل ساختار سایت را داشته باشند.
کاربران بهآسانی بتوانند چیزی را که به دنبال آن هستند، بیابند.
الگوریتمهای موتورهای جستجو بهدرستی بتوانند صفحات سایت را رتبهبندی کنند.
هدف اصلی این مقاله مقابله کردن با برخی از متداولترین خطاهای فنی سئو است.
اساسیترین نیازمندیها برای انواع سایتها
الزامات اساسی سایتها از هر نوع و اندازهای، شامل توصیههای زیر است که بر اساس اهمیت و فراوانی نسبی مرتب شدهاند :
استفاده از ریدایرکت ۳۰۱:برای انتقال آدرس با www به آدرس بدون www و یا بالعکس و همینطور برای انتقال از یک آدرس قدیمی به آدرس جدید ( مثلاً از دامنه dgkala.com به دامنه digikala.com) میتوانید از ریدایرکت ۳۰۱ استفاده کنید.
ایجاد و پیکربندی فایل robots.txt:
توصیه میکنیم که فرمانهای فایل robots.txt سایتتان را برای هر موتور جستجو بهطور جداگانه بنویسید زیرا به عنوان مثال تنها موتور جستجوی yandex است که فرمان “Host” را پشتیبانی میکند، درحالیکه گوگل چنین دستوری را اساساً نادرست میداند و اگر رباتهای گوگل با چنین دستوری مواجه شوند خطا خواهند گرفت! پس ایجاد و پیکربندی فایل robots.txt را جدی بگیرید!
بررسی تگ title و توضیحات متای هر صفحه:هر صفحهای روی سایت تنها یک تگ title و یک متاتگ description دارد که مشخصکننده محتوای آن صفحه است: برای بررسی منحصربهفرد بودن تگ title و متا تگ description میتوانید از ابزار website audit tool وبسایت sitechecker.pro استفاده کنید. این ابزار تمام خطاهای موجود را به شما به تفکیک صفحه، نمایش خواهد داد. در این مقاله قصد نداریم به چگونگی تغییر و ویرایش این تگها در صفحات وبسایت، بپردازیم. تنها متذکر میشویم که این مورد از سئو تکنیکال را لحاظ کنید.
ایجاد آدرسهای بامعنی (به انگلیسی: friendly URLs) برای صفحات سایت:
بهتر است تمام صفحات سایت را از نظر داشتن آدرسهای مناسب بررسی کرده و درصورتیکه آدرس مناسبی نداشتند، آنها را اصلاح کنیم. برای پیدا کردن آدرس url مناسب میتوانید خودتان یا همکارتان مطالب صفحه را بخوانید و ببینید صفحه درباره چیست، و همان را به عنوان آدرس صفحه قرار دهید. نکته: بهتر است برای URL از یک متن توضیح دهنده انگلیسی استفاده کنید چون URL های فارسی ظاهر خوبی نخواهند داشت. در تصویر زیر کاملا میتوان متوجه منظور این نکته شد:
بررسی صحت عملکرد وبسایت در زمان مواجهه با خطای ۴۰۴:کد پیام مناسب برای این نوع خطا “خطای ۴۰۴ : صفحه موردنظر یافت نشد” است و باید در همه بخشهای وبسایت برای آدرسهای نادرست این پیام نمایش داده شود. صفحه خطای ۴۰۴ باید همانند بقیه بخشهای وبسایت طراحی شود . همچنین این صفحه نباید کاربر را بهجایی دیگر از سایت منتقل کند. در این صفحه باید لینکهای مهم سایت و یک فرم جستجو وجود داشته باشد.
بررسی پاسخ سرور (به انگلیسی: server response) برای تمامی صفحات وبسایت:تمام صفحاتی که از طریق لینکها قابلدسترسی هستند باید کد واکنش (response code 200 OK) را داشته باشند.
بر این اساس زمانی که آدرس صفحهای تغییر کرد و این تغییر با استفاده از ریدایرکت ۳۰۱ انجام شد، لازم است تا تمامی لینکهای داخلی به مقصد صفحه مذکور تصحیح شوند تا در کوتاهترین زمان ممکن کاربر به مقصد نهایی خودش منتقل شود.
بررسی زمان بارگذاری یا لود صفحات سایت و سایز آنها:مقادیر پیشنهادی برای زمان بارگذاری کدها (به انگلیسی: source document code download time) تا ۰٫۷ ثانیه (۷۰۰ میلیثانیه)، برای پاسخ سرور (به انگلیسی: server response) تا ۰٫۲ ثانیه (۲۰۰ میلیثانیه) و تا ۱۲۰KB برای سایز کد منبع (به انگلیسی: source code size) است. وب سایتهایی که برای بارگذاری بیشتر از ۳ ثانیه زمان نیاز داشته باشند مورد تایید گوگل نخواهند بود از این رو افزایش سرعت لود سایت از مهمترین مواردی است که پیشنهاد میکنیم اگر تا به امروز به آن توجه زیادی نداشتید حتما تجدید نظر کنید .
منحصربهفرد بودن تگ h1 برای تمامی صفحات وبسایت:محتوای این تگ باید ماهیت نوشته را دربر داشته باشد و برای هر یک از صفحات سایت تنها یکی از آن وجود داشته باشد! اگر از وردپرس استفاده میکنید این را بدانید متنی که در بخش عنوان یک محتوا وارد میکنید به طور خودکار تگ H1 میگیرد از این رو نیازی نیست در متن محتوا از بند یا تگ H1 استفاده کنید.
اطمینان حاصل کردن از عدم استفاده از تگهای h1 تا h6 بهعنوان المانهای طراحی سایت:این تگها تنها باید در متن صفحات استفاده شوند.
بررسی گزارشهای آماری مربوط به در دسترسبودن سرور (به انگلیسی: uptime): همیشه این گزارشات را بررسی کنید و بدانید در حالت طبیعی این مقدار باید ۹۹٫۸۵% و یا بالاتر باشد. برای این کار میتوانید از وب سایت uptimerobot استفاده کنید.
ساخت favicon یا favorites icon:یک favicon (که مخفف favorites icon است) منحصربهفرد و توجه برانگیز بسازید و آن را در مسیر اصلی هاست وب سایتتان آپلود کنید. فایوایکون همان آیکون کوچکی است که در ابتدای آدرس دامنه یک وب سایت در کادر آدرس بار مرورگرهای اینترنتی میبینید.
مخفی سازی لینکهای منع شده از ایندکس با ajax:باید لینکهایی که با استفاده از فایل robots.txt از ایندکسشدن منع کردهاید، توسط ajax مخفی کنید. در کد سایت نباید بخشهایی مانند “a href =” … ” برای لینکهای داخل صفحه (صفحهای که از ایندکسشدن منع شده است) وجود داشته باشد. خود این اسکریپتهای ajax نیز باید از ایندکسشدن منع شوند.
گردآوری تمام کدهای فایلهای js و css در یک فایل واحد:ضروری است که تمامی کدهای موجود در فایلهای js و css داخل یک فایل واحد متناسب گردآوری شوند. کامنتهای موجود در کدها را پاککنید، این کار باعث بالا رفتن سرعت دسترسی و تفسیر کدها توسط رباتهای گوگل و مرورگرها میشود. این کار زمانی که فایلهای js و css بیشتر از ۸ عدد باشند ضروری است. همچنین لازم است در این کدها کامنتهایی که بیشتر از ۳ خط هستند پاک شوند.
بررسی المانهای HTML سایت:بررسی کنید که تمامی المانهای html استفاده شده در سایت بسته شده باشند. برای مثال اگر در سایت تگ tr استفادهشده است، حتماً باید با یک /tr بستهشده باشد. این حداقل کاری است که میتوانید برای معتبر شدن کدها انجام دهید.
بررسی صفحات سایت در انواع مرورگرها:بررسی کنید که تمام صفحات وبسایت در مرورگرهای محبوب بهدرستی نمایش داده شوند. به نسبت محبوبیت هر یک از مرورگرها باید توجه خاصی به درست نشان داده شدن وبسایت در آن مرورگر داشته باشید. مرورگرهای مهم عبارتاند از : Google Chrome, Android Browser, Mobile Safari, Firefox, Yandex.Browser, Opera.
پیکربندی درست ریدایرکت ۳۰۱ از صفحاتی مانند “index.php”, “index.html”, “default.html” به صفحات دیگر:برای مثل میتوانید برای مسیر اصلی هاست اینگونه بنویسید: “/dir/index.php” to”/ dir /”.
پیکربندی ریدایرکت ۳۰۱ از صفحات بدون اسلش (“/”) به صفحاتی که آخر url آنها اسلش دارد:و یا بالعکس، با توجه به cms مورداستفاده و تنظیمات سرور.
پیکربندی انتقال از http به https:مطمئن شوید که از یک ریدایرکت ۳۰۱ برای انتقال از ورژن https به ورژن http (و یا بالعکس) استفاده کرده باشید. در حال حاضر موتورهای جستجو بهطور پیشفرض ورژن https سایتها را برای ایندکس کردن بررسی میکنند و اگر شما از ریدایرکت مناسب استفاده نکرده باشید ممکن است گوگل ورژن دیگر سایت شما را بهعنوان محتوای تکراری بشناسد.
جلوگیری از ایندکس صفحات ورود:صفحات ورود (به انگلیسی: login) را با استفاده از فایل robots.txt از ایندکسشدن منع کنید. در cmsهای مختلف این صفحات میتوانند به این صورت باشد: ”/ bitrix”, “/ login”, “/ admin”, “/ administrator”, “/ wp-admin” . نکته از دستور Disallow میتوانید بهصورت زیر متناسب با سایت ساز خودتون که اگر وردپرسی باشد استفاده کنید: /Disallow: /wp-admin
ساخت نقشه سایت:یک نقشه سایت (به انگلیسی: sitemap.xml) بسازید که دربرگیرنده مشخصات تمامی صفحات سایت باشد. اگر تعداد صفحات بیشتر از ۵۰,۰۰۰ صفحه بود، باید چندین نقشه سایت بسازید. توصیه میکنیم که مستقیم در وبمستر گوگل نقشه سایت را وارد کنید و از معرفی کردن نقشه سایت به موتورهای جستجو با استفاده از فایل robots.txt خودداری کنید. باز کردن لینکهای خارجی در صفحه ای جدید:توصیه میکنیم تمامی لینکهای خارجی را با استفاده از دستور ”target = “_blank در تگهای a، در یک تب جدید باز کنید. اگر میخواهید که لینکهای خارجی اعتبار وبسایت شما را پایین نیاورند، میتوانید با استفاده از ajax آنها را از دید رباتهای گوگل مخفی کنید.
بررسی فایل صفحات کلیدی سایت:فایل صفحات کلیدی سایت را باز کرده و آنها را از نظر کامل بودن کدها، تاریخ ذخیره سازی و انکودینگ بررسی کنید.
جلوگیری از ایندکسشدن برخی صفحات:لازم است که پوشههای “cgi-bin”, “wp-includes”, “cache”, “backup” در فایل robots.txt از ایندکسشدن منع شوند.
جلوگیری از ایندکسشدن فایلهای بلا استفاده:فایلهای بلااستفاده (مانند فایلهای با فرمت SWF) یا فایلهای خالی doc و pdf لازم است که در فایل robots.txt از ایندکسشدن منع شوند. اگر فایلهای doc و pdf فایلهای قابلاستفاده و مفیدی هستند و حاوی اطلاعات مهمی میباشند، نباید از ایندکسشدن منع شوند.
الزامات اضافی سئو تکنیکال، مخصوص سایتهای فروشگاهی، دارای جستجو و کنترل دسترسی:
برای پروژههایی که از نظر فنی پیچیدهتر هستند، مانند سایتهایی که کنترل دسترسی کاربران و جستجوی داخلی برای کالاها، نوشتهها و … دارند، چند نکته اضافه سئو تکنیکال وجود دارد که لازم است رعایت شوند:
توصیه میشود که از “تگ کنونیکال یا rel=canonical” برای از بین بردن صفحات تکراری استفاده کنید و البته با رعایت تمام معیارهای ارجاعی و رفتاری.
این توصیه برای سایتهای کوچک و ساده قابل توجیه است ولی به دلیل برخی پیچیدگیها و سختیهایی که پیادهسازی آن دارد اغلب در حد یک توصیه باقی میماند و عملی نمیشود.
صفحات مرتبسازی مختلف و صفحات فیلترهای محصولات باید از ایندکسشدن منع شوند. اگر قرار نیست ترافیک زیادی به این صفحات هدایت شود باید لینکهای با مقصد این صفحات نیز با استفاده از ajax از دید رباتهای موتورهای جستجو مخفی شود.
صفحات ورود به سایت، تغییر رمز عبور، صفحات پردازش سفارش و غیره همگی باید توسط فایل robots.txt از ایندکسشدن منع شوند.
نتایج جستجو نیز باید توسط فایل robots.txt از ایندکسشدن منع شوند.
انواع مختلف print مانند “_print”, “version = print” و موارد مشابه باید از ایندکسشدن منع شوند.
صفحات action مانند “? Action = ADD2BASKET”, “? Action = BUY” باید از ایندکسشدن منع شوند.
بخشهایی که دارای محتوای تکراری هستند باید از ایندکسشدن منع شوند . مانند: “feed”, “rss”, “wp-feed”.
نکات مهم: الف) به عنوان راه جایگزین بهجای استفاده از فایل robots.txt میتوانید از متاتگ name=”robots” با فیلدهای “content=”noindex, follow”” استفاده کنید. این ساختار توسط موتورهای جستجو بهتر از فایل robots.txt دیده میشوند.اما نسبتاً پیکربندی پیچیدهتری دارند. ب) استفاده درست از صفت rel=”canonical”:
بهطور اساسی فرایند ایندکسشدن سایت را آسانتر میکند.
معیارهای لینک شدن و… را در صفحات تکراری بهدرستی اعمال میکند. مخصوصاً وقتی کمپینی برگزار کردهاید و صفحات دارای کد UTM هستند.
نتیجه گیری
سئو فنی وب سایت مثل استخوانبندی یک ساختمان است. هر چه مستحکمتر و بیشتر بر اساس قوانین موتورهای جستجو باشد، سئو داخلی و خارجی آن هم نتایج قابل قبولتری خواهند داشت. با پیشرفت روزافزون وب سایتهای اینترنتی وقت آن رسیده آستین بالا بزنید خودتان هم کم کم با سئو وب سایت و تکنیکهای آن آشنا شوید! سئو وب سایت میتواند حتی به عنوان یک منبع درآمد تازه و اتفاقا پرسود هم برای شما باشد. برای یادگرفتن سئو اولین قدم میتواند خواندن همین مقالات و آشنایی با اصطلاحات آن باشد. همین حالا به وب سایتتان بروید و مواردی که در این مبحث با آنها آشنا شدید را بررسی کنید و هر جا به بنبست خوردید یا سوالی برایتان پیش آمد همینجا برای ما بنویسید تا پاسخ دهیم. فقط کافیست خودتان بخواهید تا در سئو جز حرفهایها باشید!