قبل از اینکه هر نوع وبسایتی طراحی و راه اندازی شود باید یک سری اصطلاحات رایج در سئو و سایت، توسط سئو کاران و صاحبان وبسایت بررسی شود. چرا که خیلی از کسب و کار ها را می ببنیم اول سایت را راه اندازی می کنند و سپس بدون هیچ اطلاعاتی در مورد نیاز کاربران و قوانین گوگل شروع به تولید محتوا میکنند.
اما بعد از مدتی که متوجه نبود بازدیدکننده و کاهش رتبه سایت میشوند، زمان و هزینه ی بیشتری را صرف میکنند تا به ارزش سئو پی ببرند.
اگر کسب و کارتان یا خدماتی که میخواهید ارائه دهید برای شما از اهمیت برخوردار است، باید حتما با اصطلاحات رایج بین سئوکاران و طراحان سایت آگاهی داشته باشید:
یک قطعه متنی است که توسط سرور وب برای مرورگر کاربر ارسال می شود و مرورگر آن را روی هارددیسک رایانه ذخیره میکند تا در مراجعات بعدی به آن سرور وب مورد استفاده قرار گیرد.
پِراکسی یک سیستم سخت افزاری یا برنامه کاربردی است که در شبکه، به عنوان واسطه ای میان رایانه کاربر و سرور عمل می کند.
به عنوان مثال چنان چه کاربر اینترنت بخواهد درخواستی را با هدف مشاهده صفحه وب یا دریافت یک فایل برای سرور وب ارسال نماید، این درخواست ابتدا توسط پراکسی مورد رسیدگی قرار می گیرد و نتیجه حاصل از این رسیدگی برای کاربر فرستاده می شود.
انگیزه اولیه از ایجاد پراکسی ها به اشتراک گذاردن اتصال اینترنت در یک شبکه داخلی بوده است به این معنی که مثلاً در شبکه یک شرکت تجاری، به جای آن که تک تک رایانه ها به صورت جداگانه به اینترنت متصل شوند، همگی از طریق یک دروازه متصل به اینترنت یعنی پراکسی با اینترنت ارتباط برقرار کنند.
با گذر زمان قابلیت های جدیدی فراتر از به اشتراک گذاردن ارتباط با اینترنت به پراکسی ها اضافه شد که از آن جمله می توان به موارد زیر اشاره کرد:
با استفاده از پراکسی می توان درخواست های ارسال شده توسط کاربران را بررسی نمود و در صورت عدم تطابق آن ها با معیارهای تعیین شده، کاربر را از دسترسی به صفحات و محتوای درخواست شد منع نمود.
با توجه به گران بودن هزینه ارتباط با اینترنت و محدودیت در پهنای باند مورد تقاضای کاربران، پراکسی قادر است صفحات وب و فایل هایی را که بیش ترین درخواست برای آنها وجود دارد در حافظه داخلی خود ذخیره (Cache) نماید.
به این ترتیب در درخواست های بعدی، لزومی به دریافت محتوا از اینترنت نیست و پراکسی با مراجعه به حافظه داخلی خود به درخواست کاربران پاسخ می دهد. این قابلیت ضمن افزایش سرعت دسترسی کاربران به مطالب موردنظر، از هدر رفتن پهنای باند برای دریافت اطلاعات تکراری جلوگیری خواهد کرد.
از آن جا که پراکسی به عنوان درواز های برای ارتباط شبکه داخلی با اینترنت عمل می کند، با ایجاد یک سیستم امنیتی قدرتمند می توان از نفوذ فایل های مخرب نظیر ویروس، کرم، تروجان به درون شبکه داخلی پیشگیری نمود و رایانه های موجود در شبکه را از خطر نفوذگری و دسترسی های غیرمجاز در امان نگه داشت.
افزونه برنامه کوچکی است که به یک نرم افزار بزرگ تر متصل می شود و قابلیت های جدیدی رابه آن اضافه می کند.
وقتی از یک مرورگر وب استفاده می کنید ممکن است این مرورگر در حالت پیش فرض، قادر به اجرا یا نمایش برخی محتویات صفحه وب مانند فایل های فلش، اسناد pdf یا برخی فایل های ویدیویی نباشد. در این حالت شما با نصب افزونه مناسب، قابلیت اجرا و نمایش این فایل ها را به مرورگر اضافه نموده و در واقع کارایی مرورگر را بهبود می بخشید.
فرمتی است که با استفاده از آن می توانید به روز رسانی های صورت گرفته در وب سایت خود را در اختیار سایر برنامه ها قرار دهید تا مشترکین یا سایر افرادی که مطالب وب سایت شما را دنبال میکنند، بدون مراجعه مستقیم بتوانند از به روزرسانی ها مطلع شوند. از این روش به اشتراک گذاری اطلاعات در وبلاگ ها و نیز خبرگزاری های اینترنتی استفاده می شود.
وب را می توان منبع بزرگی از اطلاعات دانست که برای اکثر پرسش های کاربران پاسخ های قابل قبولی را در خود جای داده است. امروزه با وجود میلیون ها وب سایت و میلیاردها صفحۀ وب و انبوهی از فایل ها و مستندات قابل دسترس، افراد گوناگون برای دریافت پاسخ پرسش های خود راهی بهتر و سریع تر از مراجعه به اینترنت سراغ ندارد.
اما سؤال اصلی این است که برای رسیدن به اطلاعات موردنظر باید به کدام وب سایت مراجعه نمود تا از میان انبوه اطلاعات موجود در اینترنت به صفحۀ مطلوب رسید؟ شاید اگر برای حل این معضل راه حل مناسبی ابداع نشده بود، استفاده عمومی از وب تا این حد گسترش پیدا نمی کرد.
تا مدت ها، کار دسته بندی صفحات وب به صورت دستی و بدون استفاده از نرم افزار خاصی انجام می شد تا این که کم کم ایده تولید موتورهای جستجو میان برنامه نویسان شکل گرفت و از سال۱۹۹۳ به تدریج نرم افزارهایی برای جستجو در محتوای صفحات وب تولید شد.
در همین زمان بود که مفهومی به نام Web Robot پا به دنیای فن آوری اطلاعات گذاشت؛ یعنی نرم افزاری که به صورت خودکار صفحات وب را احضار نموده و با بررسی محتوای صفحات، اقدام به نمایه سازی (Indexing) آنها می کند.
امروزه موتور جستجوی گوگل به مدد الگوریتم قدرتمندی که توسط یک دانشجوی جوان به نام لَری پیِج نوشته شد توانسته در دنیای موتورهای جستجو به رقیب بلامنازع تبدیل شود و تقریباًٌ سایر رقبا را به حاشیه براند.
هنگامی که کلید واژه ای را در یکی از موتورهای جستجو مثل
yahoo.com ،google.com،bing.com وارد می کنید، در کمتر از یک ثانیه، لیستی از نشانی وب سایت ها و صفحات حاوی کلیدواژه در اختیار شما قرار میگیرد و تعداد نتایج به دست آمده می تواند بین صفر تا چند میلیون نتیجه متغیر باشد.
این سؤال ممکن است برای هر کاربر موتورهای جستجو پیش بیاید که یافتن این تعداد نتیجه در این زمان کوتاه چگونه امکان پذیر است؟
برای پاسخ به این سؤال باید اجزاء تشکیل دهنده یک موتورجستجو را که در اغلب آنها مشترک است با هم مرور کنیم:
اسپایدر به صورت خودکار، به صفحات مختلف سر
می زند، کد HTML و محتوای آن را بررسی می کند و با دنبال نمودن پیوندها ، اطلاعات مورد نیاز را در اختیار سایر بخش های موتور جستجو قرار می دهد.
کرالر یا خزنده برنامه دیگری است که اسپایدر را مدیریت می کند یعنی مشخص می کند که به سراغ کدام صفحات برود و چه پیوندهایی را دنبال کند. علاوه بر این برای مرور مجدد صفحات قبلی و به روز کردن اطلاعات موجود درباره آنها برنامه ریزی می کند.
وظیفه نمایه کردن اطلاعات را برعهده دارد به این معنی که اطلاعات را از اسپایدر دریافت نموده و آنها را مورد تجزیه و تحلیل قرار می دهد تا مشخص شود چه کلیدواژه هایی در صفحه وب وجود دارد، در کجای صفحه و چندبار تکرار شده اند و نشانی آنها بر روی وب چیست.
نتیجه تجزیه و تحلیل صورت گرفته توسط Indexer برای پایگاه داده ارسال می شود. در این بخش، داده ها گروه بندی، کدگذاری و فشرده شده و در پایگاه داده عظیم موتور جستجو ذخیره می شوند.
عمده تفاوت موجود در توانایی موتورهای جستجو برای پاسخگویی مناسب به کاربران به سیستم رتبه بندی موتور جستجو برمی گردد. در این بخش عبارت وارد شده توسط کاربر مورد بررسی قرار می گیرد و Ranker ، نتایج موجود در پایگاه داده را بر حسب میزان ارتباط با کلیدواژه ها، به صورت نزولی مرتب می کند و به عنوان نتیجه برمی گرداند.
هر قدر سیستم رتبه بندی یک موتور قویتر باشد و پایگاه داده توانایی ذخیره سازی حجم بیشتری از اطلاعات را داشته باشد، نتایج به دست آمده از جستجو کاربرد ی تر و فاقد موارد غیرمرتبط خواهد بود.
هنگامی که کاربران، کلیدواژه های به کار رفته در محتوای وبسایت را از طریق موتورهای جستجو بررسی میکنند، نام وبسایت در رتبۀ بالاتری قرار میگیرد و طبیعتاً مراجعه به آن بیشتر خواهد شد.
بهینه سازی وبسایت برای شناسایی توسط موتورهای جستجو که به اختصار (SEO (Search Engine Optimizatio نام دارد یکی از مهارتهایی است که طراحان وب باید بر آن مسلط باشند.