اصطلاحات رایج در سئو و سایت

قبل از اینکه هر نوع وبسایتی طراحی و راه اندازی شود باید یک سری اصطلاحات رایج در سئو و سایت، توسط سئو کاران و صاحبان وبسایت بررسی شود. چرا که خیلی از کسب و کار ها را می ببنیم اول سایت را راه اندازی می کنند و سپس بدون هیچ اطلاعاتی در مورد نیاز کاربران و قوانین گوگل شروع به تولید محتوا میکنند.

اما بعد از مدتی که متوجه نبود بازدیدکننده و کاهش رتبه سایت میشوند، زمان و هزینه ی بیشتری را صرف میکنند تا به ارزش سئو پی ببرند.

اصطلاحات رایج در سئو و سایت و مفهوم آنها

اگر کسب و کارتان یا خدماتی که میخواهید ارائه دهید برای شما از اهمیت برخوردار است، باید حتما با اصطلاحات رایج بین سئوکاران و طراحان سایت آگاهی داشته باشید:

۱-کوکی ها و عملکرد آنها

یک قطعه متنی است که توسط سرور وب برای مرورگر کاربر ارسال می شود و مرورگر آن را روی هارددیسک رایانه ذخیره میکند تا در مراجعات بعدی به آن سرور وب مورد استفاده قرار گیرد.

۲-Proxy و مفهوم آن

پِراکسی یک سیستم سخت افزاری یا برنامه کاربردی است که در شبکه، به عنوان واسطه ای میان رایانه کاربر و سرور عمل می کند.

به عنوان مثال چنان چه کاربر اینترنت بخواهد درخواستی را با هدف مشاهده صفحه وب یا دریافت یک فایل برای سرور وب ارسال نماید، این درخواست ابتدا توسط پراکسی مورد رسیدگی قرار می گیرد و نتیجه حاصل از این رسیدگی برای کاربر فرستاده می شود.

انگیزه اولیه از ایجاد پراکسی ها به اشتراک گذاردن اتصال اینترنت در یک شبکه داخلی بوده است به این معنی که مثلاً در شبکه یک شرکت تجاری، به جای آن که تک تک رایانه ها به صورت جداگانه به اینترنت متصل شوند، همگی از طریق یک دروازه متصل به اینترنت یعنی پراکسی با اینترنت ارتباط برقرار کنند.
با گذر زمان قابلیت های جدیدی فراتر از به اشتراک گذاردن ارتباط با اینترنت به پراکسی ها اضافه شد که از آن جمله می توان به موارد زیر اشاره کرد:

۱-نظارت بر کاربران:

با استفاده از پراکسی می توان درخواست های ارسال شده توسط کاربران را بررسی نمود و در صورت عدم تطابق آن ها با معیارهای تعیین شده، کاربر را از دسترسی به صفحات و محتوای درخواست شد منع نمود.

۲-Cache کردن اطلاعات:

با توجه به گران بودن هزینه ارتباط با اینترنت و محدودیت در پهنای باند مورد تقاضای کاربران، پراکسی قادر است صفحات وب و فایل هایی را که بیش ترین درخواست برای آنها وجود دارد در حافظه داخلی خود ذخیره (Cache) نماید.

به این ترتیب در درخواست های بعدی، لزومی به دریافت محتوا از اینترنت نیست و پراکسی با مراجعه به حافظه داخلی خود به درخواست کاربران پاسخ می دهد. این قابلیت ضمن افزایش سرعت دسترسی کاربران به مطالب موردنظر، از هدر رفتن پهنای باند برای دریافت اطلاعات تکراری جلوگیری خواهد کرد.

 ۳-افزایش امنیت شبکه:

از آن جا که پراکسی به عنوان درواز های برای ارتباط شبکه داخلی با اینترنت عمل می کند، با ایجاد یک سیستم امنیتی قدرتمند می توان از نفوذ فایل های مخرب نظیر ویروس، کرم، تروجان به درون شبکه داخلی پیشگیری نمود و رایانه های موجود در شبکه را از خطر نفوذگری و دسترسی های غیرمجاز در امان نگه داشت.

۳-معرفی افزونه

افزونه برنامه کوچکی است که به یک نرم افزار بزرگ تر متصل می شود و قابلیت های جدیدی رابه آن اضافه می کند.

وقتی از یک مرورگر وب استفاده می کنید ممکن است این مرورگر در حالت پیش فرض، قادر به اجرا یا نمایش برخی محتویات صفحه وب مانند فایل های فلش، اسناد pdf یا برخی فایل های ویدیویی نباشد. در این حالت شما با نصب افزونه مناسب، قابلیت اجرا و نمایش این فایل ها را به مرورگر اضافه نموده و در واقع کارایی مرورگر را بهبود می بخشید.

۴- RSS

فرمتی است که با استفاده از آن می توانید به روز رسانی های صورت گرفته در وب سایت خود را در اختیار سایر برنامه ها قرار دهید تا مشترکین یا سایر افرادی که مطالب وب سایت شما را دنبال میکنند، بدون مراجعه مستقیم بتوانند از به روزرسانی ها مطلع شوند. از این روش به اشتراک گذاری اطلاعات در وبلاگ ها و نیز خبرگزاری های اینترنتی استفاده می شود.

۵-آشنایی با موتورهای جستجو

وب را می توان منبع بزرگی از اطلاعات دانست که برای اکثر پرسش های کاربران پاسخ های قابل قبولی را در خود جای داده است. امروزه با وجود میلیون ها وب سایت و میلیاردها صفحۀ وب و انبوهی از فایل ها و مستندات قابل دسترس، افراد گوناگون برای دریافت پاسخ پرسش های خود راهی بهتر و سریع تر از مراجعه به اینترنت سراغ ندارد.

اما سؤال اصلی این است که برای رسیدن به اطلاعات موردنظر باید به کدام وب سایت مراجعه نمود تا از میان انبوه اطلاعات موجود در اینترنت به صفحۀ مطلوب رسید؟ شاید اگر برای حل این معضل راه حل مناسبی ابداع نشده بود، استفاده عمومی از وب تا این حد گسترش پیدا نمی کرد.
تا مدت ها، کار دسته بندی صفحات وب به صورت دستی و بدون استفاده از نرم افزار خاصی انجام می شد تا این که کم کم ایده تولید موتورهای جستجو میان برنامه نویسان شکل گرفت و از سال۱۹۹۳ به تدریج نرم افزارهایی برای جستجو در محتوای صفحات وب تولید شد.

در همین زمان بود که مفهومی به نام Web Robot پا به دنیای فن آوری اطلاعات گذاشت؛ یعنی نرم افزاری که به صورت خودکار صفحات وب را احضار نموده و با بررسی محتوای صفحات، اقدام به نمایه سازی (Indexing) آنها می کند.

امروزه موتور جستجوی گوگل به مدد الگوریتم قدرتمندی که توسط یک دانشجوی جوان به نام لَری پیِج  نوشته شد توانسته در دنیای موتورهای جستجو به رقیب بلامنازع تبدیل شود و تقریباًٌ سایر رقبا را به حاشیه براند.

 هنگامی که کلید واژه ای را در یکی از موتورهای جستجو مثل

yahoo.com ،google.com،bing.com  وارد می کنید، در کمتر از یک ثانیه، لیستی از نشانی وب سایت ها و صفحات حاوی کلیدواژه در اختیار شما قرار میگیرد و تعداد نتایج به دست آمده می تواند بین صفر تا چند میلیون نتیجه متغیر باشد.

این سؤال ممکن است برای هر کاربر موتورهای جستجو پیش بیاید که یافتن این تعداد نتیجه در این زمان کوتاه چگونه امکان پذیر است؟

برای پاسخ به این سؤال باید اجزاء تشکیل دهنده یک موتورجستجو را که در اغلب آنها مشترک است با هم مرور کنیم:

۱- Robot یا Spider:


اسپایدر به صورت خودکار، به صفحات مختلف سر

می زند، کد HTML و محتوای آن را بررسی می کند و با دنبال نمودن پیوندها ، اطلاعات مورد نیاز را در اختیار سایر بخش های موتور جستجو قرار می دهد.

۲-Crawler:

کرالر یا خزنده برنامه دیگری است که اسپایدر را مدیریت می کند یعنی مشخص می کند که به سراغ کدام صفحات برود و چه پیوندهایی را دنبال کند. علاوه بر این برای مرور مجدد صفحات قبلی و به روز کردن اطلاعات موجود درباره آنها برنامه ریزی می کند.

۳-Indexing

وظیفه نمایه کردن اطلاعات را برعهده دارد به این معنی که اطلاعات را از اسپایدر دریافت نموده و آنها را مورد تجزیه و تحلیل قرار می دهد تا مشخص شود چه کلیدواژه هایی در صفحه وب وجود دارد، در کجای صفحه و چندبار تکرار شده اند و نشانی آنها بر روی وب چیست.

۴-Database:

نتیجه تجزیه و تحلیل صورت گرفته توسط Indexer برای پایگاه داده ارسال می شود. در این بخش، داده ها گروه بندی، کدگذاری و فشرده شده و در پایگاه داده عظیم موتور جستجو ذخیره می شوند.

۵-Ranker:

عمده تفاوت موجود در توانایی موتورهای جستجو برای پاسخگویی مناسب به کاربران به سیستم رتبه بندی موتور جستجو برمی گردد. در این بخش عبارت وارد شده توسط کاربر مورد بررسی قرار می گیرد و Ranker  ، نتایج موجود در پایگاه داده را بر حسب میزان ارتباط با کلیدواژه ها، به صورت نزولی مرتب می کند و به عنوان نتیجه برمی گرداند.

هر قدر سیستم رتبه بندی یک موتور قویتر باشد و پایگاه داده توانایی ذخیره سازی حجم بیشتری از اطلاعات را داشته باشد، نتایج به دست آمده از جستجو کاربرد ی تر و فاقد موارد غیرمرتبط خواهد بود.

۶-سئو (SEO)

هنگامی که کاربران، کلیدواژه های به کار رفته در محتوای وبسایت را از طریق موتورهای جستجو بررسی میکنند، نام وبسایت در رتبۀ بالاتری قرار میگیرد و طبیعتاً مراجعه به آن بیشتر خواهد شد.

بهینه سازی وبسایت برای شناسایی توسط موتورهای جستجو که به اختصار (SEO   (Search Engine Optimizatio  نام دارد یکی از مهارتهایی است که طراحان وب باید بر آن مسلط باشند.


دیدگاهتان را بنویسید

We are glad you have chosen to leave a comment. Please keep in mind that comments are moderated according to our comment policy.