هاست لینوکس

آخرین بسته‌ی MyBB: نسخه‌ی 1.8.27 MyBB منتشر شد


امتیاز موضوع:
  • 0 رأی - میانگین امتیازات: 0
  • 1
  • 2
  • 3
  • 4
  • 5
یک سوال تکراری اما مهم: سئو چیست؟
#1
از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب اولیه کردند، مسئولان وب سایت‌ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی سایت‌ها برای موتورهای جستجو نمودند. در ابتدا تمام کارهایی که مسئولان وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه یا URL به موتورهای مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود. فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آنرا در سرور موتور جستجو ذخیره می‌کند و یک برنامه دیگر موسوم به ایندکس کننده، اطلاعات مختلفی را درباره صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آن‌ها در صفحه، و نیز وزن خاص واژه‌های بخصوص، و تمام لینک‌های موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار می‌گیرد. 
صاحبان سایت‌ها شروع به باز‌شناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا کرد

 



طبق نظر یک تحلیل گر صنعتی به نام Danny Sullivan عبارت بهینه‌سازی موتور جستجو احتمالا در سالهای ۱۹۹۷ مورد استفاده قرار گرفت. در ۲ ماه می‌۲۰۰۷، Jason Gambert تلاش کرد تا دفتر ثبت علائم تجاری Arizona را متقاعد کند که (SEO) فرآیندی است شامل دستکاری واژگان کلیدی و نه یک سرویس بازاریابی و از این طریق واژه (SEO) را به عنوان علامت تجاری ثبت کند. وکیل بررسی کننده پرونده، استدلال نامنسجم وی را مبنی بر اینکه «وقتی (SEO) نمی‌تواند ثبت تجاری شود آن هم به دلیل اینکه به یک فرایند عمومی دستکاری واژگان کلیدی اتلاق می‌گردد، می‌تواند یک علامت خدماتی برای تأمین خدمات بازاریابی در حوزه کامپیو‌تر باشد». 
نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مسئولان وب سایت‌ها نظیر meta tag واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ALIWEB اعتماد و اتکا می‌کردند متاتگ‌ها یک راهنمایی برای محتوای هر صفحه فراهم می‌کنند. با اینحال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط مسئولان وب سایت‌ها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع HTML یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.  اما هنوز راه درازی را تا سئو سایت داشتند.
با تاکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مسئول وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مسئولان شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند. از آنجاییکه موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط‌تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبه بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مسئولان شبکه، سخت‌تر می‌سازند. Larry page و Sergey Brin دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به Backrub را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عدی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی‌تر بوده، رتبه صفحه بالا‌تر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد. 

Page و Brin، Google را در سال ۱۹۹۸ بنیان‌گذاری کردند. Google درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی وب سایت ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید. علیرغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مسئولان شبکه سرانجام ابزار‌ها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی Inktomi توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند. 
تا سال ۲۰۰۴، موتورهای جستجو، طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه بندی خود جای داده بودند تا اثر دستکاری لینک‌ها را کاهش دهند. در ژوئن ۲۰۰۷، یک گزارشگر از نیویورک تایمز بنام Saul Hansell گفت که گوگل، رتبه بندی سایت‌ها را با استفاده از بیش ۲۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی Google، Bing، Yahoo الگوریتم‌های رتبه بندی‌های خود را افشا نمی‌کنند. برخی از شاغلان در SEO روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند. ثبت اختراع‌های مربوط به موتورهای جستجو می‌تواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم نماید. 


در سال ۲۰۰۵، شروع به شخصی سازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آن‌ها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شده‌اند. در سال ۲۰۰۸، Bruce Clay گفت که «رتبه بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار کرد که بحث در مورد نحوه رتبه بندی یک وب سایت بی‌معنی است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند متفاوت باشد. 
در سال ۲۰۰۷، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های nofollow در لینک‌ها، اثر مدلسازی رتبه صفحه را کاهش دهد. Matt Cutts یک مهندس نرم‌افزار شناخته شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات SEO را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از nofollow منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان SEO تکنیک‌های جایگزینی را توسعه دادند که تگ‌های nofollow شده را با Javascript مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را می‌سر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از iframes، Flash، Javascript می‌شود.
پاسخ
#2
توضیحات خیلی مفید در مورد بهینه سازی سایت در موتورهای جستجو ارائه دادید و امروزه دغدغه همه اونهایی که سایت سفارش میدن به تعریف عامیانه بالا اومدن در موتورهای جستجو علی الخصوص گوگل هستش با تشکر
پاسخ
 سپاس شده توسطشماره مجازی (۱۴۰۱/۸/۲۶، ۰۱:۵۳:۲۰ صبح) ، گراف مسنجر (۱۴۰۱/۱۰/۳، ۰۴:۱۵:۱۹ صبح) ، چارتر ۴۲۴ (۱۴۰۲/۹/۱۲، ۱۵:۱۶:۵۴ عصر)


پرش به انجمن:


کاربرانِ درحال بازدید از این موضوع: 1 مهمان