SEO
محرك البحث الأمثل هو عملية تحسين نوعية وكمية حركة المرور على شبكة الانترنت إلى موقع على شبكة الانترنت أو صفحة على شبكة الإنترنت من محركات البحث. يستهدف SEO حركة المرور غير المدفوعة بدلا من حركة المرور المباشرة أو حركة المرور المدفوعة. قد تنشأ حركة المرور غير المدفوعة من أنواع مختلفة من عمليات البحث، بما في ذلك البحث عن الصور، والبحث عن الفيديو، والبحث الأكاديمي، والبحث عن الأخبار، ومحركات البحث الرأسية الخاصة بالصناعة.
كاستراتيجية التسويق عبر الإنترنت ، وكبار المسئولين الاقتصاديين تنظر في كيفية عمل محركات البحث ، والخوارزميات المبرمجة بالكمبيوتر التي تملي سلوك محرك البحث ، ما يبحث عنه الناس ، ومصطلحات البحث الفعلية أو الكلمات الرئيسية المكتوبة في محركات البحث ، والتي يفضلها جمهورها المستهدف. يتم تنفيذ كبار المسئولين الاقتصاديين لأن موقع على شبكة الانترنت سوف تتلقى المزيد من الزوار من محرك البحث عندما المواقع رتبة أعلى على صفحة نتائج محرك البحث. ويمكن بعد ذلك تحويل هؤلاء الزوار إلى عملاء.
تاريخ محركات البحث
بدأ مشرفو المواقع ومقدمو المحتوى في تحسين مواقع الويب لمحركات البحث في منتصف التسعينيات ، حيث كانت محركات البحث الأولى تفهرس الويب المبكر. في البداية، كان جميع مشرفي المواقع بحاجة فقط إلى إرسال عنوان صفحة أو عنوان URL إلى محركات مختلفة ترسل زاحف ويب لتتبع ارتباطات تلك الصفحة، واستخراج ارتباطات إلى صفحات أخرى منها، وإعادة المعلومات الموجودة على الصفحة المراد فهرستها. تتضمن العملية عنكبوت محرك بحث يقوم بتنزيل صفحة وتخزينها على خادم محرك البحث نفسه. يقوم برنامج ثان، يعرف باسم مفهرس، باستخراج معلومات حول الصفحة، مثل الكلمات التي تحتوي عليها، ومكان وجودها، وأي وزن لكلمات معينة، بالإضافة إلى كافة الارتباطات التي تحتوي عليها الصفحة. ثم يتم وضع كافة هذه المعلومات في جدولة للزحف في وقت لاحق.
أدرك أصحاب مواقع الويب قيمة التصنيف العالي والوضوح في نتائج محرك البحث ، مما خلق فرصة لكل من ممارسي القبعة البيضاء والقبعة السوداء SEO. وفقا لمحلل الصناعة داني سوليفان ، فإن عبارة "محرك البحث الأمثل" ربما دخلت حيز الاستخدام في عام 1997. سوليفان الائتمانات بروس كلاي باعتبارها واحدة من أول الناس لتعميم هذا المصطلح.
اعتمدت الإصدارات المبكرة من خوارزميات البحث على المعلومات التي قدمها مشرف الموقع مثل علامة تعريف الكلمة الرئيسية أو ملفات الفهرس في محركات مثل ALIWEB. توفر العلامات الوصفية دليلا لمحتوى كل صفحة. ومع ذلك، وجد أن استخدام البيانات الوصفية لفهرسة الصفحات أقل من موثوق به، لأن اختيار مشرف الموقع للكلمات الرئيسية في العلامة الوصفية قد يكون تمثيلا غير دقيق للمحتوى الفعلي للموقع. خلقت البيانات المعيبة في العلامات الوصفية مثل تلك التي لم تكن دقيقة أو كاملة أو سمات زائفة إمكانية أن يساء توصيف الصفحات في عمليات البحث غير ذات الصلة. كما تلاعب موفرو محتوى الويب ببعض السمات داخل مصدر HTML للصفحة في محاولة لترتيبها بشكل جيد في محركات البحث. بحلول عام 1997 ، أدرك مصممو محركات البحث أن مشرفي المواقع يبذلون جهودا لترتيبهم بشكل جيد في محرك البحث الخاص بهم ، وأن بعض مشرفي المواقع كانوا يتلاعبون حتى بتصنيفاتهم في نتائج البحث عن طريق حشو الصفحات بكلمات رئيسية مفرطة أو غير ذات صلة. وعدلت محركات البحث المبكرة، مثل Altavista وInfoseek، خوارزمياتها لمنع مشرفي المواقع من التلاعب بالتصنيفات.
من خلال الاعتماد بشكل كبير على عوامل مثل كثافة الكلمات الرئيسية ، والتي كانت حصرا تحت سيطرة مشرف الموقع ، عانت محركات البحث المبكرة من سوء الاستخدام والتلاعب في الترتيب. لتوفير نتائج أفضل لمستخدميها ، كان على محركات البحث التكيف لضمان أن تظهر صفحات نتائجها نتائج البحث الأكثر ملاءمة ، بدلا من الصفحات غير ذات الصلة المحشوة بالعديد من الكلمات الرئيسية من قبل مشرفي المواقع عديمي الضمير. وهذا يعني الابتعاد عن الاعتماد الشديد على كثافة المصطلح إلى عملية أكثر شمولية لتسجيل الإشارات الدلالية. وبما أن نجاح محرك البحث وشعبيته يتحددان بقدرته على تحقيق النتائج الأكثر صلة بأي بحث معين، فإن رداءة الجودة أو نتائج البحث غير ذات الصلة يمكن أن تؤدي بالمستخدمين إلى العثور على مصادر بحث أخرى. واستجابت محركات البحث من خلال تطوير خوارزميات تصنيف أكثر تعقيدا، مع الأخذ في الاعتبار عوامل إضافية كانت أكثر صعوبة بالنسبة لمشرفي المواقع للتلاعب بها.
يمكن للشركات التي تستخدم تقنيات عدوانية بشكل مفرط الحصول على مواقع عملائها المحظورة من نتائج البحث. وفي عام 2005، نشرت صحيفة وول ستريت جورنال تقريرا عن شركة تناقلت قوة المرور، يزعم أنها استخدمت تقنيات عالية الخطورة ولم تكشف عن تلك المخاطر لعملائها. وذكرت مجلة السلكية أن نفس الشركة رفع دعوى قضائية ضد المدون وكبار المسئولين الاقتصاديين آرون الجدار للكتابة عن الحظر. جوجل مات Cutts أكد في وقت لاحق أن جوجل لم تحظر في الواقع حركة المرور السلطة وبعض عملائها.
وقد وصلت بعض محركات البحث أيضا إلى صناعة كبار المسئولين الاقتصاديين ، والرعاة والضيوف المتكررين في المؤتمرات كبار المسئولين الاقتصاديين ، webchats ، والحلقات الدراسية. محركات البحث الرئيسية توفر المعلومات والمبادئ التوجيهية للمساعدة في تحسين الموقع. توفر أدوات مشرفي المواقع Bing طريقة لمشرفي المواقع لإرسال ملف sitemap وموجز ويب، وتتيح للمستخدمين تحديد "معدل الزحف"، وتتبع حالة فهرس صفحات الويب.
في عام 2015، أفيد أن Google تقوم بتطوير وتعزيز البحث عبر الهاتف المحمول كميزة رئيسية في المنتجات المستقبلية. واستجابة لذلك، بدأت العديد من العلامات التجارية في اتباع نهج مختلف في استراتيجيات التسويق عبر الإنترنت.
العلاقة مع جوجل
في عام 1998، طور طالبان دراسات عليا في جامعة ستانفورد، لاري بيج وسيرجي برين، "Backrub"، وهو محرك بحث يعتمد على خوارزمية رياضية لتقييم أهمية صفحات الويب. الرقم المحسوب بواسطة الخوارزمية، PageRank، هو دالة لكمية وقوة الارتباطات الواردة. تقدر PageRank احتمالية الوصول إلى صفحة معينة من قبل مستخدم ويب يقوم بتصفح الويب عشوائيا ، ويتبع روابط من صفحة إلى أخرى. في الواقع ، وهذا يعني أن بعض الروابط أقوى من غيرها ، حيث أن صفحة ترتيب الصفحات الأعلى من المرجح أن يتم الوصول إليها من قبل متصفح الويب العشوائي
الصفحة وبرين تأسست جوجل في عام 1998. جذبت Google متابعين مخلصين بين العدد المتزايد من مستخدمي الإنترنت ، الذين أحبوا تصميمها البسيط. تم النظر في عوامل خارج الصفحة وكذلك عوامل على الصفحة لتمكين Google من تجنب هذا النوع من التلاعب الذي شوهد في محركات البحث التي نظرت فقط في العوامل على الصفحة لترتيبها. على الرغم من أن PageRank كان أكثر صعوبة في اللعبة ، إلا أن مشرفي المواقع قد طوروا بالفعل أدوات ومخططات بناء الارتباط للتأثير على محرك بحث Inktomi ، وقد أثبتت هذه الأساليب أنها تنطبق بالمثل على ترتيب صفحات الألعاب. ركزت العديد من المواقع على تبادل وشراء وبيع الروابط ، وغالبا على نطاق واسع. وشملت بعض هذه المخططات، أو ربط المزارع، إنشاء آلاف المواقع لغرض وحيد هو ربط البريد المزعج
وبحلول عام 2004، كانت محركات البحث قد أدرجت مجموعة واسعة من العوامل غير المعلنة في خوارزميات تصنيفها للحد من تأثير التلاعب بالوصلات. في يونيو 2007، ذكر سول هانسيل من صحيفة نيويورك تايمز أن جوجل تصنف المواقع باستخدام أكثر من 200 إشارة مختلفة. محركات البحث الرائدة ، وجوجل ، بنج ، وياهو ، لا تكشف عن الخوارزميات التي يستخدمونها لترتيب الصفحات. وقد درس بعض الممارسين كبار المسئولين الاقتصاديين نهج مختلفة لتحسين محرك البحث ، وتبادلوا آرائهم الشخصية. يمكن أن توفر براءات الاختراع المتعلقة بمحركات البحث معلومات لفهم محركات البحث بشكل أفضل. في عام 2005، بدأت Google في تخصيص نتائج البحث لكل مستخدم. اعتمادا على تاريخ عمليات البحث السابقة، وضعت Google نتائج للمستخدمين المسجلين
في عام 2007، أعلنت Google عن حملة ضد الروابط المدفوعة التي تنقل ترتيب الصفحات. في 15 يونيو 2009 ، كشفت Google أنها اتخذت تدابير للتخفيف من آثار نحت PageRank باستخدام سمة nofollow على الروابط. مات Cutts ، وهو مهندس البرمجيات المعروفة في جوجل ، وأعلن أن جوجل بوت لن يعامل أي روابط nofollow ، بنفس الطريقة ، لمنع مقدمي خدمات كبار المسئولين الاقتصاديين من استخدام nofollow للنحت PageRank. ونتيجة لهذا التغيير أدى استخدام nofollow إلى تبخر ترتيب الصفحات. من أجل تجنب ما سبق ، طور مهندسو SEO تقنيات بديلة تحل محل العلامات غير التالية ب JavaScript المبهم وبالتالي تسمح بنحت PageRank. بالإضافة إلى ذلك تم اقتراح العديد من الحلول التي تشمل استخدام iframes وفلاش وجافا سكريبت
في ديسمبر 2009، أعلنت Google أنها ستستخدم سجل البحث على الويب لجميع مستخدميها من أجل نشر نتائج البحث. في 8 يونيو 2010 تم الإعلان عن نظام فهرسة ويب جديد يسمى Google Caffeine. تم تصميم Google Caffeine للسماح للمستخدمين بالعثور على نتائج الأخبار ومشاركات المنتدى والمحتوى الآخر في وقت أقرب بكثير بعد النشر من ذي قبل ، وكان تغييرا في الطريقة التي حدثت بها Google مؤشرها من أجل جعل الأشياء تظهر بشكل أسرع على Google من ذي قبل. وفقا لكاري غرايمز، مهندس البرمجيات الذي أعلن الكافيين لجوجل، "الكافيين يوفر 50 في المئة نتائج أعذب لعمليات البحث على شبكة الإنترنت من مؤشرنا الماضي..." تم تقديم بحث Google الفوري في الوقت الفعلي في أواخر عام 2010 في محاولة لجعل نتائج البحث أكثر ملاءمة وملاءمة. تاريخيا، أمضى مسؤولو الموقع شهورا أو حتى سنوات في تحسين موقع ويب لزيادة تصنيفات البحث. مع نمو شعبية مواقع التواصل الاجتماعي والمدونات ، قامت المحركات الرائدة بإجراء تغييرات على خوارزمياتها للسماح للمحتوى الجديد بالرتبة بسرعة ضمن نتائج البحث
في فبراير 2011، أعلنت Google عن تحديث Panda، الذي يعاقب المواقع التي تحتوي على محتوى مكرر من مواقع ومصادر أخرى. تاريخيا نسخ المواقع محتوى من بعضها البعض ، واستفادت في تصنيفات محرك البحث من خلال الانخراط في هذه الممارسة. ومع ذلك، نفذت Google نظاما جديدا يعاقب المواقع التي لا يكون محتواها فريدا. حاول البطريق جوجل 2012 لمعاقبة المواقع التي تستخدم تقنيات التلاعب لتحسين تصنيفاتها على محرك البحث. على الرغم من أن غوغل البطريق قد قدمت على أنها خوارزمية تهدف إلى مكافحة البريد المزعج على شبكة الإنترنت ، فإنه يركز حقا على روابط spammy عن طريق قياس نوعية المواقع وصلات قادمة من. 2013 جوجل Hummingbird التحديث ظهرت تغيير خوارزمية تهدف إلى تحسين جوجل .
يجب عليك تسجيل الدخول لتستطيع كتابة تعليق