ثورة المتصفح في عصر الذكاء الصناعي: من عرض المعلومات إلى استدعاء المهام
تدور حرب المتصفحات الثالثة بهدوء. منذ التسعينيات مع Netscape و Microsoft IE، إلى Firefox مفتوح المصدر و Google Chrome، كانت المنافسة في المتصفحات تجسيدًا مركزيًا لسلطة المنصات والتحولات في نماذج التكنولوجيا. استطاع Chrome بفضل سرعة التحديث والتواصل البيئي أن يحصل على مركز الهيمنة، وشكلت Google من خلال هيكل "ثنائي القطب" بين البحث والمتصفح حلقة مغلقة لدخول المعلومات.
ومع ذلك، فإن هذا النمط بدأ يتزعزع. إن ظهور نماذج اللغة الكبيرة (LLM) قد أدى إلى قيام المزيد من المستخدمين بإكمال المهام في صفحة نتائج البحث "بدون نقر"، مما يقلل من سلوك النقر التقليدي على الويب. في الوقت نفسه، فإن الشائعات حول احتمال استبدال Apple لمحرك البحث الافتراضي في Safari تهدد بشكل أكبر أساس أرباح Alphabet، وقد بدأت مخاوف السوق بشأن "الأصالة في البحث" تظهر.
تواجه المتصفح نفسه إعادة تشكيل للدور. لم يعد مجرد أداة لعرض صفحات الويب، بل أصبح حاوية تجمع بين مدخلات البيانات وسلوك المستخدم والهوية الخصوصية والعديد من القدرات الأخرى. على الرغم من قوة وكيل الذكاء الاصطناعي، إلا أنه لإتمام تفاعلات الصفحة المعقدة واستدعاء بيانات الهوية المحلية والتحكم في عناصر الصفحة، لا يزال بحاجة إلى حدود الثقة ووظائف الصندوق الرملي للمتصفح. يتطور المتصفح من واجهة بشرية إلى منصة استدعاء نظام لوكلاء الذكاء الاصطناعي.
ما يمكن أن يكسر حقًا الهيكل الحالي لسوق المتصفحات ليس "كروم" أفضل، بل هي بنية تفاعلية جديدة: ليست مجرد عرض للمعلومات، بل استدعاء للمهام. يجب أن يتم تصميم المتصفحات المستقبلية لوكلاء الذكاء الاصطناعي - ليس فقط للقراءة، ولكن أيضًا للكتابة والتنفيذ. مشاريع مثل Browser Use تحاول تحويل هيكل الصفحة إلى دلالات، وتحويل الواجهة المرئية إلى نصوص هيكلية يمكن استدعاؤها بواسطة LLM، مما يحققMapping من الصفحة إلى الأوامر ويقلل بشكل كبير من تكلفة التفاعل.
بدأت المشاريع الرئيسية في السوق تجربة جديدة: قامت Perplexity ببناء متصفح أصلي يسمى Comet، باستخدام الذكاء الاصطناعي بدلاً من نتائج البحث التقليدية؛ ودمجت Brave بين حماية الخصوصية والاستدلال المحلي، معززةً ميزات البحث والحجب باستخدام LLM؛ بينما تستهدف مشاريع مثل Donut وغيرها من المشاريع الأصلية في Crypto، مدخلات جديدة للتفاعل بين الذكاء الاصطناعي والأصول على السلسلة. تتميز هذه المشاريع جميعها بمحاولة إعادة تشكيل واجهة إدخال المتصفح، بدلاً من تحسين طبقة الإخراج.
بالنسبة لرواد الأعمال، تكمن الفرص في العلاقة الثلاثية بين الإدخال والبنية والوكيل. المتصفح كواجهة لاستدعاء العالم في المستقبل يعني أن من يمكنه تقديم "كتل القدرة" القابلة للهيكلة، والقابلة للاستدعاء، والموثوقة، يمكنه أن يصبح جزءًا من الجيل الجديد من المنصات. من تحسين محركات البحث إلى تحسين محركات الوكلاء (AEO)، ومن حركة مرور الصفحة إلى استدعاء سلسلة المهام، يتم إعادة تشكيل شكل المنتج وتفكير التصميم. تحدث الحرب الثالثة للمتصفحات في "الإدخال" وليس "العرض"؛ لم يعد من يقرر النصر والهزيمة هو من يجذب انتباه المستخدم، بل من يكسب ثقة الوكيل، ويحصل على مدخل الاستدعاء.
تاريخ تطور المتصفحات
في أوائل التسعينيات، عندما لم يكن الإنترنت قد أصبح جزءًا من الحياة اليومية بعد، ظهرت متصفح Netscape Navigator، مما فتح الأبواب أمام الملايين من المستخدمين لعالم الرقمنة. لم يكن هذا المتصفح هو الأول، لكنه كان الأول حقًا الذي توجه إلى الجماهير وشكل تجربة الإنترنت.
ومع ذلك، كانت المجد قصير الأمد. قامت مايكروسوفت بسرعة بربط إنترنت إكسبلورر في نظام تشغيل ويندوز، مما جعله المتصفح الافتراضي. تعتبر هذه الاستراتيجية "سلاح المنصة القاتل"، حيث أدت مباشرة إلى تفكيك الهيمنة السوقية لنيتسكيب. وبفضل قدرة ويندوز على التوزيع، أصبح إنترنت إكسبلورر سريعًا زعيم الصناعة، بينما سقطت نيتسكيب في مسار الانحدار.
في ظل الصعوبات، اختار مهندسو Netscape طريقًا جريئًا ومثاليًا - حيث جعلوا شفرة المصدر للمتصفح علنية، ووجهوا دعوة إلى مجتمع المصدر المفتوح. أصبحت هذه الشفرة لاحقًا أساس مشروع متصفح Mozilla، الذي سُمي في البداية بـ Phoenix (الذي يعني ولادة جديدة)، وبعد عدة تغييرات في الاسم، استقر أخيرًا على Firefox.
فايرفوكس ليس مجرد نسخة بسيطة من نتسكيب، بل حقق العديد من الاختراقات في تجربة المستخدم، وبيئة الإضافات، والأمان، وغيرها. إن ولادته تمثل انتصار الروح المفتوحة المصدر، كما أنها أضفت حيوية جديدة على الصناعة بأكملها.
في عام 1994، تم إصدار متصفح أوبرا، الذي جاء من النرويج، وكان في البداية مشروعًا تجريبيًا فقط. ولكن منذ إصدار النسخة 7.0 في عام 2003، قدم محرك Presto الذي تم تطويره داخليًا، ليكون الأول في دعم تقنيات متطورة مثل CSS والتصميم المتجاوب والتحكم الصوتي وترميز Unicode. على الرغم من العدد المحدود من المستخدمين، إلا أنه ظل دائمًا في مقدمة الصناعة من الناحية التقنية، ليصبح "المفضل لدى المهووسين".
في نفس العام، أصدرت أبل متصفح سفاري. على الرغم من أن محرك البحث الافتراضي لسفاري منذ نشأته هو جوجل، إلا أن هذه القصة المعقدة مع مايكروسوفت ترمز إلى العلاقة المعقدة والدقيقة بين عمالقة الإنترنت: التعاون والمنافسة، دائماً ما تسير جنبا إلى جنب.
في عام 2007، تم إطلاق IE7 مع Windows Vista، لكن ردود الفعل في السوق كانت متوسطة. من ناحية أخرى، حقق Firefox حصة سوقية مستقرة وصلت إلى حوالي 20% بفضل وتيرة التحديث الأسرع، وآلية الإضافات الأكثر ودية، وجاذبيته الطبيعية للمطورين. بدأت هيمنة IE تتراجع، وكانت الرياح تتغير.
تم إصدار Chrome في عام 2008، وهو مبني على مشروع Chromium مفتوح المصدر ومحرك WebKit المستخدم في Safari. وقد أطلق عليه لقب "متصفح ضخم"، لكنه صعد بسرعة بفضل مهارات Google العميقة في الإعلانات وبناء العلامات التجارية.
السلاح الرئيسي لـ Chrome ليس الوظائف، بل هو وتيرة التحديثات المتكررة (كل ستة أسابيع) وتجربة موحدة عبر جميع المنصات. في نوفمبر 2011، تجاوز Chrome Firefox لأول مرة، حيث بلغت حصته في السوق 27%؛ وبعد ستة أشهر، تجاوز Internet Explorer، مكتملًا التحول من منافس إلى متحكم.
في الوقت نفسه، بدأ الإنترنت المحمول في الصين في تشكيل نظامه البيئي الخاص. سرعان ما ارتفعت شهرة متصفح UC التابع لشركة علي بابا في أوائل العقد 2010، خاصة في الأسواق الناشئة مثل الهند وإندونيسيا والصين، حيث استحوذ على إعجاب مستخدمي الأجهزة منخفضة التكلفة بفضل تصميمه الخفيف وخصائص ضغط البيانات لتوفير البيانات. في عام 2015، تجاوزت حصة متصفح UC في السوق العالمي للمتصفحات المحمولة 17%، وبلغت في الهند 46% في فترة من الفترات. لكن هذا الفوز لم يكن دائمًا. مع قيام الحكومة الهندية بتعزيز مراجعة أمان التطبيقات الصينية، اضطر متصفح UC للخروج من سوق رئيسي، وبدأ يفقد ببطء مجده السابق.
مع بداية العقد 2020، أصبحت هيمنة كروم راسخة، حيث استقر حصة السوق العالمية عند حوالي 65%. ومن الجدير بالذكر أن محرك بحث جوجل ومتصفح كروم على الرغم من انتمائهما لشركة ألفابت، إلا أنهما يمثلان نظامين هيمنيين مستقلين من حيث السوق - حيث يتحكم الأول في حوالي 90% من مدخلات البحث العالمية، بينما يمتلك الثاني "النافذة الأولى" التي يدخل من خلالها معظم المستخدمين إلى الإنترنت.
للحفاظ على هيكل الاحتكار المزدوج هذا، استثمرت جوجل أموالاً طائلة. في عام 2022، دفعت ألفابت حوالي 20 مليار دولار لشركة آبل فقط لتبقي Google في وضع البحث الافتراضي في سفاري. أشار تحليل إلى أن هذه النفقات تعادل 36% من إيرادات إعلانات البحث التي تحصل عليها جوجل من حركة المرور في سفاري. بعبارة أخرى، تدفع جوجل "رسوم الحماية" لحماية خندقها.
لكن اتجاه الرياح تغير مرة أخرى. مع ظهور نماذج اللغة الكبيرة (LLM)، بدأت محركات البحث التقليدية تتعرض للضغط. في عام 2024، انخفضت حصة Google في سوق البحث من 93% إلى 89%، وعلى الرغم من أنها لا تزال تهيمن، إلا أن الشقوق بدأت تظهر. ما هو أكثر تقويضًا، هو الشائعات حول احتمال أن تطلق Apple محرك بحث AI خاص بها - إذا تم تغيير محرك البحث الافتراضي في Safari إلى جانبها الخاص، فإن ذلك لن يغير فقط الهيكل البيئي، بل قد يهز أيضًا الأعمدة الربحية لشركة Alphabet. استجاب السوق بسرعة، حيث انخفض سعر سهم Alphabet من 170 دولارًا إلى 140 دولارًا، مما يعكس ليس فقط ذعر المستثمرين، بل أيضًا عدم الارتياح العميق تجاه اتجاه عصر البحث في المستقبل.
من نافذة المتصفح إلى كروم، من الفكرة المفتوحة إلى الاحترافية التجارية، من المتصفح الخفيف إلى مساعد البحث الذكي، كانت المنافسة في المتصفحات دائمًا حربًا حول التكنولوجيا، المنصات، المحتوى والسلطة. تتنقل ساحة المعركة باستمرار، لكن الجوهر لم يتغير أبدًا: من يمتلك المدخل، هو من يحدد المستقبل.
في نظر رأس المال المغامر، تعتمد الحرب الثالثة للمتصفحات على الطلب الجديد من الناس على محركات البحث في عصر LLM والذكاء الاصطناعي.
بنية قديمة للمتصفحات الحديثة
عند الحديث عن بنية المتصفح، فإن الهيكل التقليدي الكلاسيكي هو كما يلي:
العميل - واجهة المستخدم الأمامية
استعلام عن أقرب واجهة أمامية من جوجل عبر HTTPS، وإجراء فك تشفير TLS، وعينات QoS، وتوجيه جغرافي. إذا تم اكتشاف حركة مرور غير طبيعية (DDoS، أو الزحف التلقائي) يمكن تحديد الحد أو التحدي في هذه الطبقة.
فهم الاستعلام
يحتاج الواجهة الأمامية إلى فهم معنى الكلمات التي يكتبها المستخدم، وهناك ثلاث خطوات: تصحيح الأخطاء الإملائية العصبية، تصحيح "recpie" إلى "recipe"؛ توسيع المرادفات، توسيع "how to fix bike" إلى "repair bicycle". تحليل النية، تحديد ما إذا كان الاستعلام يتعلق بالمعلومات أو التنقل أو نية المعاملة، وتخصيص طلبات العمودي.
استدعاء المرشحين
تُعرف تقنية الاستعلام المستخدمة من قبل Google باسم: الفهرس العكسي. في الفهرس الترتيبي، يمكننا ببساطة استخدام معرف للوصول إلى ملف. ولكن لا يمكن للمستخدمين معرفة رقم المحتوى الذي يريدونه بين مئات المليارات من الملفات، لذلك استخدموا الفهرس العكسي التقليدي، للبحث عن الملفات التي تحتوي على الكلمات الرئيسية المقابلة من خلال المحتوى. بعد ذلك، استخدم Google الفهرس المتجه لمعالجة البحث الدلالي، أي العثور على محتوى مشابه لمعنى الاستعلام. يقوم بتحويل النصوص والصور وغيرها من المحتويات إلى متجهات عالية الأبعاد (embedding)، ويبحث بناءً على التشابه بين هذه المتجهات. على سبيل المثال، حتى إذا بحث المستخدم عن "كيفية صنع عجينة البيتزا"، يمكن لمحرك البحث إرجاع نتائج مرتبطة بـ "دليل صنع عجينة البيتزا"، لأنها متشابهة دلالياً. بعد المرور عبر الفهرس العكسي والفهرس المتجه، يتم تصفية حوالي مئة ألف صفحة ويب أولياً.
الفرز المتعدد المستويات
تقوم الأنظمة عادةً بتصفية صفحات المرشحين التي تتكون من مئات الآلاف إلى حوالي 1000 صفحة باستخدام ميزات خفيفة متعددة الأبعاد مثل BM25، وTF-IDF، ودرجة جودة الصفحة، لتشكيل مجموعة المرشحين الأولية. تُعرف هذه الأنظمة بشكل عام بمحركات التوصية. تعتمد على مجموعة واسعة من الميزات الناتجة عن كيانات متعددة، بما في ذلك سلوك المستخدم، وخصائص الصفحة، ونوايا الاستعلام، وإشارات السياق. على سبيل المثال، تأخذ Google في الاعتبار تاريخ المستخدم، وتعليقات سلوك المستخدمين الآخرين، والدلالات الصفية، ومعاني الاستعلامات، بالإضافة إلى عوامل السياق مثل الوقت (الوقت خلال اليوم، الأيام المحددة في الأسبوع) والأحداث الخارجية مثل الأخبار العاجلة.
تعلم عميق لإجراء الترتيب الرئيسي
في مرحلة الاسترجاع الأولية، تستخدم Google تقنيات مثل RankBrain و Neural Matching لفهم معنى الاستعلام، وانتقاء النتائج ذات الصلة من مجموعة ضخمة من الوثائق. RankBrain هو نظام تعلم آلي قدمته Google في عام 2015، يهدف إلى فهم معنى استفسارات المستخدمين بشكل أفضل، خاصة تلك الاستفسارات التي تظهر لأول مرة. يقوم بتحويل الاستعلامات والوثائق إلى تمثيلات متجهة، ويحسب التشابه بينها، مما يساعد في العثور على النتائج الأكثر صلة. على سبيل المثال، بالنسبة للاستعلام "كيف تصنع عجينة البيتزا"، حتى لو لم تحتوي الوثيقة على كلمات رئيسية مطابقة تمامًا، يمكن لـ RankBrain التعرف على المحتوى المرتبط بـ "قاعدة البيتزا" أو "صنع العجين".
تعتبر تقنية Neural Matching التي أطلقتها Google في عام 2018 تقنية أخرى تهدف إلى فهم العلاقة الدلالية بين الاستعلامات والمستندات بشكل أعمق. تستخدم هذه التقنية نماذج الشبكات العصبية لالتقاط العلاقات الضبابية بين الكلمات، مما يساعد Google على مطابقة الاستعلامات ومحتوى صفحات الويب بشكل أفضل. على سبيل المثال، بالنسبة للاستعلام "لماذا يكون صوت مروحة الكمبيوتر المحمول لدي عالياً"، يمكن لتقنية Neural Matching فهم أن المستخدم قد يبحث عن معلومات حول استكشاف الأخطاء وإصلاحها المتعلقة بالسخونة المفرطة أو تراكم الغبار أو استخدام وحدة المعالجة المركزية العالية، حتى لو لم تظهر هذه الكلمات مباشرة في الاستعلام.
إعادة ترتيب عميقة: تطبيق نموذج BERT
بعد تصفية الوثائق ذات الصلة، تستخدم Google نموذج BERT (تمثيلات المحولات ثنائية الاتجاه) لفرز هذه الوثائق بشكل أكثر دقة لضمان ظهور النتائج الأكثر صلة في المقدمة. BERT هو نموذج لغة مدرب مسبقًا يعتمد على المحولات، قادر على فهم العلاقات السياقية للكلمات ضمن الجملة. في عمليات البحث، يتم استخدام BERT لإعادة ترتيب الوثائق التي تم استرجاعها أولياً. يقوم بحساب نقاط الصلة بين الاستعلام والوثائق من خلال ترميزها بشكل مشترك، مما يسمح بإعادة ترتيب الوثائق. على سبيل المثال، بالنسبة للاستعلام "ركن السيارة على منحدر بدون رصيف"، يمكن لـ BERT فهم معنى "بدون رصيف" وإرجاع صفحات تقترح على السائق توجيه العجلات نحو جانب الطريق، بدلاً من سوء الفهم كحالة بها رصيف. أما بالنسبة لمهندسي تحسين محركات البحث، فإنهم يحتاجون إلى دراسة دقيقة لترتيب Google وخوارزميات التوصية المعتمدة على التعلم الآلي، من أجل تحسين محتوى صفحات الويب بشكل مستهدف للحصول على عرض أعلى في الترتيب.
هذا هو النموذج النموذجي لعملية عمل محرك البحث Google. ومع ذلك، في عصر انفجار الذكاء الاصطناعي والبيانات الكبيرة الحالي، أصبح لدى المستخدمين احتياجات جديدة للتفاعل مع المتصفح.
لماذا سيعيد الذكاء الاصطناعي تشكيل المتصفح
أولاً، نحتاج إلى توضيح لماذا لا يزال هذا الشكل من المتصفح موجودًا؟ هل توجد نوع ثالث من الشكل؟
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تمكين الذكاء الاصطناعي لنظام بيئي جديد للمتصفح: ثورة من عرض المعلومات إلى استدعاء المهام الذكية
ثورة المتصفح في عصر الذكاء الصناعي: من عرض المعلومات إلى استدعاء المهام
تدور حرب المتصفحات الثالثة بهدوء. منذ التسعينيات مع Netscape و Microsoft IE، إلى Firefox مفتوح المصدر و Google Chrome، كانت المنافسة في المتصفحات تجسيدًا مركزيًا لسلطة المنصات والتحولات في نماذج التكنولوجيا. استطاع Chrome بفضل سرعة التحديث والتواصل البيئي أن يحصل على مركز الهيمنة، وشكلت Google من خلال هيكل "ثنائي القطب" بين البحث والمتصفح حلقة مغلقة لدخول المعلومات.
ومع ذلك، فإن هذا النمط بدأ يتزعزع. إن ظهور نماذج اللغة الكبيرة (LLM) قد أدى إلى قيام المزيد من المستخدمين بإكمال المهام في صفحة نتائج البحث "بدون نقر"، مما يقلل من سلوك النقر التقليدي على الويب. في الوقت نفسه، فإن الشائعات حول احتمال استبدال Apple لمحرك البحث الافتراضي في Safari تهدد بشكل أكبر أساس أرباح Alphabet، وقد بدأت مخاوف السوق بشأن "الأصالة في البحث" تظهر.
تواجه المتصفح نفسه إعادة تشكيل للدور. لم يعد مجرد أداة لعرض صفحات الويب، بل أصبح حاوية تجمع بين مدخلات البيانات وسلوك المستخدم والهوية الخصوصية والعديد من القدرات الأخرى. على الرغم من قوة وكيل الذكاء الاصطناعي، إلا أنه لإتمام تفاعلات الصفحة المعقدة واستدعاء بيانات الهوية المحلية والتحكم في عناصر الصفحة، لا يزال بحاجة إلى حدود الثقة ووظائف الصندوق الرملي للمتصفح. يتطور المتصفح من واجهة بشرية إلى منصة استدعاء نظام لوكلاء الذكاء الاصطناعي.
ما يمكن أن يكسر حقًا الهيكل الحالي لسوق المتصفحات ليس "كروم" أفضل، بل هي بنية تفاعلية جديدة: ليست مجرد عرض للمعلومات، بل استدعاء للمهام. يجب أن يتم تصميم المتصفحات المستقبلية لوكلاء الذكاء الاصطناعي - ليس فقط للقراءة، ولكن أيضًا للكتابة والتنفيذ. مشاريع مثل Browser Use تحاول تحويل هيكل الصفحة إلى دلالات، وتحويل الواجهة المرئية إلى نصوص هيكلية يمكن استدعاؤها بواسطة LLM، مما يحققMapping من الصفحة إلى الأوامر ويقلل بشكل كبير من تكلفة التفاعل.
بدأت المشاريع الرئيسية في السوق تجربة جديدة: قامت Perplexity ببناء متصفح أصلي يسمى Comet، باستخدام الذكاء الاصطناعي بدلاً من نتائج البحث التقليدية؛ ودمجت Brave بين حماية الخصوصية والاستدلال المحلي، معززةً ميزات البحث والحجب باستخدام LLM؛ بينما تستهدف مشاريع مثل Donut وغيرها من المشاريع الأصلية في Crypto، مدخلات جديدة للتفاعل بين الذكاء الاصطناعي والأصول على السلسلة. تتميز هذه المشاريع جميعها بمحاولة إعادة تشكيل واجهة إدخال المتصفح، بدلاً من تحسين طبقة الإخراج.
بالنسبة لرواد الأعمال، تكمن الفرص في العلاقة الثلاثية بين الإدخال والبنية والوكيل. المتصفح كواجهة لاستدعاء العالم في المستقبل يعني أن من يمكنه تقديم "كتل القدرة" القابلة للهيكلة، والقابلة للاستدعاء، والموثوقة، يمكنه أن يصبح جزءًا من الجيل الجديد من المنصات. من تحسين محركات البحث إلى تحسين محركات الوكلاء (AEO)، ومن حركة مرور الصفحة إلى استدعاء سلسلة المهام، يتم إعادة تشكيل شكل المنتج وتفكير التصميم. تحدث الحرب الثالثة للمتصفحات في "الإدخال" وليس "العرض"؛ لم يعد من يقرر النصر والهزيمة هو من يجذب انتباه المستخدم، بل من يكسب ثقة الوكيل، ويحصل على مدخل الاستدعاء.
تاريخ تطور المتصفحات
في أوائل التسعينيات، عندما لم يكن الإنترنت قد أصبح جزءًا من الحياة اليومية بعد، ظهرت متصفح Netscape Navigator، مما فتح الأبواب أمام الملايين من المستخدمين لعالم الرقمنة. لم يكن هذا المتصفح هو الأول، لكنه كان الأول حقًا الذي توجه إلى الجماهير وشكل تجربة الإنترنت.
ومع ذلك، كانت المجد قصير الأمد. قامت مايكروسوفت بسرعة بربط إنترنت إكسبلورر في نظام تشغيل ويندوز، مما جعله المتصفح الافتراضي. تعتبر هذه الاستراتيجية "سلاح المنصة القاتل"، حيث أدت مباشرة إلى تفكيك الهيمنة السوقية لنيتسكيب. وبفضل قدرة ويندوز على التوزيع، أصبح إنترنت إكسبلورر سريعًا زعيم الصناعة، بينما سقطت نيتسكيب في مسار الانحدار.
في ظل الصعوبات، اختار مهندسو Netscape طريقًا جريئًا ومثاليًا - حيث جعلوا شفرة المصدر للمتصفح علنية، ووجهوا دعوة إلى مجتمع المصدر المفتوح. أصبحت هذه الشفرة لاحقًا أساس مشروع متصفح Mozilla، الذي سُمي في البداية بـ Phoenix (الذي يعني ولادة جديدة)، وبعد عدة تغييرات في الاسم، استقر أخيرًا على Firefox.
فايرفوكس ليس مجرد نسخة بسيطة من نتسكيب، بل حقق العديد من الاختراقات في تجربة المستخدم، وبيئة الإضافات، والأمان، وغيرها. إن ولادته تمثل انتصار الروح المفتوحة المصدر، كما أنها أضفت حيوية جديدة على الصناعة بأكملها.
في عام 1994، تم إصدار متصفح أوبرا، الذي جاء من النرويج، وكان في البداية مشروعًا تجريبيًا فقط. ولكن منذ إصدار النسخة 7.0 في عام 2003، قدم محرك Presto الذي تم تطويره داخليًا، ليكون الأول في دعم تقنيات متطورة مثل CSS والتصميم المتجاوب والتحكم الصوتي وترميز Unicode. على الرغم من العدد المحدود من المستخدمين، إلا أنه ظل دائمًا في مقدمة الصناعة من الناحية التقنية، ليصبح "المفضل لدى المهووسين".
في نفس العام، أصدرت أبل متصفح سفاري. على الرغم من أن محرك البحث الافتراضي لسفاري منذ نشأته هو جوجل، إلا أن هذه القصة المعقدة مع مايكروسوفت ترمز إلى العلاقة المعقدة والدقيقة بين عمالقة الإنترنت: التعاون والمنافسة، دائماً ما تسير جنبا إلى جنب.
في عام 2007، تم إطلاق IE7 مع Windows Vista، لكن ردود الفعل في السوق كانت متوسطة. من ناحية أخرى، حقق Firefox حصة سوقية مستقرة وصلت إلى حوالي 20% بفضل وتيرة التحديث الأسرع، وآلية الإضافات الأكثر ودية، وجاذبيته الطبيعية للمطورين. بدأت هيمنة IE تتراجع، وكانت الرياح تتغير.
تم إصدار Chrome في عام 2008، وهو مبني على مشروع Chromium مفتوح المصدر ومحرك WebKit المستخدم في Safari. وقد أطلق عليه لقب "متصفح ضخم"، لكنه صعد بسرعة بفضل مهارات Google العميقة في الإعلانات وبناء العلامات التجارية.
السلاح الرئيسي لـ Chrome ليس الوظائف، بل هو وتيرة التحديثات المتكررة (كل ستة أسابيع) وتجربة موحدة عبر جميع المنصات. في نوفمبر 2011، تجاوز Chrome Firefox لأول مرة، حيث بلغت حصته في السوق 27%؛ وبعد ستة أشهر، تجاوز Internet Explorer، مكتملًا التحول من منافس إلى متحكم.
في الوقت نفسه، بدأ الإنترنت المحمول في الصين في تشكيل نظامه البيئي الخاص. سرعان ما ارتفعت شهرة متصفح UC التابع لشركة علي بابا في أوائل العقد 2010، خاصة في الأسواق الناشئة مثل الهند وإندونيسيا والصين، حيث استحوذ على إعجاب مستخدمي الأجهزة منخفضة التكلفة بفضل تصميمه الخفيف وخصائص ضغط البيانات لتوفير البيانات. في عام 2015، تجاوزت حصة متصفح UC في السوق العالمي للمتصفحات المحمولة 17%، وبلغت في الهند 46% في فترة من الفترات. لكن هذا الفوز لم يكن دائمًا. مع قيام الحكومة الهندية بتعزيز مراجعة أمان التطبيقات الصينية، اضطر متصفح UC للخروج من سوق رئيسي، وبدأ يفقد ببطء مجده السابق.
مع بداية العقد 2020، أصبحت هيمنة كروم راسخة، حيث استقر حصة السوق العالمية عند حوالي 65%. ومن الجدير بالذكر أن محرك بحث جوجل ومتصفح كروم على الرغم من انتمائهما لشركة ألفابت، إلا أنهما يمثلان نظامين هيمنيين مستقلين من حيث السوق - حيث يتحكم الأول في حوالي 90% من مدخلات البحث العالمية، بينما يمتلك الثاني "النافذة الأولى" التي يدخل من خلالها معظم المستخدمين إلى الإنترنت.
للحفاظ على هيكل الاحتكار المزدوج هذا، استثمرت جوجل أموالاً طائلة. في عام 2022، دفعت ألفابت حوالي 20 مليار دولار لشركة آبل فقط لتبقي Google في وضع البحث الافتراضي في سفاري. أشار تحليل إلى أن هذه النفقات تعادل 36% من إيرادات إعلانات البحث التي تحصل عليها جوجل من حركة المرور في سفاري. بعبارة أخرى، تدفع جوجل "رسوم الحماية" لحماية خندقها.
لكن اتجاه الرياح تغير مرة أخرى. مع ظهور نماذج اللغة الكبيرة (LLM)، بدأت محركات البحث التقليدية تتعرض للضغط. في عام 2024، انخفضت حصة Google في سوق البحث من 93% إلى 89%، وعلى الرغم من أنها لا تزال تهيمن، إلا أن الشقوق بدأت تظهر. ما هو أكثر تقويضًا، هو الشائعات حول احتمال أن تطلق Apple محرك بحث AI خاص بها - إذا تم تغيير محرك البحث الافتراضي في Safari إلى جانبها الخاص، فإن ذلك لن يغير فقط الهيكل البيئي، بل قد يهز أيضًا الأعمدة الربحية لشركة Alphabet. استجاب السوق بسرعة، حيث انخفض سعر سهم Alphabet من 170 دولارًا إلى 140 دولارًا، مما يعكس ليس فقط ذعر المستثمرين، بل أيضًا عدم الارتياح العميق تجاه اتجاه عصر البحث في المستقبل.
من نافذة المتصفح إلى كروم، من الفكرة المفتوحة إلى الاحترافية التجارية، من المتصفح الخفيف إلى مساعد البحث الذكي، كانت المنافسة في المتصفحات دائمًا حربًا حول التكنولوجيا، المنصات، المحتوى والسلطة. تتنقل ساحة المعركة باستمرار، لكن الجوهر لم يتغير أبدًا: من يمتلك المدخل، هو من يحدد المستقبل.
في نظر رأس المال المغامر، تعتمد الحرب الثالثة للمتصفحات على الطلب الجديد من الناس على محركات البحث في عصر LLM والذكاء الاصطناعي.
بنية قديمة للمتصفحات الحديثة
عند الحديث عن بنية المتصفح، فإن الهيكل التقليدي الكلاسيكي هو كما يلي:
العميل - واجهة المستخدم الأمامية
استعلام عن أقرب واجهة أمامية من جوجل عبر HTTPS، وإجراء فك تشفير TLS، وعينات QoS، وتوجيه جغرافي. إذا تم اكتشاف حركة مرور غير طبيعية (DDoS، أو الزحف التلقائي) يمكن تحديد الحد أو التحدي في هذه الطبقة.
فهم الاستعلام
يحتاج الواجهة الأمامية إلى فهم معنى الكلمات التي يكتبها المستخدم، وهناك ثلاث خطوات: تصحيح الأخطاء الإملائية العصبية، تصحيح "recpie" إلى "recipe"؛ توسيع المرادفات، توسيع "how to fix bike" إلى "repair bicycle". تحليل النية، تحديد ما إذا كان الاستعلام يتعلق بالمعلومات أو التنقل أو نية المعاملة، وتخصيص طلبات العمودي.
استدعاء المرشحين
تُعرف تقنية الاستعلام المستخدمة من قبل Google باسم: الفهرس العكسي. في الفهرس الترتيبي، يمكننا ببساطة استخدام معرف للوصول إلى ملف. ولكن لا يمكن للمستخدمين معرفة رقم المحتوى الذي يريدونه بين مئات المليارات من الملفات، لذلك استخدموا الفهرس العكسي التقليدي، للبحث عن الملفات التي تحتوي على الكلمات الرئيسية المقابلة من خلال المحتوى. بعد ذلك، استخدم Google الفهرس المتجه لمعالجة البحث الدلالي، أي العثور على محتوى مشابه لمعنى الاستعلام. يقوم بتحويل النصوص والصور وغيرها من المحتويات إلى متجهات عالية الأبعاد (embedding)، ويبحث بناءً على التشابه بين هذه المتجهات. على سبيل المثال، حتى إذا بحث المستخدم عن "كيفية صنع عجينة البيتزا"، يمكن لمحرك البحث إرجاع نتائج مرتبطة بـ "دليل صنع عجينة البيتزا"، لأنها متشابهة دلالياً. بعد المرور عبر الفهرس العكسي والفهرس المتجه، يتم تصفية حوالي مئة ألف صفحة ويب أولياً.
الفرز المتعدد المستويات
تقوم الأنظمة عادةً بتصفية صفحات المرشحين التي تتكون من مئات الآلاف إلى حوالي 1000 صفحة باستخدام ميزات خفيفة متعددة الأبعاد مثل BM25، وTF-IDF، ودرجة جودة الصفحة، لتشكيل مجموعة المرشحين الأولية. تُعرف هذه الأنظمة بشكل عام بمحركات التوصية. تعتمد على مجموعة واسعة من الميزات الناتجة عن كيانات متعددة، بما في ذلك سلوك المستخدم، وخصائص الصفحة، ونوايا الاستعلام، وإشارات السياق. على سبيل المثال، تأخذ Google في الاعتبار تاريخ المستخدم، وتعليقات سلوك المستخدمين الآخرين، والدلالات الصفية، ومعاني الاستعلامات، بالإضافة إلى عوامل السياق مثل الوقت (الوقت خلال اليوم، الأيام المحددة في الأسبوع) والأحداث الخارجية مثل الأخبار العاجلة.
تعلم عميق لإجراء الترتيب الرئيسي
في مرحلة الاسترجاع الأولية، تستخدم Google تقنيات مثل RankBrain و Neural Matching لفهم معنى الاستعلام، وانتقاء النتائج ذات الصلة من مجموعة ضخمة من الوثائق. RankBrain هو نظام تعلم آلي قدمته Google في عام 2015، يهدف إلى فهم معنى استفسارات المستخدمين بشكل أفضل، خاصة تلك الاستفسارات التي تظهر لأول مرة. يقوم بتحويل الاستعلامات والوثائق إلى تمثيلات متجهة، ويحسب التشابه بينها، مما يساعد في العثور على النتائج الأكثر صلة. على سبيل المثال، بالنسبة للاستعلام "كيف تصنع عجينة البيتزا"، حتى لو لم تحتوي الوثيقة على كلمات رئيسية مطابقة تمامًا، يمكن لـ RankBrain التعرف على المحتوى المرتبط بـ "قاعدة البيتزا" أو "صنع العجين".
تعتبر تقنية Neural Matching التي أطلقتها Google في عام 2018 تقنية أخرى تهدف إلى فهم العلاقة الدلالية بين الاستعلامات والمستندات بشكل أعمق. تستخدم هذه التقنية نماذج الشبكات العصبية لالتقاط العلاقات الضبابية بين الكلمات، مما يساعد Google على مطابقة الاستعلامات ومحتوى صفحات الويب بشكل أفضل. على سبيل المثال، بالنسبة للاستعلام "لماذا يكون صوت مروحة الكمبيوتر المحمول لدي عالياً"، يمكن لتقنية Neural Matching فهم أن المستخدم قد يبحث عن معلومات حول استكشاف الأخطاء وإصلاحها المتعلقة بالسخونة المفرطة أو تراكم الغبار أو استخدام وحدة المعالجة المركزية العالية، حتى لو لم تظهر هذه الكلمات مباشرة في الاستعلام.
إعادة ترتيب عميقة: تطبيق نموذج BERT
بعد تصفية الوثائق ذات الصلة، تستخدم Google نموذج BERT (تمثيلات المحولات ثنائية الاتجاه) لفرز هذه الوثائق بشكل أكثر دقة لضمان ظهور النتائج الأكثر صلة في المقدمة. BERT هو نموذج لغة مدرب مسبقًا يعتمد على المحولات، قادر على فهم العلاقات السياقية للكلمات ضمن الجملة. في عمليات البحث، يتم استخدام BERT لإعادة ترتيب الوثائق التي تم استرجاعها أولياً. يقوم بحساب نقاط الصلة بين الاستعلام والوثائق من خلال ترميزها بشكل مشترك، مما يسمح بإعادة ترتيب الوثائق. على سبيل المثال، بالنسبة للاستعلام "ركن السيارة على منحدر بدون رصيف"، يمكن لـ BERT فهم معنى "بدون رصيف" وإرجاع صفحات تقترح على السائق توجيه العجلات نحو جانب الطريق، بدلاً من سوء الفهم كحالة بها رصيف. أما بالنسبة لمهندسي تحسين محركات البحث، فإنهم يحتاجون إلى دراسة دقيقة لترتيب Google وخوارزميات التوصية المعتمدة على التعلم الآلي، من أجل تحسين محتوى صفحات الويب بشكل مستهدف للحصول على عرض أعلى في الترتيب.
هذا هو النموذج النموذجي لعملية عمل محرك البحث Google. ومع ذلك، في عصر انفجار الذكاء الاصطناعي والبيانات الكبيرة الحالي، أصبح لدى المستخدمين احتياجات جديدة للتفاعل مع المتصفح.
لماذا سيعيد الذكاء الاصطناعي تشكيل المتصفح
أولاً، نحتاج إلى توضيح لماذا لا يزال هذا الشكل من المتصفح موجودًا؟ هل توجد نوع ثالث من الشكل؟