ثورة المتصفح في عصر الذكاء الاصطناعي: من البحث إلى الوكلاء الأذكياء
تجري حرب المتصفحات الثالثة بصمت. من Netscape في التسعينيات وIE من Microsoft، إلى Firefox بروح المصدر المفتوح وChrome من Google، كانت المنافسة بين المتصفحات تجسيداً مركزياً لسلطة المنصة وانتقال نماذج التكنولوجيا. تمكن Chrome من تحقيق الهيمنة بفضل سرعة التحديث والترابط البيئي، بينما شكلت Google من خلال الهيكل "ثنائي القطب" بين محرك البحث والمتصفح حلقة مغلقة لدخول المعلومات.
ومع ذلك، فإن هذا النمط بدأ يتزعزع. إن صعود نماذج اللغة الكبيرة (LLM) جعل المزيد من المستخدمين ينجزون مهامهم في صفحة نتائج البحث "بدون نقر"، مما يقلل من سلوك النقر التقليدي على صفحات الويب. في الوقت نفسه، فإن الشائعات حول إمكانية استبدال عملاق التكنولوجيا الافتراضي لمحرك البحث الافتراضي في متصفحه تهدد أساس أرباح الشركة الأم لـ Google، وقد بدأ السوق يظهر علامات القلق تجاه "الممارسات التقليدية في البحث".
تواجه المتصفحات نفسها إعادة تشكيل لدورها. لم تعد مجرد أداة لعرض صفحات الويب، بل أصبحت حاوية تجمع بين قدرات إدخال البيانات، وسلوك المستخدم، والخصوصية والهويات. على الرغم من قوة الوكلاء الذكاء الاصطناعي، فإنه لا يزال يتعين عليهم الاعتماد على حدود الثقة وبيئة عمل المتصفح لإجراء تفاعلات معقدة على الصفحات، واستدعاء بيانات الهوية المحلية، والتحكم في عناصر الويب. يتحول المتصفح من واجهة بشرية إلى منصة استدعاء نظام للوكلاء.
ما يمكن أن يكسر فعلاً هيكل سوق المتصفحات الحالي ليس "كروم" آخر "أفضل"، بل هي بنية تفاعلية جديدة: ليست مجرد عرض للمعلومات، بل استدعاء للمهام. يجب أن تصمم المتصفحات المستقبلية من أجل وكيل الذكاء الاصطناعي --- ليس فقط للقراءة، بل أيضاً للكتابة والتنفيذ. تحاول بعض المشاريع جعل هيكل الصفحة دلالياً، وتحويل الواجهة المرئية إلى نصوص هيكلية قابلة للاستدعاء من قبل نماذج اللغة الكبيرة، مما يحقق تMapping بين الصفحة والأوامر، ويقلل بشكل كبير من تكلفة التفاعل.
بدأت المشاريع الرئيسية في السوق تجربتها: قامت محرك بحث معين ببناء متصفح أصلي، مستخدمة الذكاء الاصطناعي كبديل لنتائج البحث التقليدية؛ بينما دمج متصفح آخر حماية الخصوصية مع الاستدلال المحلي، معززاً البحث ووظائف الحجب باستخدام LLM؛ وبعض المشاريع الأصلية في Web3 تستهدف مدخلات جديدة للتفاعل بين الذكاء الاصطناعي والأصول على السلسلة. الميزة المشتركة لهذه المشاريع هي: محاولة إعادة هيكلة واجهة إدخال المتصفح، بدلاً من تحسين طبقة الإخراج.
بالنسبة لرواد الأعمال، تكمن الفرص في العلاقة الثلاثية بين الإدخال، الهيكل، والوكيل. يعد المتصفح كواجهة لاستدعاء الوكلاء في المستقبل، مما يعني أن من يمكنه تقديم "كتل القدرات" القابلة للهيكلة، القابلة للاستدعاء، والموثوقة، هو من يمكنه أن يصبح جزءًا من جيل جديد من المنصات. من تحسين محركات البحث إلى تحسين محركات الوكلاء، ومن حركة مرور الصفحة إلى استدعاء سلسلة المهام، يتم إعادة تشكيل أشكال المنتجات وأفكار التصميم. تحدث الحرب الثالثة للمتصفحات في "الإدخال" وليس في "العرض"؛ لم يعد من يحدد الفائز هو من يجذب انتباه المستخدم، بل من يكسب ثقة الوكيل، ويحصل على مدخل الاستدعاء.
تاريخ تطور المتصفحات
في أوائل التسعينيات، ظهرت متصفح Netscape Navigator، حيث فتح أبواب العالم الرقمي لملايين المستخدمين. لم يكن هذا المتصفح الأول، لكنه كان الأول الذي وصل إلى الجمهور بشكل حقيقي وشكل تجربة الإنترنت.
أدركت مايكروسوفت بسرعة أهمية المتصفح وقررت ربط Internet Explorer قسراً بنظام تشغيل ويندوز، مما جعله المتصفح الافتراضي. تعتبر هذه الاستراتيجية "سلاح المنصة القاتل"، حيث قضت مباشرة على الهيمنة السوقية لـ Netscape.
في خضم الأزمة، اختار مهندسو نيتسكيب طريقًا جريئًا ومثاليًا - حيث قاموا بفتح شفرة المصدر للمتصفح ودعوا مجتمع المصادر المفتوحة. أصبحت هذه الشفرة فيما بعد أساس مشروع متصفح موزيلا، والذي تم تسميته في النهاية فايرفوكس.
في الوقت نفسه، تم إصدار متصفح أوبرا، الذي جاء من النرويج، وكان في البداية مجرد مشروع تجريبي. ولكن منذ إصدار النسخة 7.0 في عام 2003، قدم محرك Presto الذي تم تطويره داخليًا، وكان الأول في دعم تقنيات متقدمة مثل CSS والتصميم المتجاوب والتحكم الصوتي والترميز Unicode.
في نفس العام، أطلقت إحدى شركات التكنولوجيا العملاقة متصفحها الخاص. كانت هذه نقطة تحول مثيرة للاهتمام. في ذلك الوقت، كانت مايكروسوفت قد استثمرت 150 مليون دولار في هذه الشركة التي كانت على وشك الإفلاس، من أجل الحفاظ على مظهر المنافسة وتجنب مراجعة مكافحة الاحتكار.
في عام 2007، تم إصدار IE7 مع Windows Vista، ولكن ردود الفعل في السوق كانت متوسطة. من ناحية أخرى، ارتفعت حصة Firefox في السوق تدريجياً إلى حوالي 20% بفضل وتيرة التحديثات الأسرع، وآلية التوسيع الأكثر صداقة، والجاذبية الطبيعية للمطورين. بدأت هيمنة IE في التراجع، وكان الاتجاه يتغير.
تعتبر جوجل أسلوبًا آخر. تم إطلاق كروم في عام 2008، وهو مبني على مشروع كروميوم المفتوح المصدر ومحرك ويب كيت المستخدم في سفاري. وقد تم تسميته بشكل ساخر "المتصفح الضخم"، لكنه سرعان ما ارتفع بفضل قوة جوجل العميقة في الإعلانات وبناء العلامات التجارية.
السلاح الرئيسي لمتصفح كروم ليس الوظائف، بل وتيرة التحديثات المتكررة (كل ستة أسابيع) وتجربة موحدة عبر جميع المنصات. في نوفمبر 2011، تجاوز كروم لأول مرة فايرفوكس، حيث وصلت حصته في السوق إلى 27%؛ وبعد ستة أشهر، تجاوز إنترنت إكسبلورر، مما أكمل التحول من منافس إلى مسيطر.
دخلت العقد 2020، وقد تم تثبيت هيمنة Chrome، حيث استقر حصة السوق العالمية عند حوالي 65%. من الجدير بالذكر أن محرك بحث Google و متصفح Chrome على الرغم من أنهما ينتميان إلى نفس الشركة، إلا أن كل منهما يمثل نظام هيمنة مستقل من حيث السوق - الأول يتحكم في حوالي 90% من منافذ البحث العالمية، بينما الثاني يمتلك "النافذة الأولى" التي يدخل من خلالها معظم المستخدمين إلى الإنترنت.
لحماية هيكل الاحتكار المزدوج هذا، استثمرت الشركة أموالًا طائلة. في عام 2022، دفعت لشركة تكنولوجيا عملاقة حوالي 20 مليار دولار فقط للحفاظ على وضع محرك البحث الافتراضي في متصفحها. هذه النفقات تعادل 36% من الإيرادات الناتجة عن إعلانات البحث التي تحصل عليها Google من حركة المرور من ذلك المتصفح. بعبارة أخرى، تدفع Google "رسوم حماية" لحماية خندقها.
لكن اتجاه الرياح تغير مرة أخرى. مع ظهور النماذج اللغوية الكبيرة (LLM)، بدأت عمليات البحث التقليدية تتعرض للضغوط. في عام 2024، انخفضت حصة Google في سوق البحث من 93% إلى 89%، رغم أنها لا تزال تتربع على القمة، إلا أن الشقوق بدأت تظهر. الأكثر زعزعة للاستقرار هو الشائعات حول احتمال إطلاق عملاق التكنولوجيا الخاص بمحرك بحث AI خاص به - إذا تم تغيير محرك البحث الافتراضي إلى صفه الخاص، فلن يغير ذلك فقط هيكل النظام البيئي، بل قد يهز أيضًا أعمدة أرباح الشركة الأم لـ Google. استجاب السوق بسرعة، حيث انخفض سعر سهم الشركة من 170 دولارًا إلى 140 دولارًا، مما يعكس ليس فقط قلق المستثمرين، ولكن أيضًا عدم الارتياح العميق تجاه مستقبل عصر البحث.
من Navigator إلى Chrome، من المثالية مفتوحة المصدر إلى الإعلانات التجارية، من المتصفح الخفيف إلى مساعد البحث الذكي، كانت معركة المتصفحات دائمًا حربًا حول التكنولوجيا والمنصات والمحتوى والسلطة. ساحة المعركة تتنقل باستمرار، لكن الجوهر لم يتغير أبدًا: من يمتلك المدخل، هو من يحدد المستقبل.
في نظر رأس المال الاستثماري، وبالاعتماد على الحاجة الجديدة للناس لمحركات البحث في عصر LLM و AI، فإن حرب المتصفحات الثالثة بدأت تتكشف تدريجياً.
بنية المتصفح الحديثة القديمة
عند الحديث عن هيكل المتصفح، فإن الهيكل التقليدي الكلاسيكي هو كما يلي:
العميل - واجهة أمامية
استعلام من خلال HTTPS للوصول إلى أقرب واجهة أمامية، وإكمال فك تشفير TLS، وأخذ عينات QoS، وتوجيه جغرافي. إذا تم اكتشاف حركة غير طبيعية (مثل DDoS، أو الزحف التلقائي)، يمكن تطبيق قيود أو تحديات في هذه الطبقة.
فهم الاستعلام
يحتاج الواجهة الأمامية إلى فهم معنى الكلمات التي يدخلها المستخدمون، وهناك ثلاث خطوات: تصحيح الإملاء العصبي، تصحيح "recpie" إلى "recipe"؛ توسيع المرادفات، توسيع "how to fix bike" إلى "repair bicycle". تحليل النية، تحديد ما إذا كانت الاستفسارات تتعلق بالمعلومات أو الملاحة أو نية المعاملات وتخصيص طلبات Vertical.
استرجاع المرشحين
تُعرف تقنية الاستعلام المستخدمة في محركات البحث باسم: الفهرس العكسي. في الفهرس المباشر، يمكننا استخدام معرف (ID) للوصول إلى الملف. لكن من غير الممكن للمستخدم أن يعرف رقم المحتوى الذي يريده من بين مئات المليارات من الملفات، لذلك يتم استخدام الفهرس العكسي التقليدي، والذي يسمح بالبحث عن الملفات التي تحتوي على الكلمات الرئيسية بناءً على المحتوى. بعد ذلك، يتم استخدام الفهرس الشعاعي لمعالجة البحث الدلالي، أي البحث عن المحتوى الذي يشبه معنى الاستعلام. يقوم بتحويل النصوص والصور وغيرها من المحتويات إلى متجهات عالية الأبعاد (embedding)، ويجري البحث بناءً على تشابه هذه المتجهات. على سبيل المثال، حتى لو بحث المستخدم عن "كيفية صنع عجينة البيتزا"، فإن محرك البحث يمكنه أن يعيد نتائج تتعلق بـ"دليل صنع عجينة البيتزا"، لأنها متشابهة دلالياً. بعد المرور عبر الفهرس العكسي والفهرس الشعاعي، سيتم تصفية حوالي مئة ألف صفحة من الويب.
الترتيب المتعدد المستويات
تقوم الأنظمة عادةً بتصفية صفحات المرشحين التي تتكون من مئات الآلاف إلى حوالي 1000 صفحة تقريباً، وذلك باستخدام ميزات خفيفة ذات أبعاد الآلاف مثل BM25 و TF-IDF ودرجة جودة الصفحة، مما يشكل مجموعة المرشحين الأولية. تُعرف هذه الأنظمة مجتمعة بمحركات التوصية. تعتمد هذه المحركات على مجموعة ضخمة من الميزات التي تم إنشاؤها من كيانات متعددة، بما في ذلك سلوك المستخدم وخصائص الصفحة ونوايا الاستعلام وإشارات السياق. على سبيل المثال، ستجمع بين تاريخ المستخدم، ردود فعل المستخدمين الآخرين، دلالة الصفحة، معنى الاستعلام، بالإضافة إلى أخذ عناصر السياق في الاعتبار، مثل الوقت (فترة معينة من اليوم، أيام معينة في الأسبوع) والأحداث الخارجية مثل الأخبار العاجلة.
التعلم العميق لإجراء الترتيب الرئيسي
في مرحلة البحث الأولي، تُستخدم تقنيات مثل RankBrain و Neural Matching لفهم معنى الاستعلام، وتصنيف النتائج ذات الصلة الأولية من بين كميات هائلة من الوثائق. RankBrain هو نظام تعلم آلة قدمته Google في عام 2015، يهدف إلى فهم أفضل لمعاني استفسارات المستخدمين، وخصوصًا تلك الاستفسارات الجديدة. يقوم بتحويل الاستعلامات والوثائق إلى تمثيلات متجهية، وحساب التشابه بينها، مما يساعد في العثور على النتائج الأكثر صلة. على سبيل المثال، بالنسبة للاستعلام "كيفية صنع عجينة البيتزا"، حتى لو لم تحتوي الوثيقة على كلمات رئيسية مطابقة تمامًا، يمكن لـ RankBrain التعرف على المحتوى المتعلق بـ "أساسيات البيتزا" أو "صنع العجينة".
Neural Matching هي تقنية أخرى أصدرتها Google في عام 2018، تهدف إلى فهم العلاقة الدلالية بين الاستعلامات والمستندات بشكل أعمق. تستخدم نموذج الشبكات العصبية لالتقاط العلاقات الغامضة بين الكلمات، مما يساعد على مطابقة الاستعلامات ومحتوى الويب بشكل أفضل. على سبيل المثال، بالنسبة للاستعلام "لماذا صوت مروحة الكمبيوتر المحمول الخاص بي مرتفع جداً"، يمكن لـ Neural Matching أن يفهم أن المستخدم قد يبحث عن معلومات استكشاف الأخطاء وإصلاحها المتعلقة بالسخونة الزائدة أو تراكم الغبار أو ارتفاع استخدام وحدة المعالجة المركزية، حتى لو لم تظهر هذه الكلمات مباشرة في الاستعلام.
إعادة ترتيب عميقة: تطبيق نموذج BERT
بعد إجراء تصفية أولية للوثائق ذات الصلة، يتم استخدام نموذج BERT (تمثيلات المحولات ثنائية الاتجاه) لترتيب هذه الوثائق بشكل أكثر دقة، لضمان وضع النتائج الأكثر صلة في المقدمة. BERT هو نموذج لغة مسبق التدريب يعتمد على المحولات، قادر على فهم علاقات الكلمات في السياق داخل الجملة. في عمليات البحث، يتم استخدام BERT لإعادة ترتيب الوثائق التي تم استرجاعها أولياً. يقوم ذلك من خلال الترميز المشترك للاستعلام والوثائق، وحساب درجات الصلة بينها، مما يؤدي إلى إعادة ترتيب الوثائق. على سبيل المثال، بالنسبة للاستعلام "ركن السيارة على منحدر بدون رصيف"، يستطيع BERT فهم معنى "بدون رصيف"، ويعيد الصفحات التي تقترح على السائق توجيه العجلات نحو حافة الطريق، بدلاً من فهمها بشكل خاطئ على أنها حالة بها رصيف.
هذه هي العملية النموذجية لعمل محركات البحث. ومع ذلك، في عصر الانفجار الحالي للذكاء الاصطناعي والبيانات الضخمة، أصبح لدى المستخدمين احتياجات جديدة للتفاعل مع المتصفحات.
لماذا سيعيد الذكاء الاصطناعي تشكيل المتصفح
أولاً، نحتاج إلى توضيح لماذا لا يزال هناك شكل المتصفح؟ هل هناك شكل ثالث، بخلاف وكلاء الذكاء الاصطناعي والمتصفحات؟
نعتقد أن الوجود لا يمكن استبداله. لماذا يمكن للذكاء الاصطناعي استخدام المتصفح، لكنه لا يمكن أن يحل محل المتصفح تمامًا؟ لأن المتصفح هو منصة عامة، ليس فقط نقطة دخول لقراءة البيانات، ولكنه أيضًا نقطة دخول عامة لإدخال البيانات. لا يمكن أن يوجد هذا العالم فقط لإدخال المعلومات، بل يجب أيضًا إنتاج البيانات والتفاعل مع المواقع، لذا سيظل المتصفح الذي يدمج معلومات المستخدم الشخصية موجودًا على نطاق واسع.
نحن نلتقط هذه النقطة: المتصفح كمدخل عام، لا يستخدم فقط لقراءة البيانات، بل يحتاج المستخدمون غالبًا أيضًا إلى التفاعل مع البيانات. المتصفح نفسه هو مكان ممتاز لتخزين بصمات أصابع المستخدمين. يجب أن تتم السلوكيات الأكثر تعقيدًا وسلوكيات الأتمتة من خلال المتصفح.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 23
أعجبني
23
5
مشاركة
تعليق
0/400
AirdropHunterXiao
· 07-11 21:02
أخيرًا ستحطم جوجل؟ رائعًا
شاهد النسخة الأصليةرد0
SocialAnxietyStaker
· 07-09 22:25
جوجل ستفشل الآن
شاهد النسخة الأصليةرد0
SchrodingerWallet
· 07-09 22:24
يبدو مألوفًا ، الشباب سيبدأون مرة أخرى.
شاهد النسخة الأصليةرد0
GateUser-2fce706c
· 07-09 22:07
الفرصة أمامك، ألا يجب عليك أن تبدأ في وضع خطط لمسار المتصفح؟ ستشكر نفسك في المستقبل بعد ثلاث سنوات.
ثورة المتصفحات في عصر الذكاء الاصطناعي: من محركات البحث إلى منصة الوكلاء الذكية
ثورة المتصفح في عصر الذكاء الاصطناعي: من البحث إلى الوكلاء الأذكياء
تجري حرب المتصفحات الثالثة بصمت. من Netscape في التسعينيات وIE من Microsoft، إلى Firefox بروح المصدر المفتوح وChrome من Google، كانت المنافسة بين المتصفحات تجسيداً مركزياً لسلطة المنصة وانتقال نماذج التكنولوجيا. تمكن Chrome من تحقيق الهيمنة بفضل سرعة التحديث والترابط البيئي، بينما شكلت Google من خلال الهيكل "ثنائي القطب" بين محرك البحث والمتصفح حلقة مغلقة لدخول المعلومات.
ومع ذلك، فإن هذا النمط بدأ يتزعزع. إن صعود نماذج اللغة الكبيرة (LLM) جعل المزيد من المستخدمين ينجزون مهامهم في صفحة نتائج البحث "بدون نقر"، مما يقلل من سلوك النقر التقليدي على صفحات الويب. في الوقت نفسه، فإن الشائعات حول إمكانية استبدال عملاق التكنولوجيا الافتراضي لمحرك البحث الافتراضي في متصفحه تهدد أساس أرباح الشركة الأم لـ Google، وقد بدأ السوق يظهر علامات القلق تجاه "الممارسات التقليدية في البحث".
تواجه المتصفحات نفسها إعادة تشكيل لدورها. لم تعد مجرد أداة لعرض صفحات الويب، بل أصبحت حاوية تجمع بين قدرات إدخال البيانات، وسلوك المستخدم، والخصوصية والهويات. على الرغم من قوة الوكلاء الذكاء الاصطناعي، فإنه لا يزال يتعين عليهم الاعتماد على حدود الثقة وبيئة عمل المتصفح لإجراء تفاعلات معقدة على الصفحات، واستدعاء بيانات الهوية المحلية، والتحكم في عناصر الويب. يتحول المتصفح من واجهة بشرية إلى منصة استدعاء نظام للوكلاء.
ما يمكن أن يكسر فعلاً هيكل سوق المتصفحات الحالي ليس "كروم" آخر "أفضل"، بل هي بنية تفاعلية جديدة: ليست مجرد عرض للمعلومات، بل استدعاء للمهام. يجب أن تصمم المتصفحات المستقبلية من أجل وكيل الذكاء الاصطناعي --- ليس فقط للقراءة، بل أيضاً للكتابة والتنفيذ. تحاول بعض المشاريع جعل هيكل الصفحة دلالياً، وتحويل الواجهة المرئية إلى نصوص هيكلية قابلة للاستدعاء من قبل نماذج اللغة الكبيرة، مما يحقق تMapping بين الصفحة والأوامر، ويقلل بشكل كبير من تكلفة التفاعل.
بدأت المشاريع الرئيسية في السوق تجربتها: قامت محرك بحث معين ببناء متصفح أصلي، مستخدمة الذكاء الاصطناعي كبديل لنتائج البحث التقليدية؛ بينما دمج متصفح آخر حماية الخصوصية مع الاستدلال المحلي، معززاً البحث ووظائف الحجب باستخدام LLM؛ وبعض المشاريع الأصلية في Web3 تستهدف مدخلات جديدة للتفاعل بين الذكاء الاصطناعي والأصول على السلسلة. الميزة المشتركة لهذه المشاريع هي: محاولة إعادة هيكلة واجهة إدخال المتصفح، بدلاً من تحسين طبقة الإخراج.
بالنسبة لرواد الأعمال، تكمن الفرص في العلاقة الثلاثية بين الإدخال، الهيكل، والوكيل. يعد المتصفح كواجهة لاستدعاء الوكلاء في المستقبل، مما يعني أن من يمكنه تقديم "كتل القدرات" القابلة للهيكلة، القابلة للاستدعاء، والموثوقة، هو من يمكنه أن يصبح جزءًا من جيل جديد من المنصات. من تحسين محركات البحث إلى تحسين محركات الوكلاء، ومن حركة مرور الصفحة إلى استدعاء سلسلة المهام، يتم إعادة تشكيل أشكال المنتجات وأفكار التصميم. تحدث الحرب الثالثة للمتصفحات في "الإدخال" وليس في "العرض"؛ لم يعد من يحدد الفائز هو من يجذب انتباه المستخدم، بل من يكسب ثقة الوكيل، ويحصل على مدخل الاستدعاء.
تاريخ تطور المتصفحات
في أوائل التسعينيات، ظهرت متصفح Netscape Navigator، حيث فتح أبواب العالم الرقمي لملايين المستخدمين. لم يكن هذا المتصفح الأول، لكنه كان الأول الذي وصل إلى الجمهور بشكل حقيقي وشكل تجربة الإنترنت.
أدركت مايكروسوفت بسرعة أهمية المتصفح وقررت ربط Internet Explorer قسراً بنظام تشغيل ويندوز، مما جعله المتصفح الافتراضي. تعتبر هذه الاستراتيجية "سلاح المنصة القاتل"، حيث قضت مباشرة على الهيمنة السوقية لـ Netscape.
في خضم الأزمة، اختار مهندسو نيتسكيب طريقًا جريئًا ومثاليًا - حيث قاموا بفتح شفرة المصدر للمتصفح ودعوا مجتمع المصادر المفتوحة. أصبحت هذه الشفرة فيما بعد أساس مشروع متصفح موزيلا، والذي تم تسميته في النهاية فايرفوكس.
في الوقت نفسه، تم إصدار متصفح أوبرا، الذي جاء من النرويج، وكان في البداية مجرد مشروع تجريبي. ولكن منذ إصدار النسخة 7.0 في عام 2003، قدم محرك Presto الذي تم تطويره داخليًا، وكان الأول في دعم تقنيات متقدمة مثل CSS والتصميم المتجاوب والتحكم الصوتي والترميز Unicode.
في نفس العام، أطلقت إحدى شركات التكنولوجيا العملاقة متصفحها الخاص. كانت هذه نقطة تحول مثيرة للاهتمام. في ذلك الوقت، كانت مايكروسوفت قد استثمرت 150 مليون دولار في هذه الشركة التي كانت على وشك الإفلاس، من أجل الحفاظ على مظهر المنافسة وتجنب مراجعة مكافحة الاحتكار.
في عام 2007، تم إصدار IE7 مع Windows Vista، ولكن ردود الفعل في السوق كانت متوسطة. من ناحية أخرى، ارتفعت حصة Firefox في السوق تدريجياً إلى حوالي 20% بفضل وتيرة التحديثات الأسرع، وآلية التوسيع الأكثر صداقة، والجاذبية الطبيعية للمطورين. بدأت هيمنة IE في التراجع، وكان الاتجاه يتغير.
تعتبر جوجل أسلوبًا آخر. تم إطلاق كروم في عام 2008، وهو مبني على مشروع كروميوم المفتوح المصدر ومحرك ويب كيت المستخدم في سفاري. وقد تم تسميته بشكل ساخر "المتصفح الضخم"، لكنه سرعان ما ارتفع بفضل قوة جوجل العميقة في الإعلانات وبناء العلامات التجارية.
السلاح الرئيسي لمتصفح كروم ليس الوظائف، بل وتيرة التحديثات المتكررة (كل ستة أسابيع) وتجربة موحدة عبر جميع المنصات. في نوفمبر 2011، تجاوز كروم لأول مرة فايرفوكس، حيث وصلت حصته في السوق إلى 27%؛ وبعد ستة أشهر، تجاوز إنترنت إكسبلورر، مما أكمل التحول من منافس إلى مسيطر.
دخلت العقد 2020، وقد تم تثبيت هيمنة Chrome، حيث استقر حصة السوق العالمية عند حوالي 65%. من الجدير بالذكر أن محرك بحث Google و متصفح Chrome على الرغم من أنهما ينتميان إلى نفس الشركة، إلا أن كل منهما يمثل نظام هيمنة مستقل من حيث السوق - الأول يتحكم في حوالي 90% من منافذ البحث العالمية، بينما الثاني يمتلك "النافذة الأولى" التي يدخل من خلالها معظم المستخدمين إلى الإنترنت.
لحماية هيكل الاحتكار المزدوج هذا، استثمرت الشركة أموالًا طائلة. في عام 2022، دفعت لشركة تكنولوجيا عملاقة حوالي 20 مليار دولار فقط للحفاظ على وضع محرك البحث الافتراضي في متصفحها. هذه النفقات تعادل 36% من الإيرادات الناتجة عن إعلانات البحث التي تحصل عليها Google من حركة المرور من ذلك المتصفح. بعبارة أخرى، تدفع Google "رسوم حماية" لحماية خندقها.
لكن اتجاه الرياح تغير مرة أخرى. مع ظهور النماذج اللغوية الكبيرة (LLM)، بدأت عمليات البحث التقليدية تتعرض للضغوط. في عام 2024، انخفضت حصة Google في سوق البحث من 93% إلى 89%، رغم أنها لا تزال تتربع على القمة، إلا أن الشقوق بدأت تظهر. الأكثر زعزعة للاستقرار هو الشائعات حول احتمال إطلاق عملاق التكنولوجيا الخاص بمحرك بحث AI خاص به - إذا تم تغيير محرك البحث الافتراضي إلى صفه الخاص، فلن يغير ذلك فقط هيكل النظام البيئي، بل قد يهز أيضًا أعمدة أرباح الشركة الأم لـ Google. استجاب السوق بسرعة، حيث انخفض سعر سهم الشركة من 170 دولارًا إلى 140 دولارًا، مما يعكس ليس فقط قلق المستثمرين، ولكن أيضًا عدم الارتياح العميق تجاه مستقبل عصر البحث.
من Navigator إلى Chrome، من المثالية مفتوحة المصدر إلى الإعلانات التجارية، من المتصفح الخفيف إلى مساعد البحث الذكي، كانت معركة المتصفحات دائمًا حربًا حول التكنولوجيا والمنصات والمحتوى والسلطة. ساحة المعركة تتنقل باستمرار، لكن الجوهر لم يتغير أبدًا: من يمتلك المدخل، هو من يحدد المستقبل.
في نظر رأس المال الاستثماري، وبالاعتماد على الحاجة الجديدة للناس لمحركات البحث في عصر LLM و AI، فإن حرب المتصفحات الثالثة بدأت تتكشف تدريجياً.
بنية المتصفح الحديثة القديمة
عند الحديث عن هيكل المتصفح، فإن الهيكل التقليدي الكلاسيكي هو كما يلي:
العميل - واجهة أمامية
استعلام من خلال HTTPS للوصول إلى أقرب واجهة أمامية، وإكمال فك تشفير TLS، وأخذ عينات QoS، وتوجيه جغرافي. إذا تم اكتشاف حركة غير طبيعية (مثل DDoS، أو الزحف التلقائي)، يمكن تطبيق قيود أو تحديات في هذه الطبقة.
فهم الاستعلام
يحتاج الواجهة الأمامية إلى فهم معنى الكلمات التي يدخلها المستخدمون، وهناك ثلاث خطوات: تصحيح الإملاء العصبي، تصحيح "recpie" إلى "recipe"؛ توسيع المرادفات، توسيع "how to fix bike" إلى "repair bicycle". تحليل النية، تحديد ما إذا كانت الاستفسارات تتعلق بالمعلومات أو الملاحة أو نية المعاملات وتخصيص طلبات Vertical.
استرجاع المرشحين
تُعرف تقنية الاستعلام المستخدمة في محركات البحث باسم: الفهرس العكسي. في الفهرس المباشر، يمكننا استخدام معرف (ID) للوصول إلى الملف. لكن من غير الممكن للمستخدم أن يعرف رقم المحتوى الذي يريده من بين مئات المليارات من الملفات، لذلك يتم استخدام الفهرس العكسي التقليدي، والذي يسمح بالبحث عن الملفات التي تحتوي على الكلمات الرئيسية بناءً على المحتوى. بعد ذلك، يتم استخدام الفهرس الشعاعي لمعالجة البحث الدلالي، أي البحث عن المحتوى الذي يشبه معنى الاستعلام. يقوم بتحويل النصوص والصور وغيرها من المحتويات إلى متجهات عالية الأبعاد (embedding)، ويجري البحث بناءً على تشابه هذه المتجهات. على سبيل المثال، حتى لو بحث المستخدم عن "كيفية صنع عجينة البيتزا"، فإن محرك البحث يمكنه أن يعيد نتائج تتعلق بـ"دليل صنع عجينة البيتزا"، لأنها متشابهة دلالياً. بعد المرور عبر الفهرس العكسي والفهرس الشعاعي، سيتم تصفية حوالي مئة ألف صفحة من الويب.
الترتيب المتعدد المستويات
تقوم الأنظمة عادةً بتصفية صفحات المرشحين التي تتكون من مئات الآلاف إلى حوالي 1000 صفحة تقريباً، وذلك باستخدام ميزات خفيفة ذات أبعاد الآلاف مثل BM25 و TF-IDF ودرجة جودة الصفحة، مما يشكل مجموعة المرشحين الأولية. تُعرف هذه الأنظمة مجتمعة بمحركات التوصية. تعتمد هذه المحركات على مجموعة ضخمة من الميزات التي تم إنشاؤها من كيانات متعددة، بما في ذلك سلوك المستخدم وخصائص الصفحة ونوايا الاستعلام وإشارات السياق. على سبيل المثال، ستجمع بين تاريخ المستخدم، ردود فعل المستخدمين الآخرين، دلالة الصفحة، معنى الاستعلام، بالإضافة إلى أخذ عناصر السياق في الاعتبار، مثل الوقت (فترة معينة من اليوم، أيام معينة في الأسبوع) والأحداث الخارجية مثل الأخبار العاجلة.
التعلم العميق لإجراء الترتيب الرئيسي
في مرحلة البحث الأولي، تُستخدم تقنيات مثل RankBrain و Neural Matching لفهم معنى الاستعلام، وتصنيف النتائج ذات الصلة الأولية من بين كميات هائلة من الوثائق. RankBrain هو نظام تعلم آلة قدمته Google في عام 2015، يهدف إلى فهم أفضل لمعاني استفسارات المستخدمين، وخصوصًا تلك الاستفسارات الجديدة. يقوم بتحويل الاستعلامات والوثائق إلى تمثيلات متجهية، وحساب التشابه بينها، مما يساعد في العثور على النتائج الأكثر صلة. على سبيل المثال، بالنسبة للاستعلام "كيفية صنع عجينة البيتزا"، حتى لو لم تحتوي الوثيقة على كلمات رئيسية مطابقة تمامًا، يمكن لـ RankBrain التعرف على المحتوى المتعلق بـ "أساسيات البيتزا" أو "صنع العجينة".
Neural Matching هي تقنية أخرى أصدرتها Google في عام 2018، تهدف إلى فهم العلاقة الدلالية بين الاستعلامات والمستندات بشكل أعمق. تستخدم نموذج الشبكات العصبية لالتقاط العلاقات الغامضة بين الكلمات، مما يساعد على مطابقة الاستعلامات ومحتوى الويب بشكل أفضل. على سبيل المثال، بالنسبة للاستعلام "لماذا صوت مروحة الكمبيوتر المحمول الخاص بي مرتفع جداً"، يمكن لـ Neural Matching أن يفهم أن المستخدم قد يبحث عن معلومات استكشاف الأخطاء وإصلاحها المتعلقة بالسخونة الزائدة أو تراكم الغبار أو ارتفاع استخدام وحدة المعالجة المركزية، حتى لو لم تظهر هذه الكلمات مباشرة في الاستعلام.
إعادة ترتيب عميقة: تطبيق نموذج BERT
بعد إجراء تصفية أولية للوثائق ذات الصلة، يتم استخدام نموذج BERT (تمثيلات المحولات ثنائية الاتجاه) لترتيب هذه الوثائق بشكل أكثر دقة، لضمان وضع النتائج الأكثر صلة في المقدمة. BERT هو نموذج لغة مسبق التدريب يعتمد على المحولات، قادر على فهم علاقات الكلمات في السياق داخل الجملة. في عمليات البحث، يتم استخدام BERT لإعادة ترتيب الوثائق التي تم استرجاعها أولياً. يقوم ذلك من خلال الترميز المشترك للاستعلام والوثائق، وحساب درجات الصلة بينها، مما يؤدي إلى إعادة ترتيب الوثائق. على سبيل المثال، بالنسبة للاستعلام "ركن السيارة على منحدر بدون رصيف"، يستطيع BERT فهم معنى "بدون رصيف"، ويعيد الصفحات التي تقترح على السائق توجيه العجلات نحو حافة الطريق، بدلاً من فهمها بشكل خاطئ على أنها حالة بها رصيف.
هذه هي العملية النموذجية لعمل محركات البحث. ومع ذلك، في عصر الانفجار الحالي للذكاء الاصطناعي والبيانات الضخمة، أصبح لدى المستخدمين احتياجات جديدة للتفاعل مع المتصفحات.
لماذا سيعيد الذكاء الاصطناعي تشكيل المتصفح
أولاً، نحتاج إلى توضيح لماذا لا يزال هناك شكل المتصفح؟ هل هناك شكل ثالث، بخلاف وكلاء الذكاء الاصطناعي والمتصفحات؟
نعتقد أن الوجود لا يمكن استبداله. لماذا يمكن للذكاء الاصطناعي استخدام المتصفح، لكنه لا يمكن أن يحل محل المتصفح تمامًا؟ لأن المتصفح هو منصة عامة، ليس فقط نقطة دخول لقراءة البيانات، ولكنه أيضًا نقطة دخول عامة لإدخال البيانات. لا يمكن أن يوجد هذا العالم فقط لإدخال المعلومات، بل يجب أيضًا إنتاج البيانات والتفاعل مع المواقع، لذا سيظل المتصفح الذي يدمج معلومات المستخدم الشخصية موجودًا على نطاق واسع.
نحن نلتقط هذه النقطة: المتصفح كمدخل عام، لا يستخدم فقط لقراءة البيانات، بل يحتاج المستخدمون غالبًا أيضًا إلى التفاعل مع البيانات. المتصفح نفسه هو مكان ممتاز لتخزين بصمات أصابع المستخدمين. يجب أن تتم السلوكيات الأكثر تعقيدًا وسلوكيات الأتمتة من خلال المتصفح.