La révolution des navigateurs à l'ère de l'IA : de l'affichage d'informations à l'appel de tâches
La troisième guerre des navigateurs se déroule discrètement. Depuis les années 90 avec Netscape et Microsoft IE, jusqu'à l'open source Firefox et Google Chrome, la lutte entre navigateurs a toujours été une manifestation concentrée du contrôle de la plateforme et des changements de paradigmes technologiques. Chrome a conquis une position dominante grâce à sa rapidité de mise à jour et à son écosystème interconnecté, Google a formé un cycle fermé d'entrée d'information grâce à la structure "duopole" entre la recherche et le navigateur.
Cependant, ce schéma est en train de trembler. L'émergence des grands modèles de langage (LLM) amène de plus en plus d'utilisateurs à accomplir des tâches sur la page de résultats de recherche sans cliquer, réduisant ainsi le comportement traditionnel de clic sur les pages web. Parallèlement, les rumeurs selon lesquelles Apple pourrait remplacer le moteur de recherche par défaut dans Safari menacent davantage les bénéfices d'Alphabet, et l'inquiétude du marché quant à la "légitimité de la recherche" commence à se manifester.
Le navigateur lui-même est également confronté à une redéfinition de son rôle. Il n'est pas seulement un outil d'affichage des pages web, mais aussi un conteneur d'une multitude de capacités telles que l'entrée de données, le comportement des utilisateurs et l'identité privée. Bien que l'Agent IA soit puissant, pour réaliser des interactions complexes sur les pages, accéder aux données d'identité locales et contrôler les éléments de la page web, il doit encore s'appuyer sur les limites de confiance et le bac à sable fonctionnel du navigateur. Le navigateur évolue d'une interface humaine à une plateforme d'appels système pour les Agents.
Ce qui pourrait réellement briser le paysage actuel du marché des navigateurs n'est pas un autre "meilleur Chrome", mais une nouvelle structure d'interaction : ce n'est pas une présentation de l'information, mais un appel à des tâches. Les navigateurs du futur doivent être conçus pour les agents AI - non seulement capables de lire, mais aussi d'écrire et d'exécuter. Des projets comme Browser Use tentent de sémantiser la structure des pages, transformant l'interface visuelle en texte structuré pouvant être appelé par des LLM, réalisant ainsi une cartographie des pages aux instructions, ce qui réduit considérablement le coût d'interaction.
Les projets majeurs sur le marché ont commencé à explorer : Perplexity construit un navigateur natif Comet, remplaçant les résultats de recherche traditionnels par de l'IA ; Brave combine protection de la vie privée et raisonnement local, renforçant les fonctionnalités de recherche et de blocage avec LLM ; tandis que des projets natifs de Crypto comme Donut visent un nouvel accès aux interactions entre l'IA et les actifs on-chain. La caractéristique commune de ces projets est : essayer de reconstruire le côté input du navigateur, plutôt que d'embellir sa couche de sortie.
Pour les entrepreneurs, les opportunités se cachent dans la relation triangulaire entre l'entrée, la structure et l'agent. Le navigateur, en tant qu'interface pour invoquer le monde à l'avenir, signifie que ceux qui peuvent fournir des "blocs de capacité" structurés, invoquables et dignes de confiance pourront devenir une partie intégrante de la nouvelle génération de plateformes. De l'optimisation SEO à l'AEO (Agent Engine Optimization), du trafic de pages aux appels de chaînes de tâches, la forme et la conception des produits sont en reconstruction. La troisième guerre des navigateurs se déroule autour de l'"entrée" plutôt que de la "présentation" ; ce qui détermine le résultat n'est plus qui attire l'attention des utilisateurs, mais qui gagne la confiance de l'agent et obtient l'accès à l'invocation.
Histoire du développement des navigateurs
Au début des années 90, alors qu'Internet n'était pas encore une partie intégrante de la vie quotidienne, Netscape Navigator est apparu, ouvrant les portes du monde numérique à des millions d'utilisateurs. Ce navigateur n'était pas le premier, mais il a été le premier véritable produit à s'adresser au grand public et à façonner l'expérience Internet.
Cependant, la splendeur fut de courte durée. Microsoft a rapidement contraint Internet Explorer à être intégré dans le système d'exploitation Windows, en faisant le navigateur par défaut. Cette stratégie peut être qualifiée de "coup de maître de la plateforme", qui a directement démantelé la position dominante de Netscape sur le marché. Grâce à la capacité de distribution de Windows, IE est rapidement devenu le leader du secteur, tandis que Netscape est tombé dans une spirale de déclin.
Dans une impasse, les ingénieurs de Netscape ont choisi une voie radicale et idéaliste - ils ont rendu le code source du navigateur public, lançant un appel à la communauté open source. Ce code est devenu la base du projet de navigateur Mozilla, initialement nommé Phoenix (signifiant renaissance du phénix), qui a subi plusieurs changements de nom avant d'être finalement appelé Firefox.
Firefox n'est pas une simple copie de Netscape, il a réalisé de nombreuses percées en matière d'expérience utilisateur, d'écosystème de plugins et de sécurité. Sa naissance marque la victoire de l'esprit open source et insuffle une nouvelle vitalité à l'ensemble de l'industrie.
En 1994, le navigateur Opera a été lancé, il vient de Norvège et était au départ un projet expérimental. Mais à partir de la version 7.0 en 2003, il a introduit le moteur Presto développé en interne, étant le premier à supporter des technologies de pointe telles que CSS, la mise en page adaptative, le contrôle vocal et le codage Unicode. Bien que le nombre d'utilisateurs soit limité, il a toujours été à la pointe de la technologie dans l'industrie, devenant "le préféré des geeks".
La même année, Apple a lancé le navigateur Safari. Bien que le moteur de recherche par défaut de Safari soit Google depuis sa création, cette histoire complexe avec Microsoft symbolise la relation délicate et complexe entre les géants de l'internet : collaboration et compétition, toujours inséparables.
En 2007, IE7 a été lancé avec Windows Vista, mais les retours du marché ont été mitigés. En revanche, Firefox, grâce à un rythme de mise à jour plus rapide, un mécanisme d'extension plus convivial et un attrait naturel pour les développeurs, a vu sa part de marché augmenter régulièrement pour atteindre environ 20 %. La domination d'IE a lentement commencé à s'affaiblir, et le vent est en train de changer.
Chrome a été lancé en 2008, construit sur le projet open source Chromium et le moteur WebKit utilisé par Safari. Il est surnommé le navigateur "lourd", mais grâce à l'expertise de Google en matière de publicité et de création de marque, il a rapidement émergé.
L'atout majeur de Chrome n'est pas sa fonctionnalité, mais plutôt son rythme de mises à jour fréquentes (toutes les six semaines) et une expérience unifiée sur toutes les plateformes. En novembre 2011, Chrome a d'abord dépassé Firefox, atteignant une part de marché de 27 % ; six mois plus tard, il a de nouveau dépassé IE, complétant ainsi sa transformation de challenger en dominateur.
En parallèle, l'internet mobile en Chine est également en train de former son propre écosystème. Le navigateur UC d'Alibaba a rapidement gagné en popularité au début des années 2010, notamment sur des marchés émergents tels que l'Inde, l'Indonésie et la Chine, attirant les utilisateurs d'appareils bas de gamme grâce à son design léger et à ses fonctionnalités de compression de données pour économiser de la bande passante. En 2015, sa part de marché mondiale des navigateurs mobiles a dépassé 17 %, atteignant un impressionnant 46 % en Inde. Cependant, cette victoire n'a pas duré. Avec le renforcement par le gouvernement indien des contrôles de sécurité sur les applications chinoises, le navigateur UC a été contraint de se retirer de ce marché clé, perdant peu à peu son ancienne gloire.
Entrant dans les années 2020, la domination de Chrome est désormais établie, avec une part de marché mondiale stable d'environ 65 %. Il est à noter que, bien que le moteur de recherche Google et le navigateur Chrome appartiennent tous deux à Alphabet, ils représentent en termes de marché deux systèmes hégémoniques indépendants - le premier contrôlant environ 90 % des points d'entrée de recherche dans le monde, tandis que le second détient la majorité des utilisateurs accédant à Internet par la "première fenêtre".
Pour maintenir cette structure de double monopole, Google n'hésite pas à investir des sommes considérables. En 2022, Alphabet a versé environ 20 milliards de dollars à Apple simplement pour garder Google en tant que moteur de recherche par défaut dans Safari. Des analyses ont indiqué que cette dépense équivaut à 36% des revenus publicitaires de recherche que Google tire du trafic de Safari. En d'autres termes, Google paie une "taxe de protection" pour sa barrière de protection.
Mais le vent a encore une fois changé. Avec l'essor des grands modèles de langage (LLM), la recherche traditionnelle commence à être perturbée. En 2024, la part de marché de Google dans la recherche est tombée de 93 % à 89 %, bien qu'il reste dominant, des fissures commencent à apparaître. Ce qui est plus perturbateur, ce sont les rumeurs selon lesquelles Apple pourrait lancer son propre moteur de recherche AI - si Safari change de moteur de recherche par défaut pour s'aligner sur son propre camp, cela pourrait non seulement réécrire le paysage écologique, mais aussi ébranler le pilier de profits d'Alphabet. Le marché réagit rapidement, le prix de l'action d'Alphabet est tombé de 170 dollars à 140 dollars, reflétant non seulement la panique des investisseurs, mais aussi une profonde inquiétude quant à l'avenir de l'ère de la recherche.
De Navigator à Chrome, de l'idéal open source à la commercialisation de la publicité, de navigateur léger à assistant de recherche AI, la guerre des navigateurs a toujours été une bataille sur la technologie, la plateforme, le contenu et le contrôle. Le champ de bataille ne cesse de changer, mais l'essence n'a jamais changé : celui qui contrôle l'entrée définit l'avenir.
Aux yeux des VC, en s'appuyant sur les nouveaux besoins des utilisateurs de moteurs de recherche à l'ère des LLM et de l'IA, la troisième guerre des navigateurs est en train de se déployer progressivement.
L'architecture obsolète des navigateurs modernes
En ce qui concerne l'architecture des navigateurs, l'architecture traditionnelle classique est la suivante :
Client - Point d'entrée frontal
Interroger le Google Front End le plus proche via HTTPS, effectuer le décryptage TLS, l'échantillonnage QoS et le routage géographique. En cas de détection de trafic anormal (DDoS, scraping automatique), il est possible de limiter ou de défier à ce niveau.
Compréhension de la requête
L'interface utilisateur doit comprendre le sens des mots saisis par l'utilisateur, en trois étapes : correction orthographique neuronale, corrigeant "recpie" en "recipe" ; expansion de synonymes, élargissant "how to fix bike" à "repair bicycle". Analyse des intentions, déterminant si la requête est d'information, de navigation ou d'intention transactionnelle, et attribuant une demande verticale.
Rappel des candidats
La technologie de requête utilisée par Google est appelée : index inversé. Dans un index direct, nous pouvons indexer un fichier simplement en fournissant un ID. Cependant, les utilisateurs ne peuvent pas connaître le numéro du contenu qu'ils souhaitent parmi des milliers de milliards de fichiers, c'est pourquoi un index inversé traditionnel est utilisé pour rechercher quels fichiers contiennent les mots-clés correspondants. Ensuite, Google utilise l'indexation vectorielle pour traiter la recherche sémantique, c'est-à-dire rechercher du contenu ayant un sens similaire à la requête. Cela convertit du texte, des images et d'autres contenus en vecteurs de haute dimension (embedding) et effectue des recherches en fonction de la similarité entre ces vecteurs. Par exemple, même si un utilisateur recherche "comment faire de la pâte à pizza", le moteur de recherche peut renvoyer des résultats liés à "guide de fabrication de pâte à pizza", car ils sont sémantiquement similaires. Après le passage par l'index inversé et l'indexation vectorielle, environ cent mille pages web seront pré-sélectionnées.
Tri multi-niveau
Les systèmes filtrent généralement des milliers de caractéristiques légères dans des dimensions, telles que BM25, TF-IDF et la note de qualité des pages, pour réduire un ensemble de candidats de l'échelle de centaines de milliers de pages à environ 1000, formant ainsi un ensemble de candidats préliminaires. Ces systèmes sont communément appelés moteurs de recommandation. Ils s'appuient sur une multitude de caractéristiques générées par des entités massives, y compris le comportement des utilisateurs, les attributs des pages, l'intention de la requête et les signaux contextuels. Par exemple, Google prend en compte l'historique des utilisateurs, les retours d'autres utilisateurs, la sémantique des pages, la signification des requêtes, tout en tenant également compte des éléments contextuels tels que le temps (la période de la journée, les jours spécifiques de la semaine) et des événements externes comme les actualités en temps réel.
Apprentissage profond pour le tri principal
Au stade de la recherche préliminaire, Google utilise des technologies telles que RankBrain et Neural Matching pour comprendre le sens des requêtes et filtrer les résultats préliminaires parmi une multitude de documents. RankBrain est un système d'apprentissage automatique introduit par Google en 2015, visant à mieux comprendre la signification des requêtes des utilisateurs, en particulier celles qui apparaissent pour la première fois. Il convertit les requêtes et les documents en représentations vectorielles, calculant la similarité entre eux afin de trouver les résultats les plus pertinents. Par exemple, pour la requête "comment faire de la pâte à pizza", même si aucun mot-clé correspondant n'est présent dans le document, RankBrain peut identifier des contenus liés à "base de pizza" ou "préparation de pâte".
Le Neural Matching est une autre technologie lancée par Google en 2018, visant à comprendre plus en profondeur les relations sémantiques entre les requêtes et les documents. Il utilise des modèles de réseaux neuronaux pour capturer les relations floues entre les mots, aidant Google à mieux faire correspondre les requêtes et le contenu des pages web. Par exemple, pour la requête "Pourquoi le ventilateur de mon ordinateur portable est-il si bruyant ?", le Neural Matching peut comprendre que l'utilisateur recherche probablement des informations de dépannage concernant la surchauffe, l'accumulation de poussière ou une utilisation élevée du processeur, même si ces mots ne figurent pas directement dans la requête.
Réarrangement profond : Application du modèle BERT
Après avoir pré-sélectionné les documents pertinents, Google utilise le modèle BERT (Bidirectional Encoder Representations from Transformers) pour affiner le classement de ces documents, afin de s'assurer que les résultats les plus pertinents apparaissent en premier. BERT est un modèle de langage pré-entraîné basé sur Transformer, capable de comprendre les relations de contexte des mots dans les phrases. Dans la recherche, BERT est utilisé pour réorganiser les documents initialement récupérés. Il calcule les scores de pertinence entre la requête et les documents en les encodant conjointement, ce qui permet de réorganiser les documents. Par exemple, pour la requête "se garer sur une rampe sans bordure", BERT est capable de comprendre le sens de "sans bordure" et de renvoyer des pages suggérant aux conducteurs d'orienter leurs roues vers le bord de la route, au lieu de mal interpréter cela comme une situation avec bordure. Pour les ingénieurs SEO, cela signifie qu'ils doivent apprendre précisément les algorithmes de classement et de recommandation de Google basés sur l'apprentissage automatique, afin d'optimiser de manière ciblée le contenu des pages web pour obtenir un meilleur affichage de classement.
Voici le processus de travail typique d'un moteur de recherche Google. Cependant, à l'ère actuelle de l'explosion de l'IA et des Big Data, les utilisateurs ont de nouvelles exigences en matière d'interaction avec les navigateurs.
Pourquoi l'IA va-t-elle redéfinir les navigateurs
Tout d'abord, nous devons clarifier pourquoi cette forme de navigateur existe encore. Existe-t-il une troisième forme?
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'écosystème nouveau des navigateurs habilité par l'IA : une révolution du affichage d'informations à l'appel de tâches intelligentes.
La révolution des navigateurs à l'ère de l'IA : de l'affichage d'informations à l'appel de tâches
La troisième guerre des navigateurs se déroule discrètement. Depuis les années 90 avec Netscape et Microsoft IE, jusqu'à l'open source Firefox et Google Chrome, la lutte entre navigateurs a toujours été une manifestation concentrée du contrôle de la plateforme et des changements de paradigmes technologiques. Chrome a conquis une position dominante grâce à sa rapidité de mise à jour et à son écosystème interconnecté, Google a formé un cycle fermé d'entrée d'information grâce à la structure "duopole" entre la recherche et le navigateur.
Cependant, ce schéma est en train de trembler. L'émergence des grands modèles de langage (LLM) amène de plus en plus d'utilisateurs à accomplir des tâches sur la page de résultats de recherche sans cliquer, réduisant ainsi le comportement traditionnel de clic sur les pages web. Parallèlement, les rumeurs selon lesquelles Apple pourrait remplacer le moteur de recherche par défaut dans Safari menacent davantage les bénéfices d'Alphabet, et l'inquiétude du marché quant à la "légitimité de la recherche" commence à se manifester.
Le navigateur lui-même est également confronté à une redéfinition de son rôle. Il n'est pas seulement un outil d'affichage des pages web, mais aussi un conteneur d'une multitude de capacités telles que l'entrée de données, le comportement des utilisateurs et l'identité privée. Bien que l'Agent IA soit puissant, pour réaliser des interactions complexes sur les pages, accéder aux données d'identité locales et contrôler les éléments de la page web, il doit encore s'appuyer sur les limites de confiance et le bac à sable fonctionnel du navigateur. Le navigateur évolue d'une interface humaine à une plateforme d'appels système pour les Agents.
Ce qui pourrait réellement briser le paysage actuel du marché des navigateurs n'est pas un autre "meilleur Chrome", mais une nouvelle structure d'interaction : ce n'est pas une présentation de l'information, mais un appel à des tâches. Les navigateurs du futur doivent être conçus pour les agents AI - non seulement capables de lire, mais aussi d'écrire et d'exécuter. Des projets comme Browser Use tentent de sémantiser la structure des pages, transformant l'interface visuelle en texte structuré pouvant être appelé par des LLM, réalisant ainsi une cartographie des pages aux instructions, ce qui réduit considérablement le coût d'interaction.
Les projets majeurs sur le marché ont commencé à explorer : Perplexity construit un navigateur natif Comet, remplaçant les résultats de recherche traditionnels par de l'IA ; Brave combine protection de la vie privée et raisonnement local, renforçant les fonctionnalités de recherche et de blocage avec LLM ; tandis que des projets natifs de Crypto comme Donut visent un nouvel accès aux interactions entre l'IA et les actifs on-chain. La caractéristique commune de ces projets est : essayer de reconstruire le côté input du navigateur, plutôt que d'embellir sa couche de sortie.
Pour les entrepreneurs, les opportunités se cachent dans la relation triangulaire entre l'entrée, la structure et l'agent. Le navigateur, en tant qu'interface pour invoquer le monde à l'avenir, signifie que ceux qui peuvent fournir des "blocs de capacité" structurés, invoquables et dignes de confiance pourront devenir une partie intégrante de la nouvelle génération de plateformes. De l'optimisation SEO à l'AEO (Agent Engine Optimization), du trafic de pages aux appels de chaînes de tâches, la forme et la conception des produits sont en reconstruction. La troisième guerre des navigateurs se déroule autour de l'"entrée" plutôt que de la "présentation" ; ce qui détermine le résultat n'est plus qui attire l'attention des utilisateurs, mais qui gagne la confiance de l'agent et obtient l'accès à l'invocation.
Histoire du développement des navigateurs
Au début des années 90, alors qu'Internet n'était pas encore une partie intégrante de la vie quotidienne, Netscape Navigator est apparu, ouvrant les portes du monde numérique à des millions d'utilisateurs. Ce navigateur n'était pas le premier, mais il a été le premier véritable produit à s'adresser au grand public et à façonner l'expérience Internet.
Cependant, la splendeur fut de courte durée. Microsoft a rapidement contraint Internet Explorer à être intégré dans le système d'exploitation Windows, en faisant le navigateur par défaut. Cette stratégie peut être qualifiée de "coup de maître de la plateforme", qui a directement démantelé la position dominante de Netscape sur le marché. Grâce à la capacité de distribution de Windows, IE est rapidement devenu le leader du secteur, tandis que Netscape est tombé dans une spirale de déclin.
Dans une impasse, les ingénieurs de Netscape ont choisi une voie radicale et idéaliste - ils ont rendu le code source du navigateur public, lançant un appel à la communauté open source. Ce code est devenu la base du projet de navigateur Mozilla, initialement nommé Phoenix (signifiant renaissance du phénix), qui a subi plusieurs changements de nom avant d'être finalement appelé Firefox.
Firefox n'est pas une simple copie de Netscape, il a réalisé de nombreuses percées en matière d'expérience utilisateur, d'écosystème de plugins et de sécurité. Sa naissance marque la victoire de l'esprit open source et insuffle une nouvelle vitalité à l'ensemble de l'industrie.
En 1994, le navigateur Opera a été lancé, il vient de Norvège et était au départ un projet expérimental. Mais à partir de la version 7.0 en 2003, il a introduit le moteur Presto développé en interne, étant le premier à supporter des technologies de pointe telles que CSS, la mise en page adaptative, le contrôle vocal et le codage Unicode. Bien que le nombre d'utilisateurs soit limité, il a toujours été à la pointe de la technologie dans l'industrie, devenant "le préféré des geeks".
La même année, Apple a lancé le navigateur Safari. Bien que le moteur de recherche par défaut de Safari soit Google depuis sa création, cette histoire complexe avec Microsoft symbolise la relation délicate et complexe entre les géants de l'internet : collaboration et compétition, toujours inséparables.
En 2007, IE7 a été lancé avec Windows Vista, mais les retours du marché ont été mitigés. En revanche, Firefox, grâce à un rythme de mise à jour plus rapide, un mécanisme d'extension plus convivial et un attrait naturel pour les développeurs, a vu sa part de marché augmenter régulièrement pour atteindre environ 20 %. La domination d'IE a lentement commencé à s'affaiblir, et le vent est en train de changer.
Chrome a été lancé en 2008, construit sur le projet open source Chromium et le moteur WebKit utilisé par Safari. Il est surnommé le navigateur "lourd", mais grâce à l'expertise de Google en matière de publicité et de création de marque, il a rapidement émergé.
L'atout majeur de Chrome n'est pas sa fonctionnalité, mais plutôt son rythme de mises à jour fréquentes (toutes les six semaines) et une expérience unifiée sur toutes les plateformes. En novembre 2011, Chrome a d'abord dépassé Firefox, atteignant une part de marché de 27 % ; six mois plus tard, il a de nouveau dépassé IE, complétant ainsi sa transformation de challenger en dominateur.
En parallèle, l'internet mobile en Chine est également en train de former son propre écosystème. Le navigateur UC d'Alibaba a rapidement gagné en popularité au début des années 2010, notamment sur des marchés émergents tels que l'Inde, l'Indonésie et la Chine, attirant les utilisateurs d'appareils bas de gamme grâce à son design léger et à ses fonctionnalités de compression de données pour économiser de la bande passante. En 2015, sa part de marché mondiale des navigateurs mobiles a dépassé 17 %, atteignant un impressionnant 46 % en Inde. Cependant, cette victoire n'a pas duré. Avec le renforcement par le gouvernement indien des contrôles de sécurité sur les applications chinoises, le navigateur UC a été contraint de se retirer de ce marché clé, perdant peu à peu son ancienne gloire.
Entrant dans les années 2020, la domination de Chrome est désormais établie, avec une part de marché mondiale stable d'environ 65 %. Il est à noter que, bien que le moteur de recherche Google et le navigateur Chrome appartiennent tous deux à Alphabet, ils représentent en termes de marché deux systèmes hégémoniques indépendants - le premier contrôlant environ 90 % des points d'entrée de recherche dans le monde, tandis que le second détient la majorité des utilisateurs accédant à Internet par la "première fenêtre".
Pour maintenir cette structure de double monopole, Google n'hésite pas à investir des sommes considérables. En 2022, Alphabet a versé environ 20 milliards de dollars à Apple simplement pour garder Google en tant que moteur de recherche par défaut dans Safari. Des analyses ont indiqué que cette dépense équivaut à 36% des revenus publicitaires de recherche que Google tire du trafic de Safari. En d'autres termes, Google paie une "taxe de protection" pour sa barrière de protection.
Mais le vent a encore une fois changé. Avec l'essor des grands modèles de langage (LLM), la recherche traditionnelle commence à être perturbée. En 2024, la part de marché de Google dans la recherche est tombée de 93 % à 89 %, bien qu'il reste dominant, des fissures commencent à apparaître. Ce qui est plus perturbateur, ce sont les rumeurs selon lesquelles Apple pourrait lancer son propre moteur de recherche AI - si Safari change de moteur de recherche par défaut pour s'aligner sur son propre camp, cela pourrait non seulement réécrire le paysage écologique, mais aussi ébranler le pilier de profits d'Alphabet. Le marché réagit rapidement, le prix de l'action d'Alphabet est tombé de 170 dollars à 140 dollars, reflétant non seulement la panique des investisseurs, mais aussi une profonde inquiétude quant à l'avenir de l'ère de la recherche.
De Navigator à Chrome, de l'idéal open source à la commercialisation de la publicité, de navigateur léger à assistant de recherche AI, la guerre des navigateurs a toujours été une bataille sur la technologie, la plateforme, le contenu et le contrôle. Le champ de bataille ne cesse de changer, mais l'essence n'a jamais changé : celui qui contrôle l'entrée définit l'avenir.
Aux yeux des VC, en s'appuyant sur les nouveaux besoins des utilisateurs de moteurs de recherche à l'ère des LLM et de l'IA, la troisième guerre des navigateurs est en train de se déployer progressivement.
L'architecture obsolète des navigateurs modernes
En ce qui concerne l'architecture des navigateurs, l'architecture traditionnelle classique est la suivante :
Client - Point d'entrée frontal
Interroger le Google Front End le plus proche via HTTPS, effectuer le décryptage TLS, l'échantillonnage QoS et le routage géographique. En cas de détection de trafic anormal (DDoS, scraping automatique), il est possible de limiter ou de défier à ce niveau.
Compréhension de la requête
L'interface utilisateur doit comprendre le sens des mots saisis par l'utilisateur, en trois étapes : correction orthographique neuronale, corrigeant "recpie" en "recipe" ; expansion de synonymes, élargissant "how to fix bike" à "repair bicycle". Analyse des intentions, déterminant si la requête est d'information, de navigation ou d'intention transactionnelle, et attribuant une demande verticale.
Rappel des candidats
La technologie de requête utilisée par Google est appelée : index inversé. Dans un index direct, nous pouvons indexer un fichier simplement en fournissant un ID. Cependant, les utilisateurs ne peuvent pas connaître le numéro du contenu qu'ils souhaitent parmi des milliers de milliards de fichiers, c'est pourquoi un index inversé traditionnel est utilisé pour rechercher quels fichiers contiennent les mots-clés correspondants. Ensuite, Google utilise l'indexation vectorielle pour traiter la recherche sémantique, c'est-à-dire rechercher du contenu ayant un sens similaire à la requête. Cela convertit du texte, des images et d'autres contenus en vecteurs de haute dimension (embedding) et effectue des recherches en fonction de la similarité entre ces vecteurs. Par exemple, même si un utilisateur recherche "comment faire de la pâte à pizza", le moteur de recherche peut renvoyer des résultats liés à "guide de fabrication de pâte à pizza", car ils sont sémantiquement similaires. Après le passage par l'index inversé et l'indexation vectorielle, environ cent mille pages web seront pré-sélectionnées.
Tri multi-niveau
Les systèmes filtrent généralement des milliers de caractéristiques légères dans des dimensions, telles que BM25, TF-IDF et la note de qualité des pages, pour réduire un ensemble de candidats de l'échelle de centaines de milliers de pages à environ 1000, formant ainsi un ensemble de candidats préliminaires. Ces systèmes sont communément appelés moteurs de recommandation. Ils s'appuient sur une multitude de caractéristiques générées par des entités massives, y compris le comportement des utilisateurs, les attributs des pages, l'intention de la requête et les signaux contextuels. Par exemple, Google prend en compte l'historique des utilisateurs, les retours d'autres utilisateurs, la sémantique des pages, la signification des requêtes, tout en tenant également compte des éléments contextuels tels que le temps (la période de la journée, les jours spécifiques de la semaine) et des événements externes comme les actualités en temps réel.
Apprentissage profond pour le tri principal
Au stade de la recherche préliminaire, Google utilise des technologies telles que RankBrain et Neural Matching pour comprendre le sens des requêtes et filtrer les résultats préliminaires parmi une multitude de documents. RankBrain est un système d'apprentissage automatique introduit par Google en 2015, visant à mieux comprendre la signification des requêtes des utilisateurs, en particulier celles qui apparaissent pour la première fois. Il convertit les requêtes et les documents en représentations vectorielles, calculant la similarité entre eux afin de trouver les résultats les plus pertinents. Par exemple, pour la requête "comment faire de la pâte à pizza", même si aucun mot-clé correspondant n'est présent dans le document, RankBrain peut identifier des contenus liés à "base de pizza" ou "préparation de pâte".
Le Neural Matching est une autre technologie lancée par Google en 2018, visant à comprendre plus en profondeur les relations sémantiques entre les requêtes et les documents. Il utilise des modèles de réseaux neuronaux pour capturer les relations floues entre les mots, aidant Google à mieux faire correspondre les requêtes et le contenu des pages web. Par exemple, pour la requête "Pourquoi le ventilateur de mon ordinateur portable est-il si bruyant ?", le Neural Matching peut comprendre que l'utilisateur recherche probablement des informations de dépannage concernant la surchauffe, l'accumulation de poussière ou une utilisation élevée du processeur, même si ces mots ne figurent pas directement dans la requête.
Réarrangement profond : Application du modèle BERT
Après avoir pré-sélectionné les documents pertinents, Google utilise le modèle BERT (Bidirectional Encoder Representations from Transformers) pour affiner le classement de ces documents, afin de s'assurer que les résultats les plus pertinents apparaissent en premier. BERT est un modèle de langage pré-entraîné basé sur Transformer, capable de comprendre les relations de contexte des mots dans les phrases. Dans la recherche, BERT est utilisé pour réorganiser les documents initialement récupérés. Il calcule les scores de pertinence entre la requête et les documents en les encodant conjointement, ce qui permet de réorganiser les documents. Par exemple, pour la requête "se garer sur une rampe sans bordure", BERT est capable de comprendre le sens de "sans bordure" et de renvoyer des pages suggérant aux conducteurs d'orienter leurs roues vers le bord de la route, au lieu de mal interpréter cela comme une situation avec bordure. Pour les ingénieurs SEO, cela signifie qu'ils doivent apprendre précisément les algorithmes de classement et de recommandation de Google basés sur l'apprentissage automatique, afin d'optimiser de manière ciblée le contenu des pages web pour obtenir un meilleur affichage de classement.
Voici le processus de travail typique d'un moteur de recherche Google. Cependant, à l'ère actuelle de l'explosion de l'IA et des Big Data, les utilisateurs ont de nouvelles exigences en matière d'interaction avec les navigateurs.
Pourquoi l'IA va-t-elle redéfinir les navigateurs
Tout d'abord, nous devons clarifier pourquoi cette forme de navigateur existe encore. Existe-t-il une troisième forme?