L’illusion d’une visibilité unique dans l’IA
L’une des illusions les plus dangereuses du nouveau marché consiste à croire qu’il existerait une « visibilité dans l’IA » unique. Une marque pose une question à un système, voit la réponse et en tire une conclusion de grande portée : soit on nous voit, soit on ne nous voit pas. En réalité, l’environnement de réponse s’est déjà fragmenté en plusieurs écosystèmes autonomes, chacun construisant sa propre version de la réalité du web. C’est pourquoi une même marque peut apparaître comme un leader solide dans une interface, comme une option discutable dans une autre, et comme une entité presque imperceptible dans une troisième. Non parce qu’elle aurait changé du jour au lendemain, mais parce que la machine même de sélection, de synthèse et de représentation des connaissances a changé.
Pour ce phénomène, la notion de « bulle de réponses » est particulièrement pertinente. Au printemps 2026, les chercheurs de l’étude Answer Bubbles ont analysé 11 000 requêtes réelles dans plusieurs systèmes et montré que les environnements de réponse de l’IA présentent des biais marqués dans le choix des sources, dans le langage de la synthèse et dans la manière dont les citations sont reliées à l’affirmation finale [1]. Il est particulièrement important que les auteurs ne constatent pas de simples écarts de qualité entre les réponses, mais des réalités informationnelles structurellement différentes. Les mêmes requêtes aboutissent à des ensembles de sources différents, à des tonalités de certitude différentes et à une visibilité différente de certains types de documents. L’étude montre aussi qu’une fois la recherche activée, les systèmes réduisent le nombre de marqueurs d’incertitude — autrement dit, ils se mettent à parler avec davantage d’assurance — tout en renforçant leurs propres biais de sources [1]. Il ne s’agit déjà plus de simples variations de style ; il s’agit de différences dans la structure même de la fenêtre à travers laquelle l’utilisateur voit le marché.
De quoi se compose la « bulle de réponses »
Pourquoi cela se produit-il ? La première raison tient à la diversité des infrastructures de recherche et d’extraction. Google explique explicitement que AI Overviews et AI Mode utilisent une décomposition en éventail de la requête par sous-thèmes et par sources de données — ce que l’entreprise appelle elle-même query fan-out — et peuvent afficher un ensemble de liens d’appui plus large que la recherche classique [2]. Mais Google précise également que AI Mode et AI Overviews peuvent recourir à des modèles et à des techniques différents, si bien que l’ensemble des réponses et des liens varie même à l’intérieur d’un même écosystème [2]. C’est une nuance importante. La différence entre les systèmes ne passe pas seulement par la frontière « Google contre tous les autres », mais aussi, au sein de chaque plateforme, entre différents modes de réponse.
La deuxième raison est la différence de mémoire paramétrique des modèles, c’est-à-dire du savoir assimilé avant la requête elle-même. L’étude Navigating the Shift souligne que l’écart entre la recherche traditionnelle et les réponses génératives s’explique non seulement par l’extraction web en temps réel, mais aussi par le préapprentissage du modèle, qui continue de façonner la logique de sélection et d’interprétation des sources [3]. Pour une marque, cela signifie une chose désagréable mais salutaire : sa présence sur internet ne garantit pas encore que tous les systèmes la liront de la même manière. Un système s’appuie davantage sur la recherche vivante et sur les documents récents, un autre sur des régularités de catégorie assimilées à l’avance, un troisième sur un mélange des deux.
La troisième raison est la différence des préférences de sources. Answer Bubbles montre que, dans les synthèses génératives, Wikipedia et les textes plus longs apparaissent de manière disproportionnée, tandis que les sources sociales et à tonalité négative sont, à l’inverse, sous-représentées [1]. L’étude The Rise of AI Search ajoute une autre couche à ce tableau : la recherche assistée par IA fait remonter en moyenne moins de « longue traîne » du web, cite plus souvent les plus grands sites et offre, dans l’ensemble, une variabilité des réponses plus faible que la recherche classique [4]. Pour le marché, cela signifie que différents systèmes ne se contentent pas de trouver des documents différents. Ils résolvent différemment la question de savoir quel type de source mérite, au fond, de faire partie de la version publique de la réalité.
La quatrième raison tient à des choix d’interface et de politique produit différents. Dans l’étude déjà citée The Rise of AI Search, les auteurs montrent que l’apparition même d’une réponse d’IA dépend du type de requête : les questions reçoivent des synthèses de réponse bien plus souvent que les formulations navigationnelles [4]. Cela peut sembler anecdotique, mais pour une marque les conséquences sont énormes. Une entreprise peut être très visible dans un mode de requête directe par nom et presque disparaître dans un mode de question sur la catégorie, où la décision est prise plus tôt et sans intention explicite de visiter le site de la marque. En pratique, cela signifie que différents systèmes ne répondent pas seulement différemment à la question, mais tranchent aussi différemment sur le point de savoir si la question mérite elle-même une réponse générative.
La cinquième raison est la différence des critères de confiance accordés aux sources. Dans Search Arena, on voit que les utilisateurs préfèrent plus souvent les réponses comportant un plus grand nombre de citations, et que le type des sources citées influe également sur cette préférence [5]. SourceBench souligne, de son côté, que la qualité des sources détermine directement la fiabilité de la réponse [6]. Mais la question de savoir quelles sources doivent être considérées comme de qualité est résolue différemment par chaque système. Pour l’un, les grands pôles de référence comptent davantage ; pour l’autre, ce sont les plateformes technologiques et sociales ; pour un troisième, les documents officiels ou les catalogues commerciaux. Ainsi, une marque peut gagner dans un environnement grâce à une documentation solide et perdre dans un autre, où la couche décisive est celle des analyses indépendantes.
Pourquoi un instantané isolé est presque inutile
L’effet pratique de ces différences apparaît clairement dans des exemples tirés du travail quotidien. Supposons qu’une entreprise vende un service analytique complexe pour le commerce électronique. Dans une interface de réponse, elle peut être présentée comme une « solution pour les commerces de taille moyenne et grande » — parce que le système s’est appuyé sur le site officiel, une revue sectorielle et plusieurs longs articles comparatifs. Dans une autre interface, la même marque apparaîtra comme un « produit d’entreprise coûteux » — parce que le modèle aura attiré un ensemble de publications externes sur de grands déploiements et ignoré le segment des petites entreprises. Dans une troisième réponse, elle disparaîtra complètement au profit de services plus simples, si la question de l’utilisateur a été formulée comme « avec quoi démarrer rapidement sans long déploiement ». Et, dans les trois cas, il ne sera pas question de mensonge au sens strict, mais de régimes différents de sélection, d’accentuation et de généralisation.
Il en découle une conclusion méthodologique très importante : un instantané isolé de visibilité est presque inutile. Si une marque s’est vérifiée une seule fois, dans un seul système, avec une seule requête et dans une seule langue, elle n’a pas mesuré le marché — elle a mesuré un hasard. Pour comprendre la situation réelle, il faut évaluer non seulement le résultat moyen, mais aussi la dispersion. Combien de versions différentes de la marque apparaissent dans différents systèmes ? Avec quelle stabilité les propriétés clés se répètent-elles ? Comment l’ensemble des citations change-t-il quand on modifie la formulation ? La marque apparaît-elle dans les réponses sur la catégorie sans mention directe de son nom ? Ce sont là les questions qui montrent réellement la position d’une entreprise dans l’environnement de réponse.
Pour la future base ai100, un schéma d’observation presque naturel s’impose ici. Pour chaque requête étudiée, il vaut la peine de conserver non seulement le fait même de la réponse, mais aussi le système, le mode de réponse, la date, la langue, le type d’intention, l’ensemble des citations, le ton dominant, la place de la marque dans la composition de la réponse et le nombre d’alternatives automatiquement ajoutées à la comparaison. Alors la « bulle de réponses » cessera d’être une métaphore pour devenir une grandeur mesurable : on pourra voir à quel point la marque résiste au changement d’intermédiaire et à quel endroit exact commence la divergence.
Comment construire une observation inter-systèmes
Une conclusion plus profonde encore s’impose pour l’entreprise. Si différents systèmes construisent différentes versions d’une marque, alors la tâche stratégique de l’entreprise n’est pas d’obtenir une uniformité absolue, en principe inaccessible, mais de réduire la dispersion chaotique et d’augmenter la part des interprétations souhaitables. Cela ne s’obtient pas par des procédés magiques d’« optimisation pour l’IA », mais par une discipline de la connaissance : des formulations cohérentes sur ses propres ressources, des validations externes solides, une couche de données lisible par machine claire, une catégorisation précise du produit et une attention portée aux types de questions où la marque disparaît aujourd’hui.
Dans un certain sens, la « bulle de réponses » est une nouvelle forme de fragmentation du marché. Autrefois, les entreprises se battaient pour une place dans les résultats de recherche. Désormais, elles se battent aussi pour la stabilité de leur entité lors du passage d’une machine de réponse à une autre. C’est pourquoi, en 2026, une marque mature devrait se demander non pas seulement « que dit l’IA de nous ? », mais « quelles versions de nous existent dans différents mondes de réponse — et laquelle l’emporte le plus souvent sur les autres ? » Ce n’est qu’après une telle question que commence un travail véritablement contemporain sur la visibilité.
Ce qui reste probable ou dépend de la plateforme
La contribution exacte de chaque mécanisme — mémoire paramétrique, extraction, politique d’affichage, interface — à la divergence d’une réponse concrète reste généralement cachée à l’observation externe.
Signification pratique pour le travail avec la marque
Il en découle une règle directe : une vérification dans un seul système et avec une seule formulation ne dit presque rien de la position réelle de la marque. Il faut une série d’exécutions, de langues et de plateformes.
Il est bien établi que différents systèmes se distinguent par leur infrastructure de recherche, leurs préférences de sources, leurs choix d’interface et leur style de synthèse. C’est pourquoi une même marque reçoit des versions machine différentes.