Articles

Web 2.0 - Le web en tant que plate-forme

Le web en tant que plate-forme

Une plateforme gagne contre une application à tous les coups

A chaque confrontation passée, Microsoft a joué la carte de la plateforme avec succès, en l'emportant même face aux applications les mieux implantées. Ainsi, Windows a permis à Microsoft de remplacer Lotus 1-2-3 par Excel, WordPerfect par Word, et le navigateur Netscape par Internet Explorer.

Cette fois-ci cependant, le combat n'oppose pas une plateforme et une application, mais deux plateformes, chacune ayant un modèle d'affaires radicalement différent : d'une part, un seul fournisseur de logiciels, dont le système d'exploitation est installé de manière massive et dont les logiciels sont fortement liés aux particularités et aux API de ce dernier; d'autre part, un système sans propriétaire composé d'une multitude d'acteurs, reliés entre eux par un ensemble de protocoles, standards et accords de cooperation.

Windows est en quelque sorte l'apogée du contrôle propriétaire par des API logiciels. Netscape a essayé de dominer Microsoft en l'attaquant sur son terrain, et a échoué. A l'inverse, Apache, qui est resté dans les standards ouverts du web, a prospéré. La lutte n'est plus inégale, une plateforme contre une application seule, mais une plateforme contre une autre, ce qui soulève une question : quelle plateforme, et plus précisemment, quelle architecture et quel modèle d'affaires, conviennent le mieux dans un contexte donné.

Windows était une solution brillante aux problèmes de l'époque des premiers PC. Ceci a permis d'établir des règles du jeu équitables pour les développeurs d'application, en résolvant une foule de problèmes qui avaient auparavant déconcerté la profession. Pourtant, une approche monolithique controlée par un fournisseur unique, n'est, sur la durée, plus une solution mais un problème.

Les systèmes reposant sur la communication, comme l'est la "plateforme internet", requièrent de l'intéropérabilité. En conséquence, à moins qu'un fournisseur ne parvienne à contrôler les extrémités de chaque interaction, les possibilités de lock-in d'utilisateur (ndt : technique employée pour empêcher les utilisateurs d'utiliser autre chose) par les API logiciels deviennent plus limitées.

Chaque acteur du Web 2.0 qui cherche à verrouiller les utilisateurs au sein d'une application en contrôlant la plateforme, va, par définition, ne plus miser sur les points forts de la plateforme.

Cela ne signifie pas pour autant qu'il n'y ait pas d'opportunités de "lock-in" et d'avantage concurrentiel, mais nous croyons qu'ils ne doivent pas être accomplis via un contrôle des API ou des protocoles. Nous entrons donc bel et bien dans une nouvelle ère. Les sociétés qui réussiront dans celle-ci seront celles qui comprendront les nouvelles règles du jeu, plutôt que d'essayer de retourner à celles de l'époque du logiciel PC.

Comme de nombreux concepts majeurs, le web 2.0 n'a pas de frontière claire mais plutôt un centre de gravité. Vous pouvez voir le web 2.0 comme un ensemble de principes et de pratiques qui, à la manière d'un système planétaire, verrait des sites exposant tout ou partie de ses préceptes graviter à des distances variables du centre en question.

Schema

Ce schéma montre une cartographie du web 2.0 telle qu'elle a été développée lors d'une session brainstorming pendant le FOO Camp, une conférence O'Reilly Media. C'est encore à l'état de brouillon mais cela montre la plupart des idées émanant du noyau du web 2.0.

Lors de la première conférence web 2.0 en octobre 2004, John Battelle et moi-même avons établi une liste préliminaire de principes pour notre discours d'ouverture. Le premier de ces principes était « le web en tant que plate-forme ». Or il se trouve que c'était déjà la devise d'un enfant chéri du web 1.0, Netscape, qui avait malgré cela succombé à sa fameuse bataille contre Microsoft.

De plus, deux de nos exemples web 1.0 de départ, DoubleClick et Akamai, étaient des pionniers qui avaient eux aussi abordé le web comme une plate-forme. Les gens n'y pensent pas souvent en tant que « services web » mais en réalité, les serveurs de publicité furent probablement les premiers « mashup » (ndt : dans le sens ou ce sont des contenus diffusés directement au sein de sites clients) largement déployés sur la toile.

Chaque bannière publicitaire est en effet une forme de coopération entre 2 sites web dans un seul but : délivrer une page intégrée à un lecteur sur ordinateur de plus. De son côté, Akamai traite aussi le réseau en tant que plate-forme quand il élabore un cache ainsi qu'un système de distribution de contenu soulageant la bande-passante d'un réseau souvent congestionné.

Cependant ces pionniers apportent des contrastes intéressants avec des acteurs du web plus récents dans la mesure où ces derniers ont repris à leurs aînés des solutions aux mêmes problématiques tout en les poussant plus loin, et qu'ils expliquent ainsi de manière plus profonde la véritable nature de cette nouvelle plate-forme. DoubleClick et Akamai furent donc des pionniers du web 2.0, mais nous constatons déjà qu'il est possible d'exploiter plus efficacement ce nouveau concept à l'aide d'autres « design patterns » du web 2.0.

Je vous propose d'examiner plus précisément les trois cas qui suivent et qui nous permettront d'extraire les fameux traits différenciant le web 1.0 du web 2.0.

Netscape vs. Google

Si Netscape est emblématique du web 1.0, Google est de manière encore plus certaine son équivalent web 2.0, ne serait-ce du fait de leurs entrées sur les marchés boursiers qui marquèrent chacune l'aube d'une nouvelle ère du web. Commençons donc la comparaison de ces deux sociétés et de leur positionnement.

Netscape énonçait « le web en tant que plate-forme » dans les termes du paradigme du logiciel d'autrefois : leur produit-phare était le navigateur web, une application cliente, et leur stratégie était d'utiliser leur domination sur le marché du navigateur pour créer un marché à destination des serveurs haut de gamme. Le contrôle des standards d'affichage de contenu et des applications utilisant un navigateur aurait du en théorie donner à Netscape le même genre de pouvoir sur ce marché que celui que possède Microsoft sur celui des Pcs. Un peu à la manière de l'expression "horseless carriage" (ndt : « la charrette sans cheval ») qui popularisa l'automobile, Netscape promut l'expression « webtop » pour supplanter le desktop et prévit de remplir ce webtop d'informations et d'applications grâce à des apporteurs de contenus qui utiliseraient des serveurs Netscape.

Finalement, serveurs et navigateurs web devinrent de simples outils et la plus grande part de la valeur ajoutée du web se concentra dans les services diffusés par les plate-forme web.

Google au contraire, commença son existence en tant qu'application web native, jamais vendue ou packagée mais délivrée en tant que service, avec des clients payant, directement ou indirectement, pour utiliser ce service. Aucun des pièges de la vieille industrie logicielle ne pouvait s'appliquer à son modèle. Aucun planning de sortie de différentes version, juste une amélioration continue. Aucun système de vente ou de licence, simplement des utilisateurs. Aucun problème de portage sur différentes plate-forme de sorte que les clients puissent faire marcher le logiciel sur leur machine, uniquement une quantité massive de Pcs utilisant un système d'exploitation open source ainsi que quelques applications maison (que quiconque d'extérieur à l'entreprise n'a jamais pu voir...).

A la base, Google nécessitait une compétence dont Netscape n'avait jamais eu besoin : la gestion de base de données. Google n'est pas une simple suite d'outils logiciels, c'est une base de données spécialisée. Sans données, les outils ne servent à rien ; sans logiciel, les données sont ingérables. La gestion des licences et le contrôle des API – points cruciaux de l'ère précédente – n'avaient plus lieu d'être dans la mesure où les logiciels n'avaient plus besoin d'être distribués mais seulement utilisés et où sans la capacité de collecter et de gérer des données, le logiciel n'est que de peu d'utilité. En fait, la valeur d'un logiciel est proportionnelle à l'échelle et au dynamisme des données qu'il permet de gérer.

Le service offert par Google n'est ni un serveur – bien qu'il soit délivré par une quantité massive de serveurs web – ni un navigateur – bien que pour l'utiliser, un navigateur soit nécessaire. Leur service de recherche bien connu n'héberge même pas le contenu qu'ils permettent à leurs utilisateurs de trouver. A la façon d'un coup de téléphone où la valeur n'est pas dans les téléphones mais le réseau les mettant en relation, Google place sa valeur dans l'espace situé entre le navigateur et le serveur de contenu, comme un opérateur entre l'utilisateur et son usage du web.

Même si Netscape et Google peuvent être décrites comme des sociétés de logiciels, il est clair que Netscape appartient à la même catégorie que les Lotus, Microsoft, Oracle, SAP, et autres qui ont pris leur envol au début de la révolution logicielle du début des années 80 alors que les comparses de Google sont d'autres applications web telles que eBay, Amazon, Napster, et bien entendu, DoubleClick et Akamai.

DoubleClick vs. Overture et AdSense

Comme Google, DoubleClick est un pur produit de l'ère internet. Il décline le modèle du logiciel en tant que service, a un coeur de métier dans la manipulation des données et, comme nous l'avons vu plus haut, a été un pionnier du service web bien avant même que le terme « web service » ait été créé. Cependant, DoubleClick fut finalement limité par son modèle économique. La société paria en effet sur la croyance très « 90's » que le web était fait de publications et non de participations. ; que les annonceurs, et non les consommateurs, devaient être les acteurs moteur ; que la taille importait, et qu'Internet serait peu à peu dominé par les quelques sites webs du haut des classements de MediaMetrix et ses semblables.

Dans cette logique, DoubleClick annonce fièrement sur son site « plus de 2000 implémentations réussies » de sa solution. Pendant ce temps, Yahoo! Search Marketing (auparavant Overture) et Google AdSense possèdent déjà des centaines de milliers d'annonceurs...

Le succès de Google et d'Overture provint de leur compréhension de ce que Chris Anderson nomme « la longue traîne » (ndt : traduction de l'expression « the long tail » déjà popularisée dans la communauté francophone) : la force collective des petits sites représente l'essentiel du contenu du web. L'offre de DoubleClick demande un contrat de vente très formel, limitant leur marché aux quelques milliers de sites les plus importants. Overture et Google ont montré comment il était possible d'ajouter virtuellement de la publicité sur n'importe quelle page existante. De plus, ils ont remplacé les publicités tape-à-l'oeil et agaçantes telles que les bannières et les « pop-up » par des messages peu intrusifs, sensibles au contexte de la page à laquelle ils s'intègrent et finalement plus appréciés des consommateurs.

Leçon du web 2.0 : mettre au point un service simple d'accès et une gestion algorithmique des données pour toucher l'intégralité du web, jusque dans sa périphérie, pas seulement son centre, jusqu'au bout de sa longue traîne, pas seulement en son coeur.

De manière peu surprenante, les autres « success stories » du web 2.0 démontrent le caractère gagnant de ce modèle. Ebay permet les transactions occasionnelles de quelques dollars entre individus en tant qu'intermédiaire. Napster (bien que fermé pour des raisons légales) ne s'est pas construit grâce à un immense catalogue de chansons mais à travers la mise au point d'un système faisant de chaque client un serveur renforçant lui-même le réseau.

Akamai vs. BitTorrent

Tout comme DoubleClick, Akamai est optimisé pour faire des affaires avec un coeur de cible pas avec la périphérie du marché. Bien que ses services bénéficient à tous en facilitant l'accès aux sites à fortes audience, ses revenus ne proviennent que d'un certain nombres de grands comptes du web.

BitTorrent, comme les autres pionniers du mouvement peer-to-peer, utilise une approche radicalement différente de la décongestion des flux. Chaque client est aussi un serveur, les fichiers sont découpés en fragments légers pouvant être téléchargés de plusieurs lieux à la fois, permettant ainsi à chacun des membres du réseau d'apporter un peu de bande passante et de données à chacun des autres utilisateurs : plus un fichier est populaire, plus rapide est son téléchargement.

BitTorrent illustre là un principe clé du web 2.0 : le service s'améliore automatiquement quand le nombre de ses utilisateurs croit. Alors qu'Akamai doit ajouter des serveurs pour améliorer son service, chaque utilisateur de BitTorrent apporte un peu de ses ressources à l'ensemble de la communauté. C'est implicitement une « architecture de participation », une nouvelle éthique de la coopération dans laquelle le service agit comme un intermédiaire intelligent, connectant chaque parcelle de la gigantesque banlieue du web à une autre et donnant le pouvoir aux utilisateurs eux-mêmes.