Articles

Web 2.0 - Tirer parti de l'intelligence collective

Tirer parti de l'intelligence collective

L'architecture de participation

Certains systèmes sont conçus pour favoriser la participation des utilisateurs. Dans son article, The Cornucopia of the Commons ("la corne d'abondance des foules"), Dan Bricklin met en évidence 3 manières d'élaborer une base de données importante. La première, mise en oeuvre par Yahoo!, est de payer des gens pour faire le travail. La deuxième, inspirée par la communauté Open Source, est de confier cette tâche à des volontaires. Le projet Open Directory, un concurrent Open Source de Yahoo, en est un exemple. Toutefois, Napster a mis en place une troisième méthode. Comme Napster met automatiquement chaque musique téléchargée sur un serveur, chaque utilisateur contribue a construire cette base de données partagée. La même démarche a été suivie par tous les autres services de partage de fichiers "P2P" (de particulier à particulier).

Un des points importants de l'ère web 2.0 est le fait que les actions des utilisateurs ajoutent de la valeur. Cependant, seul un petit pourcentage d'utilisateurs se donnera la peine d'ajouter intentionnellement de la valeur à votre application. En conséquence, les sociétés Web 2.0 accumulent les données utilisateurs afin de créer de la valeur ajoutée, en complément à l'utilisation normale de l'application. Comme spécifié plus haut, ils construisent des systèmes qui s'améliorent au fur et à mesure que les gens l'utilisent.

Mitch Kapor a dit un jour : "l'architecture, c'est de la politique". La participation est intrinsèque à Napster, et forme une part fondamentale de son architecture.

Cette vision architecturale est peut être aussi la cause du succès du logiciel Open Source, plus que, comme on l'entend souvent, le volontariat. L'architecture d'internet, et du World Wide Web, est telle que les utilisateurs "égoïstes" poursuivant leurs propres intérêts créent automatiquement de la valeur de façon implicite. Chacun de ces projets a un petit noyau, des mécanismes d'extension bien définis, et un accès qui permet à tout utilisateur d'ajouter des composants, construisant ainsi les couches supérieures de ce que Larry Wall, le créateur de Perl, appelle "l'oignon". En d'autres termes, ces technologies produisent des effets de réseau, simplement par la manière dont elles ont été façonnées.

Les projets Open Source peuvent donc donner l'impression de posséder naturellement cette architecture de participation. Pourtant, comme le montre Amazon, avec des efforts conséquents (tout autant que des motivations économiques comme le "programme Partenaires"), il est possible d'appliquer une telle architecture sur un système qui, à première vue, n'aurait pas pu en bénéficier.

Le principe central du succès des géants nés du web 1.0 qui ont survécu pour maintenant mener l'ère du web 2.0, semble être qu'ils ont su exploiter de manière efficace la force de l'intelligence collective que recèle potentiellement le web :

Les liens hypertextes sont le fondement du web. Au fur et à mesure que les utilisateurs ajoutent des contenus, celui-ci est intégré à la structure du web par d'autres utilisateurs qui les découvrent et placent des liens vers ceux-ci. Telles des synapses formant un cerveau où les associations se renforçent à force de répétitions et d'intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l'activité de l'ensemble des utilisateurs.
Yahoo !, la première grande success story, est né d'un catalogue de liens, une agrégation du meilleur de milliers puis de millions d'internautes. Même si Yahoo! a depuis quelque peu changé de modèle d'affaire, son rôle en tant que portail vers l'oeuvre collective des utilisateurs du web reste sa principale valeur.
La percée de Google dans la recherche, qui en a fait rapidement et indiscutablement le maître du marché, était basée sur le PageRank (ndt : littéralement classement de page), une méthode basée sur la structure hypertexte du web plutôt que sur l'analyse des contenus.

Le produit d'eBay est l'activité collective de l'ensemble de ses utilisateurs ; comme le web lui-même, eBay grossit organiquement en réponse à l'activité de ses clients, le rôle de la société consistant simplement à fournir le contexte dans lequel cette activité peut se dérouler. De plus, les avantages comparatifs d'eBay viennent entièrement de la masse critique d'acheteurs et de vendeurs disponibles, tout nouveau concurrent étant inévitablement pénalisé de ce point de vue.

Amazon vend les même produits que des concurrents tels que Barnesandnoble.com, ils reçoivent les mêmes descriptions de produits, images de couverture et contenus de la part des éditeurs. Mais Amazon a fait une science de l'implication du consommateur. Ils sont un cran au dessus des autres en ce qui concerne les commentaires des acheteurs, les invitations à participer (de plusieurs manières et sur quasiment toutes les pages) – et plus important encore, ils se servent de l'activité des utilisateurs pour affiner les résultats de leurs recherches. Alors que les recherches de Barnesandnoble.com poussent les utilisateurs vers ses propres produits ou vers des résultats sponsorisés, Amazon renvoie toujours vers « les plus populaires », une notion calculée en temps réel non pas à partir des ventes mais à partir de ce que les gens d'Amazon appellent le « flow » (ndt : le bruit, le mouvement, le flux) autour des produits. Il n'y a donc rien d'étonnant à voir la croissance des ventes d'Amazon dépasser celles de ses concurrents.

Ces temps derniers, plusieurs sites ont marqué le web de leur empreinte avec de tels principes et les poussent même peut-être un peu plus loin :

- Wikipedia, une encyclopédie en ligne basée sur le principe peu commun qu'une entrée puisse être ajoutée par n'importe quel utilisateur du web et modifiée par un autre est une expérimentation radicale du dicton de Eric Raymond (qui se référait à la base au développement open-source) qu' « avec suffisamment d'yeux, tous les bugs disparaissent » dans le domaine de la création de contenu.

- Les sites tels que del.icio.us et Flickr, 2 sociétés ayant bénéficié dernièrement d'une grande attention, ont été pionnières dans le concept que certains appellent « folksonomy » (ndt : qu'on pourrait traduire par « classement par les gens » pour contraster avec « taxonomy », « classement standard »), une sorte de catégorisation collaborative des sites utilisant des mots clés librement choisis, qu'on appelle en général « tag » (ndt : trace, marque). Le « tagging » permet un phénomène d'associations multiples et redondantes semblables à celles que le cerveau utilise lui-même plutôt que des catégories rigides. Exemple typique : une photo de Flickr d'un chiot peut être taguée par les termes « chiot » et « mignon » - permettant donc de retrouver la photo suivant un cheminement naturel grâce, une fois de plus, à l'activité des utilisateurs.

- Les systèmes anti-spam collaboratifs tels que Cloudmark agrègent les décisions individuelles des utilisateurs d'e-mail sur ce qui est et n'est pas du spam, et obtiennent de bien meilleurs résultats que les systèmes s'appuyant sur l'analyse des messages eux-mêmes.

- C'est enfoncer une porte ouverte que de dire que les plus grands succès du web ne font pas de publicité sur leurs produits. Leur adoption est guidée par le « marketing viral », les recommandations se propageant d'utilisateur unique à utilisateur unique. Vous pouvez parier sur le fait que si un site ou un produit se repose sur la publicité pour faire parler de lui, il n'est pas web 2.0.

- Une grande partie de l'infrastructure du web elle-même – Linux, Apache, MySQL et du code Perl, PHP ou Python sont utilisés sur la plupart des serveurs web – repose sur les méthodes de « production individuelle » (ndt : par opposition à la production de masse de firmes privées) de l'open-source qui sont, elles aussi, une émanation de l'intelligence collective.

- Il existe plus de 100.000 projets open-source listés sur SourceForge.net. N'importe qui peut y ajouter un projet, télécharger et utiliser le code, et les nouveaux projets migrent de la périphérie vers le centre à mesure que les utilisateurs les font vivre, contribuent, téléchargent... le tout reposant évidemment sur le marketing viral.

La leçon à retenir : Dans l'univers web 2.0, l'implication des utilisateurs dans le réseau est le facteur-clé pour la suprématie du marché

Les blogs et la sagesse des foules

Un des traits les plus remarquables de l'ère Web 2,0 est la montée du phénomène « blog ». Les pages personnelles étaient là depuis les débuts du web, les journaux intimes et le courrier des lecteurs depuis longtemps encore... de quoi s'agit-il alors ?

On pourrait dire très simplement que le blog est une page personnelle dans un format journal intime. Mais comme le souligne Rich Skrenta, l'organisation chronologique d'un blog « semble être une différence anodine, alors que cela conduit à un processus de création, à un système de signalement et à une chaine de valeur radicalement transformés ».

Une des choses qui ont fait la différence est une technologie appelée RSS. RSS est l'avancée la plus significative dans l'architecture du web depuis que les premiers bricoleurs d'internet ont réalisé que les CGI pouvaient être utilisés pour créer des sites reposant sur des bases de données. RSS permet à quelqu'un de ne pas seulement attacher une page, mais de s'y abonner, avec un avertissement à chaque fois que le contenu de la page change. Skrenta appelle cela « le web incrémenté ». D'autres l'appellent « live web » (ndt : « le web en temps réel »).

Evidemment, « les sites web dynamiques » (c'est à dire générant dynamiquement un contenu à partir de base de données) ont désormais remplacé les pages web statiques depuis près de 10 ans. Mais ce qui est dynamique dans le « live web », ce ne sont pas seulement les contenus, ce sont les liens eux-mêmes. Un lien vers un blog pointe vers une page changeant périodiquement, avec des « permaliens » pour des entrées spécifiques, et un avertissement pour chaque changement. Un lien RSS est donc bien plus puissant que le favori ou le simple lien vers une autre page web.

RSS signifie aussi que les navigateurs web ne servent plus seulement à voir des pages. Certains agrégateurs de contenu, tels que Bloglines, sont basés sur le web, mais d'autres sont des applications résidentes et d'autres encore permettent à leurs utilisateurs de s'abonner à des flux RSS sur des dispositifs portables.

RSS n'est désormais plus seulement utilisé pour afficher les actualités des blogs, mais aussi pour toute sorte de données régulièrement mises à jour : cours de la bourse, météo, disponibilité de photos. Cette utilisation revient à l'une des origines du phénomène : RSS est né en 1997 de la rencontre de la « Really Simple Syndication » (ndt : la syndication vraiment simple) de Dave Winer, utilisée pour signaler les mises à jour de blogs, et de la « Rich Site Summary » (ndt : sommaire de site riche) de Netscape qui permettait à ses utilisateurs de créer des pages personnelles avec des flux de données régulièrement mis à jour. Netscape perdit de son intérêt pour cette technologie qui fut reprise par le pionnier du blog Userland, la société de Winer. Nous percevons cependant encore dans les dernières version de RSS l'héritage de ces deux parents.

Mais RSS est seulement une partie de ce qui rend le blog si différent d'une page web ordinaire. Citons la remarque de Tom Coates sur la signification des permaliens :
« Cela peut sembler n'être aujourd'hui qu'un élément anodin, mais c'était en réalité ce qui a fait que les weblogs, jusqu'alors un simple moyen de publier facilement du contenu, sont devenus cette extraordinaire fatras de communautés entremêlées. Pour la première fois, il est devenu assez simple de pointer vers un article très spécifique et d'en débattre. Des discussions se sont créées. Des sessions de chat se sont déroulées. Et, naturellement, les amitiés se sont nouées et renforcées. Le permalien fut la première – et la plus réussie – des tentatives de bâtir des ponts entre les blogs. »

De bien des manières, la combinaison de RSS et des permaliens ajouta à HTTP, le protocole du web, des caractéristiques de NNTP, le protocole de Usenet. La blogobulle peut être vue comme une nouvelle voie de communication de particulier à particulier équivalente à celle qu'offre Usenet depuis les débuts d'internet. Les blogueurs ne se contentent pas d'échanger des liens, ils peuvent aussi via le mécanismes des trackbacks (suivi des traces) voir qui les a liés à leur page et répondre soit par un lien réciproque soit par des commentaires.

Il est très intéressant de noter que les liens à double-sens furent un des buts des premiers systèmes hypertextes comme Xanadu. Les puristes de l'hypertexte ont salué l'arrivée des trackbacks comme une étape décisive sur le chemin de l'hyperlien à double-sens. Mais il faut noter que ces trackbacks ne sont pas à proprement parler à deux sens, ils s'avèrent plutôt être (potentiellement) des liens unidirectionnels symétriques créant un effet bidirectionnel. La différence paraît subtile mais en pratique, elle est considérable. Les réseaux sociaux tels que Friendster, Orkut ou encore LinkedIn, qui requièrent un accord de la personne sollicitée pour établir une connexion n'ont pas la souplesse du web. Comme le note Caterina Fake, cofondatrice du système de partage de photos Flickr, l'attention n'est réciproque que de manière accidentelle (Flickr permet donc de visualiser des listes, n'importe qui pouvant s'abonner au flux RSS de photos d'un autre utilisateur. L'accès est notifié mais n'a pas à être approuvé).

Si pour une part essentielle, le web 2.0 est une affaire d'intelligence collective (faire du web une sorte de cerveau global), la blogobulle est l'équivalente du dialogue mental permanent qui réside dans nos pensées superficielles, la voix que nous entendons tous en nous. Cela n'est certes pas nécessairement le reflet de la structure profonde de notre esprit qui est en grande partie faite d'inconscient, mais plutôt celui de notre pensée consciente. Et en tant que reflet de la pensée et de l'attention, la blogosphère a commencé à produire un effet des plus puissants...

Premièrement, parce que les moteurs de recherche utilisent les liens pour proposer des pages pertinentes et que les blogueurs, la population la plus prolifique en liens, ont désormais un rôle presque disproportionné dans les résultats des recherches. Deuxièmement, parce que la communauté des blogueurs se réfère souvent à elle-même, les blogs renvoyant vers d'autres blogs et renforçant ainsi leur visibilité. La « caisse de résonance » du web tant décriée est donc aussi un amplificateur.

Si ils n'étaient qu'un amplificateur, les blogs seraient toutefois assez inintéressants. Mais à la manière de Wikipédia, ils exploitent eux aussi l'intelligence collective pour mieux filtrer le contenu. C'est là que ce que James Suriowecki appelle la « sagesse des foules » entre en jeu : tout comme le PageRank de Google produit des résultats meilleurs qu'une analyse individuelle des documents, l'attention collective de la blogosphère sait retenir des informations plus pertinentes que n'importe quel autre filtre.

Alors que les grands medias se contentent de voir chaque blog comme un concurrent, ils tardent à faire l'amer constat que la compétition se déroule pour eux contre la blogobulle dans son ensemble. Il ne s'agit pas juste d'une guerre entre des sites mais entre des modèles économiques. Le monde du web 2.0 est aussi le monde de que Dan Gillmor désigne par l'expression « nous, les médias », un monde dans lequel ceux qui n'étaient jusque là qu'auditeurs reprennent à quelques personnes réunies dans une arrière-salle le pouvoir de choisir ce qui est important ou non.