La faille de Recaptcha

Recaptcha, vous connaissez? C’est le système anti-spam que l’on trouve en bas des formulaires en ligne qui garantissent que c’est bien un humain qui est derrière l’envoi d’information. Recaptcha vous affiche des lettres/chiffres tordus ou disposés de manière non-linéaires, et vous demande de recopier ce que vous voyez. Recaptcha n’est pas le seul à fournir ce genre de solution antispam, mais il est le seul à y avoir vu un intérêt sémantique et lucratif. Cependant, son système a une faille que le logiciel ne peut malheureusement pas guérir…

Recaptcha, le crowdsourcing de la reconnaissance de symboles

Recaptcha est né au milieu d’une masse incalculable d’outils proposant exactement la même solution. Son USP? L’idée de Recaptcha est d’intégrer dans la suite de lettres/chiffres à recopier exactement des symboles que même une application OCR n’est pas capable d’interpréter. Par exemple, dans une suite de 10 chiffres/lettres, 2 voir 3 des ces éléments seront inconnus de Recaptcha.

Quel intérêt? De cette manière, Recaptcha stocke en base tous les chiffres/lettres identifiés par les utilisateurs et permet ainsi d’enrichir la technologie OCR de manière générale. Il y a fort à parier que les chiffres/lettres inconnus de Recaptcha sont soumis à plusieurs utilisateurs pour croiser les réponses et garantir l’exactitude de la donnée fournie.

Google achète et l’adapte à ses besoins

Recaptcha a été racheté par Google en 2009. L’intérêt de Google est claire: il peut utiliser Recaptcha pour déchiffrer tout contenu que ses spiders auraient du mal à analyser, principalement les scans de journaux, de livres, ou tout pdf de qualité moyenne. Avec Recaptcha, Google enrichit son pouvoir d’analyse et d’indexation.

recapcha exempleMais Google ne s’arrête pas là: l’un de ses produits pose un problème auquel Recaptcha peut répondre: Google Maps. En effet, avec Streetview, Google Maps enregistre une capture de toutes les façades de tous les immeubles ou maisons. Les ingénieurs de Google Maps ont eu l’idée ingénieuse d’utiliser Recaptcha pour que les utilisateurs identifient eux-mêmes les numéros devant chaque façade. En effet, il est de plus en plus fréquent que Recaptcha affiche une série de 5-6 chiffres/lettres, suivie d’une photo d’un numéro de rue à déchiffrer. De cette manière, ce sont les utilisateurs de Recaptcha qui renseignent Google Maps sur le numéro de chaque rue, une valeur ajoutée qui permet à Google d’économiser en technos de reconnaissance, ou en petites mains qui analysent chaque numéro de rue un-à-un.

Tout cela pour en venir au fait: si vous avez un Recaptcha avec trois numéros sur une plaque qui ressemble à une plaque de numéro de rue, vous pouvez entrer n’importe quel numéro car Recaptcha n’a aucune idée des chiffres qu’il vient de vous soumettre. Cela rend tout de suite la solution recaptcha beaucoup moins séduisante pour sécuriser un site…

Disparition non-remarquée d’iGoogle

Je viens de remarquer un message de service sur iGoogle prévenant ses utilisateurs de l’interruption du service en novembre 2013. Après une rapide recherche sur Google, je me suis rendu compte que l’annonce date de juin 2012, mais vu que, tel le commun des mortels, iGoogle sort complètement de mes centres d’intérêt, ja n’avais pas vu passé la nouvelle.

Cette disparition s’inscrit dans 2 logiques: la première qui veut que Google recentre ses ressources autour de ses produits star et ferme les autres (RIP Google Reader). La deuxième selon laquelle les interfaces customisables à la Netvibes n’auront jamais vraiment percé.

Google ne veut plus être un fourre-tout

En évaluant les investissements colossaux en termes de temps et de stratégie pour faire de Google+ la star ascendante des réseaux sociaux, Google a compris qu’il fallait mieux canaliser ses forces de développement et se défaire des produits qui ne constituent pas un enjeu stratégique majeur. Certains de leurs choix, comme l’abandon des produits centrés autour du format RSS sont questionnables, mais d’autres tels que iGoogle sont complètement compréhensibles.

Lancé en mai 2005 (quelques mois avant Netvibes), iGoogle n’a jamais vraiment percé dans la mouvance 2.0. Alors que Google voulait que tous ses utilisateurs en fassent la page d’accueil de leurs navigateurs, la firme de Mountain View n’a jamais osé mettre iGoogle en page d’accueil de Google.com, ni en accueil de n’importe lequel de ses produits. iGoogle vivait donc en marge des produits Google, et aucune modification majeure n’a jamais été vraiment constatée (à part une refonte en 2008). Bref, iGoogle n’a jamais été que l’un des multiples reflets de la volonté de Google de truster le buzz, aussi volatile soit-il…

Dashboards personnalisables et puis s’en vont

Certes, dès 2005, le dashboard personnalisable a connu un bel essor. Netvibes s’est posé comme l’un des précurseurs dans cette arène avec sa vaste sélection de modules. À cette époque, les curateurs y trouvent leur compte: Netvibes semble être le parfait tableau de bord pour maîtriser un volume plus élevé d’information (Netvibes a été lancé un mois avant Google Reader). Ses modules sont paramétrables et modulables, et ses onglets permettent de créer plusieurs espaces de veille thématisés (je ne suis pas certain que les onglets étaient là dès le lancement du service).

En 2005, un autre service similaire avait fait son apparition: Pageflakes. Les utilisateurs pouvaient créer des onglets publiques et animer ce qu’ils appelaient des Pagecasts. Le concept du dashboard personnalisable était poussé à son paroxysme. Pageflakes a tenu 7 ans avant d’éteindre définitivement son site en 2012.

Cependant, aucun de ces outils n’aura survécu à la vague 2.0, Netvibes étant de son côté en train de s’éteindre paisiblement dans les bras du groupe Dassault Systèmes. Peut-être que ces outils auraient du copier les onglets de Tweetdeck, Hootsuite, ou intégrer Skype, ou jouer le jeu de Digg, Reddit… Rien de tel n’a été entrepris.

Donc RIP iGoogle et les dashboards personnalisables. Si certains ont des regrets, il reste encore Netvibes, même si je doute que le produit va continuer de beaucoup évoluer. Et bizarrement (ou pas), alors que plus rien ne pourrait laisser croire que les dashboards personalisables pouvaient intéresser qui que ce soit, Yahoo lance My Yahoo pour se récupérer la demi-douzaine d’utilisateurs qui y croient encore (bien joué Marissa Mayer).

Pourquoi Google+ peine à convaincre ? Comment y remédier ?

Après un nombre incroyable de fails dans la sphère social media, Google semble tenir le bon filon avec Google+. Lancé en juin 2011, Google+ est un produit hybride à la croisée de Twitter et Facebook. Son utilité ? Pas encore bien définie, mais la philosophie de Google dans la mise en oeuvre de ce projet semble être « build it and they will come ».

Google a donc bâti Google+, et a brandi des carottes pour attirer des utilisateurs dans son terrier. Les carottes, ce sont les bénéfices en termes de SEO que Google+ promet en échange d’une animation de son réseau. Ces bénéfices sont bien réels, mais la carotte se transforme en plan carotte lorsque l’on se rend compte qu’il n’y a rien à faire de spécial sur Google+. Pourquoi Google+ ne séduit pas, et comment cela pourrait changer?

A noter que je ne me base pas sur les chiffres incroyables d’augmentation d’utilisateurs que Google+ communique, sachant que cette dynamique de croissance émane principalement de la transformation des utilisateurs Google en utilisateurs Google+. Je me base plutôt sur le peu d’actualités qui entourent Google+ outre les annonces de croissance bidons.

Les atouts majeurs : SEO

Face aux échecs répétés en matière de réseaux sociaux, Google a manifestement décidé de sortir les gros jetons en s’appuyant sur son fameux moteur de recherche. Dès son lancement, la communication et les actions de Google ont clairement sous-entendu qu’un engagement sur Google+ aurait un impact direct sur l’appréciation des contenus indexés dans son moteur de recherche. En clair, si je partage un lien dans Google+, cela améliore son positionnement dans le moteur de recherche.

La carotte est donc lancée pour tous ceux soucieux d’accroitre leur visibilité dans les moteurs de recherche.

Voici quelques bénéfices d’un compte Google+ dans les moteurs de recherche:

  • Affichage de la photo de l’auteur à côté du lien de son article (on dit aussi que ça en améliore du coup le positionnement de l’article dans le moteur de recherche)
  • Affichage du dernier statut publié sur la page Google+ d’une personnalité/marque/entreprise dans le knowledge graph.
  • Meilleurs positionnements des liens partagés sur Google+ dans les SERPs des membres de son réseau Google+.
  • Meilleur positionnement général des liens partagés sur Google+ bénéficiant d’un fort taux d’engagement.

En d’autres termes, Google a créé un réel incentive pour s’engager sur la plateforme. Malgré cela, force est de constater que Google+ n’inspire pas l’internaute moyen.

BD google plus

Quid de la dimension sociale?

Lorsque l’on décide de se lancer dans Google+, on va généralement créer son profil et/ou sa page, linker ses comptes, paramétrer son profil, pour que vienne ensuite la phase du « now what? »: faut-il suivre les mêmes gens/pages que l’on suit déjà sur Facebook et Twitter? Publier les mêmes contenus? Organiser les mêmes campagnes? Quel intérêt?

Google+ n’inspire donc pas car Google+ n’est qu’un ersatz des produits que nous utilisons déjà. Lorsque l’on a eu un échange sur Twitter avec un autre utilisateur, faut-il répliquer cet échange sur Google+? Faut-il reproduire les communautés que l’on a bâtie sur Twitter/Facebook? Que va m’apporter une communauté sur Google+ que ne m’apporte pas déjà une communauté sur Facebook ou Twitter?

Niveau communication, Google ne se tourne pas les pouces: les RP de Google vont encourager les blogueurs, vlogueurs, ou leaders d’opinions de manière générale, à utiliser Google+ en leur offrant d’y animer des campagnes pour animer le réseau. Être pote avec les RP de Google, c’est aussi être dans la boucle des infos exclusives et des évènements organisés par Google, l’incentive fait donc qu’en général les blogueurs collaborent. Ensuite, tout blogueur possède sa troupe de suiveurs qui s’agglutinent autour des posts de leurs leaders d’opinion, ce qui créer une première couche (bien éphémère) d’utilisateurs. Jusqu’à présent, la croissance de Google+ a été dopée aux RP et dépend encore de cette collaboration avec la communauté d’influenceurs pour exister.

Toujours est-il que chez l’internaute moyen, la sauce ne prend pas. Au fond, Google+ n’est qu’un me-too dans la course. Google+ est à Twitter/Facebook ce que Viadeo est à LinkedIn, Dailymotion à Youtube, Bing à Google… Pour décoller, Google+ ne doit pas faire mieux que Facebook et Twitter, il doit faire différent.

meme Google+ fail

Différenciation et engagement sur Google+

L’un des principaux défauts de Google+, c’est son manque d’ouverture. Il est impossible de faire de l’autoshare sur Google+, c’est-à-dire que, par exemple, je ne peux pas publier automatiquement tous mes tweets sur Google+. Pourtant, il est possible au sein de Twitter d’auto-publier ses tweets sur Facebook et vice-versa. Google+ a maintenu depuis son lancement des APIs fermées à la publication de contenu externe. C’est ce qui provoque la problématique du « je viens de publier un tweet: pourquoi devrais-je ouvrir ma page Google+ et y dupliquer ce tweet? »

En ouvrant les valves aux contenus d’autres réseaux, Google+ pourrait accroitre de manière substantielle le taux d’activité sur sa plateforme. Étant originellement un moteur de recherche, Google pourrait alors proposer sur son réseau social des fonctionnalités de recherche transversales (inter-réseaux) qui manque cruellement dans l’arène des outils de veille 2.0. Le projet Friendfeed n’était pas si mal, il bénéficiait d’une croissance modeste mais naturelle, et ses membres étaient enthousiastes. Google pourrait reprendre là où Bret Taylor et Paul Buchheit s’étaient arrêtés (Friendfeed a été racheté par Facebook en 2009).

Niveau indexation de contenu, Google serait servi vu qu’une masse démentielle de contenus sociaux transiteraient alors par sa plateforme. Google+ pourrait même envisager un pied de nez à Facebook en débloquant l’autoshare des status Facebook. Vu que la plateforme est bien designée, il se pourrait même que les discussions démarrées sur Facebook trouvent une continuité sur Google+.

Dans le fond, Google a toujours été un aggrégateur/curateur de contenu. Son moteur de recherche nous a toujours permis de découvrir les contenus présents sur une mulititude de sites. Pourquoi ne pas développer aujourd’hui le même aggrégateur pour les sites 2.0?

Mort de Google Reader, renaissance du lecteur RSS

On savait tous que ça allait arriver un jour, mais la nouvelle fit quand même mal: début juillet 2013, Google va fermer Google Reader pour de bon! Pour contextualiser, Google Reader est le meilleur lecteur de flux RSS sur le marché actuellement, et des dizaines de clients existent pour lire ses flux sur des interfaces améliorées. Pourquoi Google Reader ferme-t-il ses portes et quelles sont les alternatives à la hauteur du défunt service?

La fin du RSS

Depuis longtemps, il était clair que Google ne prêtait plus beaucoup attention aux flux RSS: la dernière mise à jour de Google Reader remonte à plusieurs années, Chrome ne lisait pas les flux RSS, et Feedburner n’a également connu aucune amélioration majeure depuis son rachat par Google en 2006 (le programme Adsense for feeds a été interrompu il y a 6 mois).

Le format RSS nécessite un minimum de connaissances techniques pour être utilisé à bon escient, et c’est probablement sur ce point que les internautes ont butté.

Et pourtant, il y a dix ans, alors que les blogs explosèrent sur la toile, le format RSS restait le meilleur moyen pour suivre des blogs en quantité. Le flux RSS a permis à des sites tels que TechCrunch d’afficher son succès grandissant: les compteurs d’abonnés Feedburner étaient l’indicateur le plus fiable pour évaluer la popularité réelle d’un blog.

Google+

Malheureusement, en cours de route, les réseaux sociaux ont explosé, avec des paradigmes de diffusion de l’information plus évolués et plus social. Dans cette course, Google a pris une claque par Facebook qui s’est hissé au rang de compétiteur pour la domination du web. Pris de vitesse, Google a tout essayé: Friendconnect, Buzz, Wave, pour finalement établir Google+ comme le composant social qui serait présent au sein de tous ses produits ou presque.

Mais pour hisser Google+ au rang de Facebook, Google met toutes les chances de son côté, et cela implique faire plancher l’équipe de l’excellent Google Reader sur G+. Google Reader fut à une époque l’un des réseaux sociaux les plus chauds en termes d’actualités: grâce à la défunte fonction « share », les utilisateurs pouvaient se suivre et les curateurs connaissait un certain succès. Une application, Readburner, avait été créée pour repérer tous les sujets les plus partagés sur Google Reader, pour le plus grand bonheur des newscrunchers. Semblable à Digg au niveau du design, Readburner livrait une citation de l’information aussi quali que Techmeme. Readburner a été racheté et fermé par les propriétaires de ReadWriteWeb (aujourd’hui ReadWrite), et la fonction share a été désactivée il y a presque 2 ans pour être remplacée par un bouton +1.

Le choix de remplacer un réseau Google Reader-only par un réseau global Google+ est questionable, mais Google n’a plus le choix, car son modèle de domination est aujourd’hui sévèrement menacé. Google a tué l’un des produits favoris de la communauté technophile internationale, en espérant le remplacer par un produit hybride, à la croisée des inspirations de Twitter et Facebook, un choix qui peut make or brake le succès de la multinationale de demain.

Les alternatives à Google Reader

Et voilà que nous nous retrouvons aujourd’hui des millions d’utilisateurs à errer en quête d’un lecteur de flux RSS qui pourrait égaler l’ergonomie et la puissance de Google Reader. Le défi est de taille sachant que Google n’est lui-même jamais parvenu à monétiser son lecteur de flux RSS, ce qui signifie que Google a perdu de l’argent toutes ces années pour nous offrir son Reader gratuitement. Il est aujourd’hui complètement illogique pour un fournisseur de services en ligne d’offrir un service comparable à Google Reader gratuitement: la seule solution qui existe aujourd’hui pour monétiser un lecteur de flux RSS, c’est de faire payer les utilisateurs.

On trouve cependant sur le marché des produits similaires qui peuvent répondre à la plupart de nos besoins.

Feed Demon

Pour les besoins professionnels, Feed Demon est un bon outil. Développé par l’équipe de Newsgator, Feed Demon est un logiciel qui s’installe sur Windows. Il est possible d’importer un fichier OPML, de classer ses flux dans des dossiers, de les tagger, de faire des recherches dans l’ensemble des flux mis en cache, ainsi que des statistiques sur la consommation des flux par l’utilisateur. Feed Demon propose également une fonctionnalité absente chez Google Reader: un système d’alerte qui tracke et répertorie tous les articles contenant des mots-clé prédéfinis, afin de rajouter une couche d’analyse dans sa veille…

Vu que Feed Demon n’est pas web-based, vos flux ne sont pas hébergés en ligne et donc pas accessibles depuis n’importe quel appareil. Il n’existe donc pas d’accès internet à vos flux, ni d’application mobile pour lire ses flux dans le métro… C’est là la grosse faiblesse de Feed Demon qui ne peut tourner que sur une seule machine.

Cependant, pour se consoler de ce shortcoming, il existe quelques fonctionnalités de partage des contenus facilement détournables, donc avec un peu d’imagination, Feed Demon se trouve être un outil sympa à manipuler.

Feed Demon existe en freemium, avec une version gratuite qui couvre la majorité des fonctionnalités nécessaires à une bonne veille.

Feedly

À l’heure actuelle, Feedly n’est ni plus ni moins un client Google Reader. Cela signifie que le jour où Google Reader fermera ses portes, Feedly n’aura plus de serveurs dans lesquels aller chercher vos flux, et rien ne garantit aujourd’hui que l’équipe de Feedly va développer à temps toute la solution back-end pour remplacer Google Reader, bien qu’elle s’est engagée à le faire en temps et en heure.

The Old Reader

Voilà une bonne alternative à Google Reader. The Old Reader est un lecteur de flux RSS basé en ligne très similaire à Google Reader en termes de fonctionnalités et d’ergonomie. Il permet l’upload d’OPML, le rangement par dossier, et surprenante surprise, un réseau social interne existe pour que les utilisateurs puissent partager entre eux les contenus qui les intéressent.

Cependant, le service ne s’attendait probablement pas à la fermeture annoncée de Google Reader et donc à l’afflux de nouveaux utilisateurs, car cela fait plusieurs jours que mon upload d’OPML est bloqué. Je suis en file d’attente avec 2121 utilisateurs devant moi qui attendent l’import de leur OPML.

Netvibes

Netvibes est indéniablement l’un des grands acteurs historique dans l’évolution des flux RSS. Le service permet de s’inscrire à autant de flux qu’on le désire, d’insérer des flux Twitter, de paramétrer des recherches sur un bouquet de flux, avec des options de partage avancées.

N’étant pas un grand fan de Netvibes (je n’accroche pas du tout avec son ergonomie), je ne vais pas trop m’étendre sur le sujet, mais le service est costaud et reliable.

Un nouveau marché du lecteur RSS

500 000 utilisateurs ont fait l’exode de Google Reader à Feedly au 17 mars 2013, un chiffre communiqué par la startup elle-même. Google Reader comptait effectivement des millions d’utilisateurs (aucun chiffre officiel n’a été communiqué, mais l’utilisation de Google Reader est plus que largement répandue chez les communautés technophiles). Cela signifie que les acteurs sur le marché, tels que ceux cités ci-dessus, font aujourd’hui face à la plus grosse opportunité de leur existence: le leader du marché a décidé par lui-même de se retirer, abandonnant ses millions d’utilisateurs à la portée de ses concurrents.

Cependant, quel modèle de monétisation choisir? Si Google Reader a échoué avec une base de plusieurs millions d’utilisateurs et les moyens colossaux de le Google corporation, des acteurs avec moins de ressources et de moyens vont-ils y trouver leur compte? La monétisation des flux avec de la publicité fut un échec pour Adsense for feeds. Les modèles de monétisation en freemium tels que celui de Feed Demon ne garantisse pas des revenus qui peuvent supporter plusieurs millions d’utilisateurs en mode free. Netvibes offre des solutions payantes pour les entreprises mais cela n’a pas permis à la boite de faire décoller ses revenus (Netvibes a été racheté en 2012 par Dassault System pour 20 millions d’euros). TheOldReader est complètement gratuit, ce qui limite énormément son potentiel de développement. Aucun lecteur de flux RSS ne connait aujourd’hui un épanouissement économique marquant. La disparition de Google Reader va-t-elle donc changer la donne sur le marché des lecteurs de flux RSS?

Wikipedia, un exemple de perfection socio-technologique

Lorsque l’on créé un site web, développer une communauté représente l’un des principaux challenges qui dépasse les lois de l’informatique et nous fait pénétrer dans la dimension psycho-sociale d’Internet: comment intéresser les individus? Comment leur donner un sentiment d’appartenance à la communauté? Comment organiser les membres de la communauté pour en garantir la préservation? Comment garder les rênes sur la gestion du site avec une communauté qui grandit et réclame des privilèges décisionnels?

La gestion de la communauté

Parvenir à croître une communauté ainsi qu’à la canaliser n’est pas chose facile. Cela s’apparente même à de la science politique, une discipline fort complexe et qui se réinvente constamment au gré de l’actualité. Si le gestionnaire d’un site opère de manière trop autoritaire et n’inclut jamais l’avis de sa communauté dans ses choix de développement, celle-ci se sentira lésée, et cela aura un impact sur le désir de s’investir de ses membres. Si le gestionnaire du site adopte un style trop laisser-faire, alors il y a des chances pour que les débordements se multiplient, et qu’à terme le chaos social fasse fuir les membres. Le gestionnaire doit donc opter pour un modèle démocratique de gestion de sa communauté, c’est-à-dire définir des lois et un système décisionnel composé de responsables communautaires intégrant l’avis de la communauté dans leurs décisions.

L’objectif de la communauté

Selon le projet que porte la communauté, le besoin de structures sociales sera plus ou moins grand: sur Hot or Not, l’utilisateur est limité à un choix dans son interaction avec le site (Hot ou not hot). Sur Reddit, les utilisateurs doivent soumettre des contenus intéressants et voter pour les meilleurs contenus. La communauté est donc en charge de mettre en valeur les contenus qui intéressent le plus les internautes, une tache peu évidente qui requiert une certaine discipline éditoriale. Sur Wikipedia, la tache est infiniment plus complexe: la communauté est en charge de reproduire les principales connaissances de l’humanité de la manière la plus objective possible. Ici, la responsabilité de la communauté est conséquente, car le contenu produit doit être complet et de qualité encyclopédique.

Sur Hot Or Not, seule une action est requise chez les utilisateurs, les risques de débordements restent donc limités. Sur Reddit, les risques sont plus élevés, les utilisateurs pouvant soumettre des contenus indésirables et abuser des algorithmes du site. Sur Wikipédia, les risques sont très élevés, les utilisateurs étant en charge d’écrire la principale source de connaissances sur terre. Plus les risques sont élevés, plus le besoin de créer une couche d’utilisateurs-modérateurs se fera ressentir.

Les obstacles au développement communautaire

Comme évoqué plus haut, le style de management de la communauté peut être une entrave à l’épanouissement de ses membres. Les outils dont jouissent les membres pour construire le contenu détermineront également leur contrôle sur l’évolution du contenu, et donc la sensation de contribuer activement à un projet global. Peu d’outils à disposition de la communauté réduit l’engagement de ses membres. L’importance du projet tel qu’il est perçu par les partis externes à la communauté dynamise également ou non l’effet identitaire d’appartenance au site. Ainsi, la réputation d’un site va fortement influencer le désir de ses membres à s’y investir, et va même aller jusqu’à déterminer la typologie de ses membres.

Je partageais une discussion avec un collègue qui m’expliquait qu’une de ses connaissances possédait une communauté de contributeurs sur son site qu’il avait développé en distribuant des privilèges à certains membres afin d’en faire des modérateurs actifs ainsi que des ambassadeurs. Un système de distribution des tâches et des responsabilités engrange une hiérarchie sociale, une dynamique essentielle dans le développement d’une communauté.

Les epic fail

Les histoires d’échecs de développement communautaire sont nombreuses sur le web: Digg s’était fortement appuyé sur la force de certains de ses membres pour se développer. Ces membres avaient acquis un pouvoir tel qu’ils constituaient un contre-pouvoir qui entravait sérieusement les décisions des équipes officiellement dirigeantes. Ne parvenant pas à reprendre le pouvoir, Digg a décidé d’irradier ces membres influents de sa communauté un après l’autre. En agissant de la sorte, Digg s’est coupé une jambe et a perdu son aura de pionnier prometteur de l’ère 2.0.

Twitter a également traversé des embrouilles communautaires. Pour croitre, Twitter avait fait le pari ambitieux d’ouvrir complètement ses APIs aux développeurs indépendants afin qu’ils développent eux-mêmes les fonctionnalités destinées aux utilisateurs. À ses débuts, 80% de l’activité générée sur la plateforme Twitter provenait des applications tierces. Lorsque Twitter eut atteint un certain seuil de développement, les besoins de consolidation et de réappropriation des membres de sa communauté se sont fait ressentir. Twitter a alors abandonné sa politique d’ouverture de ses APIs, coupant ainsi le courant à des dizaines de milliers d’applications tierces qui disparurent du jour au lendemain. Du coup, les développeurs ont déserté l’API par milliers, et l’écosystème des outils Twitter s’est fortement appauvri.

Le point de cassure suite à un désaccord entre un gestionnaire de site et sa communauté est variable: une communauté se retrouve asservie à son site si celui-ci ne connait pas de concurrence sérieuse. Par exemple, sur Facebook, la communauté a souvent exprimé un fort désaccord vis-à-vis de certains axes d’évolution de la plateforme. Cependant, où aller à part Facebook pour retrouver toutes ses connaissances? Facebook tient un monopole sur le marché des réseaux sociaux, tout comme Google sur le marché de la recherche en ligne… Leurs utilisateurs peuvent se plaindre, mais ils peuvent difficilement fuir… D’un autre côté, sur un forum classique, si la communauté se retourne contre les dirigeants, il sera aisé de reproduire un forum identique et faire migrer les membres de la communauté vers ce nouveau site.

Le rayonnement de Wikipédia

De tous les sites qui dominent le web aujourd’hui, Wikipedia est de loin l’exemple par excellence de réussite communautaire:

  1. La communauté Wikipedia est ouverte à tous.
  2. Le site figure dans le top5 des plus fréquentés au monde.
  3. Plusieurs centaines de milliers de membres ont déjà contribué à l’encyclopédie ouverte.
  4. Le site est la principale source de connaissances sur le Web.

Outre ces mesures quantitatives, Wikipédia a atteint une qualité incomparable dans l’histoire du user-generated content: le contenu du site est entièrement produit par ses utilisateurs, de la création des pages à leur modération, en passant par la définition de l’ensemble des règles qui encadrent le processus de création. Wikipédia est presque intégralement le fruit de sa communauté qui a littéralement fait la plateforme.

La communauté est tellement impliquée et soudée que ceux qui le souhaitent peuvent créer leur propre Wikipedia en s’appropriant MediaWiki, le logiciel qui permet de créer et gérer un wiki, et que l’association met à la libre disposition des internautes. Les gestionnaires du site ne s’inquiètent pas de la fuite de leur communauté: Celle-ci est si bien ancrée dans le site qu’il faudrait un tremblement de terre numérique pour la faire fuir.

Pour évoluer de la sorte, l’équipe dirigeante de Wikipedia a décidé de tout faire pour favoriser la croissance d’une communauté pérenne: le coeur dirigeant ne s’est pas formé en entreprise mais en association, pour défendre au maximum un positionnement de neutralité. Les dirigeants de l’association sont cantonnés à gérer la dimension juridique du projet, l’hébergement des données, ainsi que de donner les directives globales de développement de la plateforme. Des administrateurs bénévoles enclenchent le pas pour la mise en place opérationnel et son bon déroulement. Des modérateurs, eux aussi bénévoles, contribuent à la plateforme mais interviennent également sur les situations de mésentente et de conflit. Ces modérateurs sont les ambassadeurs des principes philosophiques de la communauté. Viennent ensuite les contributeurs réguliers, des membres qui s’investissent pour le pur plaisir de faire évoluer le savoir publiquement accessible du site. Enfin, une couche importante de contributeurs occasionnels viennent compléter les connaissances manquantes, souvent de manière anonyme, mais presque toujours sous l’oeil averti des modérateurs et des contributeurs réguliers.

Indéniablement, le système de hiérarchie sociale de Wikipedia est le plus évolué de tout le world wide web, étant composé de plusieurs « classes » de membres ayant chacune en charge la gestion d’un organe vital du site.

En termes d’outils, la communauté n’est pas en manque: guide d’utilisation exhaustif, espaces de discussion, syntaxes de mise en forme, ajout de média, gestion des versions, modération et blocage des membres, interfaces de veille, outils d’analyse des contenus, d’analyse des comportements, … Wikipédia possède une infrastructure socio-technologique complexe.

Se moquer de la perfection

Il est donc risible d’entendre les journalistes et autres intellectuels de comptoir critiquer la véracité des informations publiées sur Wikipédia ainsi que les compétences de sa communauté. Tout d’abord, la communauté n’est rien de plus qu’un échantillon de l’humanité, dotée des faiblesses propres au type humain.

Ensuite, l’information produite sur Wikipédia est tellement élaborée qu’elle en est bluffante: le site est parti de zéro, pour arriver aujourd’hui à des dizaines de millions d’articles pour la majorité bien rédigés. Ces articles ne sont pas juste le fruit du travail rédactionnel d’une poignée d’hommes, mais surtout le résultat d’un processus consensuel de la part des membres de la communauté.

Avant de formuler des critiques envers Wikipédia, il faut d’abord être capable d’appréhender les leviers qui permettent son existence. Lorsque l’on analyse la dimension socio-technologique de Wikipedia, cela permet de mieux comprendre en quoi l’encyclopédie ouverte reste un modèle communautaire encore inégalé aujourd’hui.