wpid-images.jpg

Le big data se personnalise

Excel est un outil magnifique qui devrait être enseigné dans toutes les écoles. Excel ne permet pas seulement de faire des listes en ligne ou en colonne, mais principalement de réfléchir plus vite.

Excel peut exécuter toutes les opérations d’une calculette, mais le logiciel est aussi un précieux assistant personnel : suivi des dépenses, stockage des contacts, analyse des inventaires, n’importe quelle donnée peut être intégrée dans Excel et traitée.

L’entrée de donnée est une opération relativement accessible à tous, mais le traitement est une discipline qu’il est aujourd’hui essentiel d’acquérir. Notre vie est devenu un flux de données, une trace numérique qui nous suit partout et accompagne presque toutes nos actions. Tout individu est à lui seul un cas de big data : dépenses, poids, consommation d’énergie, exercices, revenus, notes, enfants, écoles, banques, déplacements quotidiens, produits consommés, objets possédés, administrations publiques et privées, sans compter toutes les données générées sur internet que nous ne savons même pas comment gérer …

Contrôler ces données permet de formuler au quotidien des choix plus intelligents. En connaissant la logique d’Excel et ses formules, il est possible de calculer rapidement un grand nombre de données et donc de variables de notre quotidien. Cela nous permet de mieux anticiper nos actes et d’améliorer notre vie en étant plus actif dans la création de nos futurs données.

Une rencontre avec le créateur du défunt Wasabi, une application Web de gestion des finances personnelles, m’avait appris quelque chose d’intéressant : mon interlocuteur m’expliqua que le but de son application était de permettre à ses utilisateurs de faire des choix financiers plus intelligents en offrant plus de maîtrise à ses itilisateurs. Les banques tirent un grand bénéfice de nos lacunes en gestion financière : mal calculer ses dépenses revient à se retrouver plus facilement en situation de déficit ou de crédit, ce qui constitue une part importante du revenu des banques aujourd’hui. En d’autres termes, le plus vous êtes bête (bancairement parlant dans cet exemple), le plus vous êtes profitable.

wpid-m-santé12.jpg.jpeg

La santé sur mobile

L’application S Health, pré-installée sur le téléphone que je viens d’acheter, compte vos pas, vos activités sportives, votre rythme cardiaque, vos apports nutritionnels, tous les éléments nécéssaires pour vous aider à équilibrer votre santé physique.

Le hic, c’est que l’application S Health ne connaît pas votre alimentation si vous ne la rentrez pas quotidiennement et manuellement dans l’application. De même, il faut penser à faire des entrées régulières de son rythme cardiaque si l’on veut en tirer quelque chose d’intéressant.
Il est donc très curieux d’explorer cette application qui est déjà un dinosaure de son espèce : le jour où toutes nos actions seront automatiquement numérisées (activités, nutrition, sommeil, achats, interactions sociales, sexe,  …), les applications santé deviendront d’inséparables compagnons de vie, mais il faut d’abord qu’elles parviennent à capter par elles-mêmes la totalité des données qui composent notre environnement biologique (on a encore quelques décennies devant nous). Tant que l’entrée de donnée est manuelle, elle sera toujours faussée : en remuant légèrement votre téléphone de haut en bas, vous trompez son téléphone qui va comptabiliser vos mouvements comme des pas ; si vous n’entrez pas systématiquement tout ce que vous ingurgitez,  l’application pensera que vous êtes gravement sous-alimenté.

Niveau fournisseur, ceux qui domineront ce marché auront entre leurs mains une donnée proche de celle du Graal : connaître la performance biologique de chaque être, analyser les caractéristiques des groupes dominants, fournir des données marketing à tous les échelons de l’économie, orienter les actions de chaque être en fonction de leur intérêt personnel et de l’intérêt lucratif de l’entreprise… Ce que Facebook fait pour le lien social, les applications santé doivent le faire pour notre bien-être biologique.

twitter noir

Retweet analytics, la boîte noire de Twitter

Quand on parle de Twitter, on se réfère souvent à une plateforme publique et ouverte. Dans le cadre d’une veille sur Twitter, il est vrai qu’avec les bons outils, il est possible de capter toutes les retombées sur les requêtes ciblées. Twitter devient une plateforme plus fermée lorsque l’on souhaite, aù-delà du volume des mentions, mesurer l’influence de chaque tweet. Pour faire simple, dans une campagne contenant 50% de tweets positifs et 50% de tweets négatifs, on veut aller un peu plus loin dans l’analyse pour savoir quel 50% a eu le plus d’influence.

L’influence d’un tweet

L’influence d’un tweet se mesure sur plusieurs facteurs :

  • Nombre de followers de chaque émetteur de chaque tweet
  • Nombre de retweets de chaque tweet
  • Nombre de followers de chaque retweeteur

Pour connaître l’influence d’un tweet, il faut additionner le nombre de followers de l’émetteur et l’ensemble des followers de chaque retweeteur. En d’autres termes, le calcul de l’influence constitue le calcul du reach (audience totale) de chaque tweet.

Limites du retweet

Le problème surgit dans le calcul de l’audience sur les retweets : Sur le site twitter.com et via l’API, il est possible de connaître le nombre de retweets. Sur le site twitter.com, il est possible d’identifier 8 retweeteurs. Via l’API, il est possible d’en identifier 100. Si un tweet cumule plus de 100 retweets, il devient impossible d’identifier tous les retweeteurs de ce tweet, et donc d’en calculer le total reach.

Qui influence qui

Ce que Twitter ne partage pas non plus, c’est l’heure de chaque retweet, et quel utilisateur a influencé qui : si user 2 et user 3 se suivent entre eux, qu’ils suivent tous deux user 1, et que tous deux retweetent un tweet émis par user 1, Twitter ne nous dit pas si user 3 a retweeté le tweet de user 1 suite à son émission par ce dernier, ou suite à son retweet par user 2.

Avec l’heure de chaque retweet, on pourrait déduire qui a influencé qui (les premiers influencent les suivants), mais ici encore cette donnée relève du domaine de la boîte noire qui habite les entrailles des serveurs de Twitter.

Le business du retweet

Pourquoi Twitter ne partage-t-il pas cette donnée ? Probablement un objectif de la monétiser soi-même en l’intégrant aux solutions publicitaires proposées aux marques. Depuis sa création, Twitter n’a cessé de cloisonner l’accés à ses serveurs, d’internaliser certaines technologies, et de réduire la transparence de ses données. Le passage au retweet tel qu’on le connait aujourd’hui avait pour principal objectif de reprendre le contrôle sur une fonctionnalité créée par les utilisateurs (donc incontrôlée) et devenue le principal moteur du site. Ce contrôle s’exerce de la manière décrite dans cet article.

Une rumeur courait ces dernières semaines selon laquelle Twitter expérimentait un compteur de vues pour chaque tweet, un indicateur d’influence pour les utilisateurs. Si cette fonctionnalité ne permettra pas de connaître la logique de propagation d’un tweet, elle permettra d’en identifier parfaitement son audience, ce qui sera une belle progression pour la plateforme Twitter.

Reputation Squad Beaubourg

4 ans (ou presque) chez Reputation Squad

Voici un petit billet sur mon expérience chez Reputation Squad. Je ne l’ai pas fait valider par l’agence avant de le publier, mais je pense qu’il ne contient rien d’indésirable en termes d’e-réputation ;)

Je viens de quitter l’agence d’e-réputation Reputation Squad, suite à presque 4 ans de bons et loyaux services en tant que chef de projet e-réputation. J’y ai vécu une aventure unique, à laquelle j’ai la sensation d’avoir historiquement contribué. Je suis arrivé dans l’entreprise alors qu’elle était composée de deux fondateurs déterminés à se positionner sur le marché encore embryonnaire de l’e-réputation. Nous sommes partis from scratch, avec la volonté et l’opportunisme comme meilleurs atouts. Quatre ans plus tard, après des centaines de retombées presse, une masse incalculable de clients, 3 déménagements et le recrutement d’une équipe de choc, je quitte cette agence qui a encore de beaux jours devant elle.

Le buzz

Je ne saurai expliquer comment cela a commencé exactement, mais lorsque je suis arrivé à Reputation Squad, l’agence bénéficiait d’une exposition médiatique surdimensionnée. Un mois après mon arrivée, j’ai eu ma photo en pleine page du volet central du journal Métro. A l’époque, Reputation Squad était connue comme l’agence des « nettoyeurs du net ». Les journalistes adoraient et se faisaient passer le mot entre eux. Rares sont les entreprises qui se sont lancées avec la presse comme principal canal de prospection, mais Reputation Squad est l’une d’elles.

La croissance

L’aventure Reputation Squad a démarré dans de petits locaux. Une fois les premiers clients rentrés, nous avons déménagé sur une péniche en face de la Concorde, un cadre exceptionnel pour travailler dans Paris intra-muros. Face au développement des équipes, nous avons ensuite déménagé plusieurs fois pour nous retrouver enfin rue Beaubourg, dans des bureaux assez grands pour supporter la croissance des effectifs. De mon arrivée à mon départ, l’équipe est passée de 1 employé (moi) à +25 employés. L’agence a également ouvert des bureaux à Rennes pour y développer son pôle technique sous la direction de Thierry Roncier.

La clientèle

En terme de prestige de sa clientèle, Reputation Squad a toujours connu une montée en puissance graduelle et ininterrompue: les premiers contrats étaient plutôt modestes et concernaient des personnes ou entreprises à faible notoriété (et donc avec des problématiques d’e-réputation plutôt simples à gérer), puis graduellement des personnalités fortement médiatisées ont commencé à nous rejoindre, pour finir aujourd’hui avec un portefeuille client digne d’une grande agence parisienne. Ce sont la diversité et le prestige des clients de l’agence qui ont transcendé mes compétences de social media marketing en expertise e-réputation.

Les dirigeants fondateurs

Du coup, j’ai passé les 4 dernières années de ma vie en compagnie d’Albéric Guigou et Fabrice Ivara, les deux co-fondateurs et présidents de Reputation Squad. Toute cette aventure, c’est leur bébé, et je dois reconnaitre qu’ils ont piloter l’un des plus beaux lancements d’entreprise que je n’ai jamais vu. Pendant que l’un occupait l’attention médiatique sur les sujets touchant à l’e-réputation, l’autre tenait les rênes financières pour assurer le développement de l’entreprise. Les appels entrants abondaient, le suivi commercial était assuré, et au fil du temps, une solide expertise e-réputation s’est développée. Joli duo, chapeau bas.

Reputation Squad 3.0

La version 1.0 de Reputation Squad fut ses débuts. La version 2.0 fut concrétisée par la période République/Beaubourg durant laquelle la startup s’est transformée en PME. La version 3.0 représente cette phase où l’agence va s’industrialiser et s’internationaliser. C’est ici que je me retire. J’aime me situer à l’éclosion des projets, alors qu’ils ne sont qu’embryonnaires et que les possibilités sont infinies. Je conçois ma contribution chez Reputation Squad comme celle d’un ingénieur du web, dont la tâche principale fut de développer les méthodes et les outils les plus performants pour une gestion contrôlée de l’e-réputation. Nous y sommes parvenus, ensemble. J’ai bien sûr un petit pincement au coeur de quitter une agence fun et performante, au sein de laquelle des amitiés se sont créées, mais le changement n’est pas un frein, il est le moteur de l’innovation et du progrès.

Adios Amigos!

recaptcha

La faille de Recaptcha

Recaptcha, vous connaissez? C’est le système anti-spam que l’on trouve en bas des formulaires en ligne qui garantissent que c’est bien un humain qui est derrière l’envoi d’information. Recaptcha vous affiche des lettres/chiffres tordus ou disposés de manière non-linéaires, et vous demande de recopier ce que vous voyez. Recaptcha n’est pas le seul à fournir ce genre de solution antispam, mais il est le seul à y avoir vu un intérêt sémantique et lucratif. Cependant, son système a une faille que le logiciel ne peut malheureusement pas guérir…

Recaptcha, le crowdsourcing de la reconnaissance de symboles

Recaptcha est né au milieu d’une masse incalculable d’outils proposant exactement la même solution. Son USP? L’idée de Recaptcha est d’intégrer dans la suite de lettres/chiffres à recopier exactement des symboles que même une application OCR n’est pas capable d’interpréter. Par exemple, dans une suite de 10 chiffres/lettres, 2 voir 3 des ces éléments seront inconnus de Recaptcha.

Quel intérêt? De cette manière, Recaptcha stocke en base tous les chiffres/lettres identifiés par les utilisateurs et permet ainsi d’enrichir la technologie OCR de manière générale. Il y a fort à parier que les chiffres/lettres inconnus de Recaptcha sont soumis à plusieurs utilisateurs pour croiser les réponses et garantir l’exactitude de la donnée fournie.

Google achète et l’adapte à ses besoins

Recaptcha a été racheté par Google en 2009. L’intérêt de Google est claire: il peut utiliser Recaptcha pour déchiffrer tout contenu que ses spiders auraient du mal à analyser, principalement les scans de journaux, de livres, ou tout pdf de qualité moyenne. Avec Recaptcha, Google enrichit son pouvoir d’analyse et d’indexation.

recapcha exempleMais Google ne s’arrête pas là: l’un de ses produits pose un problème auquel Recaptcha peut répondre: Google Maps. En effet, avec Streetview, Google Maps enregistre une capture de toutes les façades de tous les immeubles ou maisons. Les ingénieurs de Google Maps ont eu l’idée ingénieuse d’utiliser Recaptcha pour que les utilisateurs identifient eux-mêmes les numéros devant chaque façade. En effet, il est de plus en plus fréquent que Recaptcha affiche une série de 5-6 chiffres/lettres, suivie d’une photo d’un numéro de rue à déchiffrer. De cette manière, ce sont les utilisateurs de Recaptcha qui renseignent Google Maps sur le numéro de chaque rue, une valeur ajoutée qui permet à Google d’économiser en technos de reconnaissance, ou en petites mains qui analysent chaque numéro de rue un-à-un.

Tout cela pour en venir au fait: si vous avez un Recaptcha avec trois numéros sur une plaque qui ressemble à une plaque de numéro de rue, vous pouvez entrer n’importe quel numéro car Recaptcha n’a aucune idée des chiffres qu’il vient de vous soumettre. Cela rend tout de suite la solution recaptcha beaucoup moins séduisante pour sécuriser un site…

rip igoogle

Disparition non-remarquée d’iGoogle

Je viens de remarquer un message de service sur iGoogle prévenant ses utilisateurs de l’interruption du service en novembre 2013. Après une rapide recherche sur Google, je me suis rendu compte que l’annonce date de juin 2012, mais vu que, tel le commun des mortels, iGoogle sort complètement de mes centres d’intérêt, ja n’avais pas vu passé la nouvelle.

Cette disparition s’inscrit dans 2 logiques: la première qui veut que Google recentre ses ressources autour de ses produits star et ferme les autres (RIP Google Reader). La deuxième selon laquelle les interfaces customisables à la Netvibes n’auront jamais vraiment percé.

Google ne veut plus être un fourre-tout

En évaluant les investissements colossaux en termes de temps et de stratégie pour faire de Google+ la star ascendante des réseaux sociaux, Google a compris qu’il fallait mieux canaliser ses forces de développement et se défaire des produits qui ne constituent pas un enjeu stratégique majeur. Certains de leurs choix, comme l’abandon des produits centrés autour du format RSS sont questionnables, mais d’autres tels que iGoogle sont complètement compréhensibles.

Lancé en mai 2005 (quelques mois avant Netvibes), iGoogle n’a jamais vraiment percé dans la mouvance 2.0. Alors que Google voulait que tous ses utilisateurs en fassent la page d’accueil de leurs navigateurs, la firme de Mountain View n’a jamais osé mettre iGoogle en page d’accueil de Google.com, ni en accueil de n’importe lequel de ses produits. iGoogle vivait donc en marge des produits Google, et aucune modification majeure n’a jamais été vraiment constatée (à part une refonte en 2008). Bref, iGoogle n’a jamais été que l’un des multiples reflets de la volonté de Google de truster le buzz, aussi volatile soit-il…

Dashboards personnalisables et puis s’en vont

Certes, dès 2005, le dashboard personnalisable a connu un bel essor. Netvibes s’est posé comme l’un des précurseurs dans cette arène avec sa vaste sélection de modules. À cette époque, les curateurs y trouvent leur compte: Netvibes semble être le parfait tableau de bord pour maîtriser un volume plus élevé d’information (Netvibes a été lancé un mois avant Google Reader). Ses modules sont paramétrables et modulables, et ses onglets permettent de créer plusieurs espaces de veille thématisés (je ne suis pas certain que les onglets étaient là dès le lancement du service).

En 2005, un autre service similaire avait fait son apparition: Pageflakes. Les utilisateurs pouvaient créer des onglets publiques et animer ce qu’ils appelaient des Pagecasts. Le concept du dashboard personnalisable était poussé à son paroxysme. Pageflakes a tenu 7 ans avant d’éteindre définitivement son site en 2012.

Cependant, aucun de ces outils n’aura survécu à la vague 2.0, Netvibes étant de son côté en train de s’éteindre paisiblement dans les bras du groupe Dassault Systèmes. Peut-être que ces outils auraient du copier les onglets de Tweetdeck, Hootsuite, ou intégrer Skype, ou jouer le jeu de Digg, Reddit… Rien de tel n’a été entrepris.

Donc RIP iGoogle et les dashboards personnalisables. Si certains ont des regrets, il reste encore Netvibes, même si je doute que le produit va continuer de beaucoup évoluer. Et bizarrement (ou pas), alors que plus rien ne pourrait laisser croire que les dashboards personalisables pouvaient intéresser qui que ce soit, Yahoo lance My Yahoo pour se récupérer la demi-douzaine d’utilisateurs qui y croient encore (bien joué Marissa Mayer).

google plus

Pourquoi Google+ peine à convaincre ? Comment y remédier ?

Après un nombre incroyable de fails dans la sphère social media, Google semble tenir le bon filon avec Google+. Lancé en juin 2011, Google+ est un produit hybride à la croisée de Twitter et Facebook. Son utilité ? Pas encore bien définie, mais la philosophie de Google dans la mise en oeuvre de ce projet semble être « build it and they will come ».

Google a donc bâti Google+, et a brandi des carottes pour attirer des utilisateurs dans son terrier. Les carottes, ce sont les bénéfices en termes de SEO que Google+ promet en échange d’une animation de son réseau. Ces bénéfices sont bien réels, mais la carotte se transforme en plan carotte lorsque l’on se rend compte qu’il n’y a rien à faire de spécial sur Google+. Pourquoi Google+ ne séduit pas, et comment cela pourrait changer?

A noter que je ne me base pas sur les chiffres incroyables d’augmentation d’utilisateurs que Google+ communique, sachant que cette dynamique de croissance émane principalement de la transformation des utilisateurs Google en utilisateurs Google+. Je me base plutôt sur le peu d’actualités qui entourent Google+ outre les annonces de croissance bidons.

Les atouts majeurs : SEO

Face aux échecs répétés en matière de réseaux sociaux, Google a manifestement décidé de sortir les gros jetons en s’appuyant sur son fameux moteur de recherche. Dès son lancement, la communication et les actions de Google ont clairement sous-entendu qu’un engagement sur Google+ aurait un impact direct sur l’appréciation des contenus indexés dans son moteur de recherche. En clair, si je partage un lien dans Google+, cela améliore son positionnement dans le moteur de recherche.

La carotte est donc lancée pour tous ceux soucieux d’accroitre leur visibilité dans les moteurs de recherche.

Voici quelques bénéfices d’un compte Google+ dans les moteurs de recherche:

  • Affichage de la photo de l’auteur à côté du lien de son article (on dit aussi que ça en améliore du coup le positionnement de l’article dans le moteur de recherche)
  • Affichage du dernier statut publié sur la page Google+ d’une personnalité/marque/entreprise dans le knowledge graph.
  • Meilleurs positionnements des liens partagés sur Google+ dans les SERPs des membres de son réseau Google+.
  • Meilleur positionnement général des liens partagés sur Google+ bénéficiant d’un fort taux d’engagement.

En d’autres termes, Google a créé un réel incentive pour s’engager sur la plateforme. Malgré cela, force est de constater que Google+ n’inspire pas l’internaute moyen.

BD google plus

Quid de la dimension sociale?

Lorsque l’on décide de se lancer dans Google+, on va généralement créer son profil et/ou sa page, linker ses comptes, paramétrer son profil, pour que vienne ensuite la phase du « now what? »: faut-il suivre les mêmes gens/pages que l’on suit déjà sur Facebook et Twitter? Publier les mêmes contenus? Organiser les mêmes campagnes? Quel intérêt?

Google+ n’inspire donc pas car Google+ n’est qu’un ersatz des produits que nous utilisons déjà. Lorsque l’on a eu un échange sur Twitter avec un autre utilisateur, faut-il répliquer cet échange sur Google+? Faut-il reproduire les communautés que l’on a bâtie sur Twitter/Facebook? Que va m’apporter une communauté sur Google+ que ne m’apporte pas déjà une communauté sur Facebook ou Twitter?

Niveau communication, Google ne se tourne pas les pouces: les RP de Google vont encourager les blogueurs, vlogueurs, ou leaders d’opinions de manière générale, à utiliser Google+ en leur offrant d’y animer des campagnes pour animer le réseau. Être pote avec les RP de Google, c’est aussi être dans la boucle des infos exclusives et des évènements organisés par Google, l’incentive fait donc qu’en général les blogueurs collaborent. Ensuite, tout blogueur possède sa troupe de suiveurs qui s’agglutinent autour des posts de leurs leaders d’opinion, ce qui créer une première couche (bien éphémère) d’utilisateurs. Jusqu’à présent, la croissance de Google+ a été dopée aux RP et dépend encore de cette collaboration avec la communauté d’influenceurs pour exister.

Toujours est-il que chez l’internaute moyen, la sauce ne prend pas. Au fond, Google+ n’est qu’un me-too dans la course. Google+ est à Twitter/Facebook ce que Viadeo est à LinkedIn, Dailymotion à Youtube, Bing à Google… Pour décoller, Google+ ne doit pas faire mieux que Facebook et Twitter, il doit faire différent.

meme Google+ fail

Différenciation et engagement sur Google+

L’un des principaux défauts de Google+, c’est son manque d’ouverture. Il est impossible de faire de l’autoshare sur Google+, c’est-à-dire que, par exemple, je ne peux pas publier automatiquement tous mes tweets sur Google+. Pourtant, il est possible au sein de Twitter d’auto-publier ses tweets sur Facebook et vice-versa. Google+ a maintenu depuis son lancement des APIs fermées à la publication de contenu externe. C’est ce qui provoque la problématique du « je viens de publier un tweet: pourquoi devrais-je ouvrir ma page Google+ et y dupliquer ce tweet? »

En ouvrant les valves aux contenus d’autres réseaux, Google+ pourrait accroitre de manière substantielle le taux d’activité sur sa plateforme. Étant originellement un moteur de recherche, Google pourrait alors proposer sur son réseau social des fonctionnalités de recherche transversales (inter-réseaux) qui manque cruellement dans l’arène des outils de veille 2.0. Le projet Friendfeed n’était pas si mal, il bénéficiait d’une croissance modeste mais naturelle, et ses membres étaient enthousiastes. Google pourrait reprendre là où Bret Taylor et Paul Buchheit s’étaient arrêtés (Friendfeed a été racheté par Facebook en 2009).

Niveau indexation de contenu, Google serait servi vu qu’une masse démentielle de contenus sociaux transiteraient alors par sa plateforme. Google+ pourrait même envisager un pied de nez à Facebook en débloquant l’autoshare des status Facebook. Vu que la plateforme est bien designée, il se pourrait même que les discussions démarrées sur Facebook trouvent une continuité sur Google+.

Dans le fond, Google a toujours été un aggrégateur/curateur de contenu. Son moteur de recherche nous a toujours permis de découvrir les contenus présents sur une mulititude de sites. Pourquoi ne pas développer aujourd’hui le même aggrégateur pour les sites 2.0?

google reader end

Mort de Google Reader, renaissance du lecteur RSS

On savait tous que ça allait arriver un jour, mais la nouvelle fit quand même mal: début juillet 2013, Google va fermer Google Reader pour de bon! Pour contextualiser, Google Reader est le meilleur lecteur de flux RSS sur le marché actuellement, et des dizaines de clients existent pour lire ses flux sur des interfaces améliorées. Pourquoi Google Reader ferme-t-il ses portes et quelles sont les alternatives à la hauteur du défunt service?

La fin du RSS

Depuis longtemps, il était clair que Google ne prêtait plus beaucoup attention aux flux RSS: la dernière mise à jour de Google Reader remonte à plusieurs années, Chrome ne lisait pas les flux RSS, et Feedburner n’a également connu aucune amélioration majeure depuis son rachat par Google en 2006 (le programme Adsense for feeds a été interrompu il y a 6 mois).

Le format RSS nécessite un minimum de connaissances techniques pour être utilisé à bon escient, et c’est probablement sur ce point que les internautes ont butté.

Et pourtant, il y a dix ans, alors que les blogs explosèrent sur la toile, le format RSS restait le meilleur moyen pour suivre des blogs en quantité. Le flux RSS a permis à des sites tels que TechCrunch d’afficher son succès grandissant: les compteurs d’abonnés Feedburner étaient l’indicateur le plus fiable pour évaluer la popularité réelle d’un blog.

[soundcloud url= »http://api.soundcloud.com/tracks/83277470″ auto_play= »false » show_comments= »false » params= » » width= » 100% » height= »80″ iframe= »true »/]

Google+

Malheureusement, en cours de route, les réseaux sociaux ont explosé, avec des paradigmes de diffusion de l’information plus évolués et plus social. Dans cette course, Google a pris une claque par Facebook qui s’est hissé au rang de compétiteur pour la domination du web. Pris de vitesse, Google a tout essayé: Friendconnect, Buzz, Wave, pour finalement établir Google+ comme le composant social qui serait présent au sein de tous ses produits ou presque.

Mais pour hisser Google+ au rang de Facebook, Google met toutes les chances de son côté, et cela implique faire plancher l’équipe de l’excellent Google Reader sur G+. Google Reader fut à une époque l’un des réseaux sociaux les plus chauds en termes d’actualités: grâce à la défunte fonction « share », les utilisateurs pouvaient se suivre et les curateurs connaissait un certain succès. Une application, Readburner, avait été créée pour repérer tous les sujets les plus partagés sur Google Reader, pour le plus grand bonheur des newscrunchers. Semblable à Digg au niveau du design, Readburner livrait une citation de l’information aussi quali que Techmeme. Readburner a été racheté et fermé par les propriétaires de ReadWriteWeb (aujourd’hui ReadWrite), et la fonction share a été désactivée il y a presque 2 ans pour être remplacée par un bouton +1.

Le choix de remplacer un réseau Google Reader-only par un réseau global Google+ est questionable, mais Google n’a plus le choix, car son modèle de domination est aujourd’hui sévèrement menacé. Google a tué l’un des produits favoris de la communauté technophile internationale, en espérant le remplacer par un produit hybride, à la croisée des inspirations de Twitter et Facebook, un choix qui peut make or brake le succès de la multinationale de demain.

Les alternatives à Google Reader

Et voilà que nous nous retrouvons aujourd’hui des millions d’utilisateurs à errer en quête d’un lecteur de flux RSS qui pourrait égaler l’ergonomie et la puissance de Google Reader. Le défi est de taille sachant que Google n’est lui-même jamais parvenu à monétiser son lecteur de flux RSS, ce qui signifie que Google a perdu de l’argent toutes ces années pour nous offrir son Reader gratuitement. Il est aujourd’hui complètement illogique pour un fournisseur de services en ligne d’offrir un service comparable à Google Reader gratuitement: la seule solution qui existe aujourd’hui pour monétiser un lecteur de flux RSS, c’est de faire payer les utilisateurs.

On trouve cependant sur le marché des produits similaires qui peuvent répondre à la plupart de nos besoins.

Feed Demon

Pour les besoins professionnels, Feed Demon est un bon outil. Développé par l’équipe de Newsgator, Feed Demon est un logiciel qui s’installe sur Windows. Il est possible d’importer un fichier OPML, de classer ses flux dans des dossiers, de les tagger, de faire des recherches dans l’ensemble des flux mis en cache, ainsi que des statistiques sur la consommation des flux par l’utilisateur. Feed Demon propose également une fonctionnalité absente chez Google Reader: un système d’alerte qui tracke et répertorie tous les articles contenant des mots-clé prédéfinis, afin de rajouter une couche d’analyse dans sa veille…

Vu que Feed Demon n’est pas web-based, vos flux ne sont pas hébergés en ligne et donc pas accessibles depuis n’importe quel appareil. Il n’existe donc pas d’accès internet à vos flux, ni d’application mobile pour lire ses flux dans le métro… C’est là la grosse faiblesse de Feed Demon qui ne peut tourner que sur une seule machine.

Cependant, pour se consoler de ce shortcoming, il existe quelques fonctionnalités de partage des contenus facilement détournables, donc avec un peu d’imagination, Feed Demon se trouve être un outil sympa à manipuler.

Feed Demon existe en freemium, avec une version gratuite qui couvre la majorité des fonctionnalités nécessaires à une bonne veille.

Feedly

À l’heure actuelle, Feedly n’est ni plus ni moins un client Google Reader. Cela signifie que le jour où Google Reader fermera ses portes, Feedly n’aura plus de serveurs dans lesquels aller chercher vos flux, et rien ne garantit aujourd’hui que l’équipe de Feedly va développer à temps toute la solution back-end pour remplacer Google Reader, bien qu’elle s’est engagée à le faire en temps et en heure.

The Old Reader

Voilà une bonne alternative à Google Reader. The Old Reader est un lecteur de flux RSS basé en ligne très similaire à Google Reader en termes de fonctionnalités et d’ergonomie. Il permet l’upload d’OPML, le rangement par dossier, et surprenante surprise, un réseau social interne existe pour que les utilisateurs puissent partager entre eux les contenus qui les intéressent.

Cependant, le service ne s’attendait probablement pas à la fermeture annoncée de Google Reader et donc à l’afflux de nouveaux utilisateurs, car cela fait plusieurs jours que mon upload d’OPML est bloqué. Je suis en file d’attente avec 2121 utilisateurs devant moi qui attendent l’import de leur OPML.

Netvibes

Netvibes est indéniablement l’un des grands acteurs historique dans l’évolution des flux RSS. Le service permet de s’inscrire à autant de flux qu’on le désire, d’insérer des flux Twitter, de paramétrer des recherches sur un bouquet de flux, avec des options de partage avancées.

N’étant pas un grand fan de Netvibes (je n’accroche pas du tout avec son ergonomie), je ne vais pas trop m’étendre sur le sujet, mais le service est costaud et reliable.

Un nouveau marché du lecteur RSS

500 000 utilisateurs ont fait l’exode de Google Reader à Feedly au 17 mars 2013, un chiffre communiqué par la startup elle-même. Google Reader comptait effectivement des millions d’utilisateurs (aucun chiffre officiel n’a été communiqué, mais l’utilisation de Google Reader est plus que largement répandue chez les communautés technophiles). Cela signifie que les acteurs sur le marché, tels que ceux cités ci-dessus, font aujourd’hui face à la plus grosse opportunité de leur existence: le leader du marché a décidé par lui-même de se retirer, abandonnant ses millions d’utilisateurs à la portée de ses concurrents.

Cependant, quel modèle de monétisation choisir? Si Google Reader a échoué avec une base de plusieurs millions d’utilisateurs et les moyens colossaux de le Google corporation, des acteurs avec moins de ressources et de moyens vont-ils y trouver leur compte? La monétisation des flux avec de la publicité fut un échec pour Adsense for feeds. Les modèles de monétisation en freemium tels que celui de Feed Demon ne garantisse pas des revenus qui peuvent supporter plusieurs millions d’utilisateurs en mode free. Netvibes offre des solutions payantes pour les entreprises mais cela n’a pas permis à la boite de faire décoller ses revenus (Netvibes a été racheté en 2012 par Dassault System pour 20 millions d’euros). TheOldReader est complètement gratuit, ce qui limite énormément son potentiel de développement. Aucun lecteur de flux RSS ne connait aujourd’hui un épanouissement économique marquant. La disparition de Google Reader va-t-elle donc changer la donne sur le marché des lecteurs de flux RSS?

wikipedia perfection

Wikipedia, un exemple de perfection socio-technologique

Lorsque l’on créé un site web, développer une communauté représente l’un des principaux challenges qui dépasse les lois de l’informatique et nous fait pénétrer dans la dimension psycho-sociale d’Internet: comment intéresser les individus? Comment leur donner un sentiment d’appartenance à la communauté? Comment organiser les membres de la communauté pour en garantir la préservation? Comment garder les rênes sur la gestion du site avec une communauté qui grandit et réclame des privilèges décisionnels?

La gestion de la communauté

Parvenir à croître une communauté ainsi qu’à la canaliser n’est pas chose facile. Cela s’apparente même à de la science politique, une discipline fort complexe et qui se réinvente constamment au gré de l’actualité. Si le gestionnaire d’un site opère de manière trop autoritaire et n’inclut jamais l’avis de sa communauté dans ses choix de développement, celle-ci se sentira lésée, et cela aura un impact sur le désir de s’investir de ses membres. Si le gestionnaire du site adopte un style trop laisser-faire, alors il y a des chances pour que les débordements se multiplient, et qu’à terme le chaos social fasse fuir les membres. Le gestionnaire doit donc opter pour un modèle démocratique de gestion de sa communauté, c’est-à-dire définir des lois et un système décisionnel composé de responsables communautaires intégrant l’avis de la communauté dans leurs décisions.

L’objectif de la communauté

Selon le projet que porte la communauté, le besoin de structures sociales sera plus ou moins grand: sur Hot or Not, l’utilisateur est limité à un choix dans son interaction avec le site (Hot ou not hot). Sur Reddit, les utilisateurs doivent soumettre des contenus intéressants et voter pour les meilleurs contenus. La communauté est donc en charge de mettre en valeur les contenus qui intéressent le plus les internautes, une tache peu évidente qui requiert une certaine discipline éditoriale. Sur Wikipedia, la tache est infiniment plus complexe: la communauté est en charge de reproduire les principales connaissances de l’humanité de la manière la plus objective possible. Ici, la responsabilité de la communauté est conséquente, car le contenu produit doit être complet et de qualité encyclopédique.

Sur Hot Or Not, seule une action est requise chez les utilisateurs, les risques de débordements restent donc limités. Sur Reddit, les risques sont plus élevés, les utilisateurs pouvant soumettre des contenus indésirables et abuser des algorithmes du site. Sur Wikipédia, les risques sont très élevés, les utilisateurs étant en charge d’écrire la principale source de connaissances sur terre. Plus les risques sont élevés, plus le besoin de créer une couche d’utilisateurs-modérateurs se fera ressentir.

Les obstacles au développement communautaire

Comme évoqué plus haut, le style de management de la communauté peut être une entrave à l’épanouissement de ses membres. Les outils dont jouissent les membres pour construire le contenu détermineront également leur contrôle sur l’évolution du contenu, et donc la sensation de contribuer activement à un projet global. Peu d’outils à disposition de la communauté réduit l’engagement de ses membres. L’importance du projet tel qu’il est perçu par les partis externes à la communauté dynamise également ou non l’effet identitaire d’appartenance au site. Ainsi, la réputation d’un site va fortement influencer le désir de ses membres à s’y investir, et va même aller jusqu’à déterminer la typologie de ses membres.

Je partageais une discussion avec un collègue qui m’expliquait qu’une de ses connaissances possédait une communauté de contributeurs sur son site qu’il avait développé en distribuant des privilèges à certains membres afin d’en faire des modérateurs actifs ainsi que des ambassadeurs. Un système de distribution des tâches et des responsabilités engrange une hiérarchie sociale, une dynamique essentielle dans le développement d’une communauté.

Les epic fail

Les histoires d’échecs de développement communautaire sont nombreuses sur le web: Digg s’était fortement appuyé sur la force de certains de ses membres pour se développer. Ces membres avaient acquis un pouvoir tel qu’ils constituaient un contre-pouvoir qui entravait sérieusement les décisions des équipes officiellement dirigeantes. Ne parvenant pas à reprendre le pouvoir, Digg a décidé d’irradier ces membres influents de sa communauté un après l’autre. En agissant de la sorte, Digg s’est coupé une jambe et a perdu son aura de pionnier prometteur de l’ère 2.0.

Twitter a également traversé des embrouilles communautaires. Pour croitre, Twitter avait fait le pari ambitieux d’ouvrir complètement ses APIs aux développeurs indépendants afin qu’ils développent eux-mêmes les fonctionnalités destinées aux utilisateurs. À ses débuts, 80% de l’activité générée sur la plateforme Twitter provenait des applications tierces. Lorsque Twitter eut atteint un certain seuil de développement, les besoins de consolidation et de réappropriation des membres de sa communauté se sont fait ressentir. Twitter a alors abandonné sa politique d’ouverture de ses APIs, coupant ainsi le courant à des dizaines de milliers d’applications tierces qui disparurent du jour au lendemain. Du coup, les développeurs ont déserté l’API par milliers, et l’écosystème des outils Twitter s’est fortement appauvri.

Le point de cassure suite à un désaccord entre un gestionnaire de site et sa communauté est variable: une communauté se retrouve asservie à son site si celui-ci ne connait pas de concurrence sérieuse. Par exemple, sur Facebook, la communauté a souvent exprimé un fort désaccord vis-à-vis de certains axes d’évolution de la plateforme. Cependant, où aller à part Facebook pour retrouver toutes ses connaissances? Facebook tient un monopole sur le marché des réseaux sociaux, tout comme Google sur le marché de la recherche en ligne… Leurs utilisateurs peuvent se plaindre, mais ils peuvent difficilement fuir… D’un autre côté, sur un forum classique, si la communauté se retourne contre les dirigeants, il sera aisé de reproduire un forum identique et faire migrer les membres de la communauté vers ce nouveau site.

Le rayonnement de Wikipédia

De tous les sites qui dominent le web aujourd’hui, Wikipedia est de loin l’exemple par excellence de réussite communautaire:

  1. La communauté Wikipedia est ouverte à tous.
  2. Le site figure dans le top5 des plus fréquentés au monde.
  3. Plusieurs centaines de milliers de membres ont déjà contribué à l’encyclopédie ouverte.
  4. Le site est la principale source de connaissances sur le Web.

Outre ces mesures quantitatives, Wikipédia a atteint une qualité incomparable dans l’histoire du user-generated content: le contenu du site est entièrement produit par ses utilisateurs, de la création des pages à leur modération, en passant par la définition de l’ensemble des règles qui encadrent le processus de création. Wikipédia est presque intégralement le fruit de sa communauté qui a littéralement fait la plateforme.

La communauté est tellement impliquée et soudée que ceux qui le souhaitent peuvent créer leur propre Wikipedia en s’appropriant MediaWiki, le logiciel qui permet de créer et gérer un wiki, et que l’association met à la libre disposition des internautes. Les gestionnaires du site ne s’inquiètent pas de la fuite de leur communauté: Celle-ci est si bien ancrée dans le site qu’il faudrait un tremblement de terre numérique pour la faire fuir.

Pour évoluer de la sorte, l’équipe dirigeante de Wikipedia a décidé de tout faire pour favoriser la croissance d’une communauté pérenne: le coeur dirigeant ne s’est pas formé en entreprise mais en association, pour défendre au maximum un positionnement de neutralité. Les dirigeants de l’association sont cantonnés à gérer la dimension juridique du projet, l’hébergement des données, ainsi que de donner les directives globales de développement de la plateforme. Des administrateurs bénévoles enclenchent le pas pour la mise en place opérationnel et son bon déroulement. Des modérateurs, eux aussi bénévoles, contribuent à la plateforme mais interviennent également sur les situations de mésentente et de conflit. Ces modérateurs sont les ambassadeurs des principes philosophiques de la communauté. Viennent ensuite les contributeurs réguliers, des membres qui s’investissent pour le pur plaisir de faire évoluer le savoir publiquement accessible du site. Enfin, une couche importante de contributeurs occasionnels viennent compléter les connaissances manquantes, souvent de manière anonyme, mais presque toujours sous l’oeil averti des modérateurs et des contributeurs réguliers.

Indéniablement, le système de hiérarchie sociale de Wikipedia est le plus évolué de tout le world wide web, étant composé de plusieurs « classes » de membres ayant chacune en charge la gestion d’un organe vital du site.

En termes d’outils, la communauté n’est pas en manque: guide d’utilisation exhaustif, espaces de discussion, syntaxes de mise en forme, ajout de média, gestion des versions, modération et blocage des membres, interfaces de veille, outils d’analyse des contenus, d’analyse des comportements, … Wikipédia possède une infrastructure socio-technologique complexe.

Se moquer de la perfection

Il est donc risible d’entendre les journalistes et autres intellectuels de comptoir critiquer la véracité des informations publiées sur Wikipédia ainsi que les compétences de sa communauté. Tout d’abord, la communauté n’est rien de plus qu’un échantillon de l’humanité, dotée des faiblesses propres au type humain.

Ensuite, l’information produite sur Wikipédia est tellement élaborée qu’elle en est bluffante: le site est parti de zéro, pour arriver aujourd’hui à des dizaines de millions d’articles pour la majorité bien rédigés. Ces articles ne sont pas juste le fruit du travail rédactionnel d’une poignée d’hommes, mais surtout le résultat d’un processus consensuel de la part des membres de la communauté.

Avant de formuler des critiques envers Wikipédia, il faut d’abord être capable d’appréhender les leviers qui permettent son existence. Lorsque l’on analyse la dimension socio-technologique de Wikipedia, cela permet de mieux comprendre en quoi l’encyclopédie ouverte reste un modèle communautaire encore inégalé aujourd’hui.

instagram web feed

Instagram n’est plus juste mobile

L’équipe d’Instagram vient d’annoncer sur son blog que l’application de partage de photos n’était plus juste accessible à partir d’un mobile (iOS ou Android), mais aussi via Facebook sur n’importe quel ordinateur connecté au Web. Il est donc possible aujourd’hui de liker et commenter des photos à partir de son desktop, mais pas d’uploader de nouvelles photos.

Instagram a longtemps été accessible sur iOS seulement, et n’a sorti une version Android que quelques semaines avant l’annonce de son rachat par Facebook. Presque 10 mois après ce rachat, Instagram propose enfin la possibilité de découvrir ses photos sur tous les appareils via une application Facebook. L’application ne permet pas l’upload de photos, probablement pour préserver la touche ici et maintenant des photos partagées (ainsi que les précieuses données géolocalisées), mais l’application Instagram a été optimisée pour un accès web mobile et non-mobile.

Avec cette nouvelle fonctionnalité, Facebook se démarque de Google en offrant un contenu très demandé par les internautes et à peine accessible à partir des principaux moteurs de recherche.