Reputation Squad Beaubourg

4 ans (ou presque) chez Reputation Squad

Voici un petit billet sur mon expérience chez Reputation Squad. Je ne l’ai pas fait valider par l’agence avant de le publier, mais je pense qu’il ne contient rien d’indésirable en termes d’e-réputation ;)

Je viens de quitter l’agence d’e-réputation Reputation Squad, suite à presque 4 ans de bons et loyaux services en tant que chef de projet e-réputation. J’y ai vécu une aventure unique, à laquelle j’ai la sensation d’avoir historiquement contribué. Je suis arrivé dans l’entreprise alors qu’elle était composée de deux fondateurs déterminés à se positionner sur le marché encore embryonnaire de l’e-réputation. Nous sommes partis from scratch, avec la volonté et l’opportunisme comme meilleurs atouts. Quatre ans plus tard, après des centaines de retombées presse, une masse incalculable de clients, 3 déménagements et le recrutement d’une équipe de choc, je quitte cette agence qui a encore de beaux jours devant elle.

Le buzz

Je ne saurai expliquer comment cela a commencé exactement, mais lorsque je suis arrivé à Reputation Squad, l’agence bénéficiait d’une exposition médiatique surdimensionnée. Un mois après mon arrivée, j’ai eu ma photo en pleine page du volet central du journal Métro. A l’époque, Reputation Squad était connue comme l’agence des « nettoyeurs du net ». Les journalistes adoraient et se faisaient passer le mot entre eux. Rares sont les entreprises qui se sont lancées avec la presse comme principal canal de prospection, mais Reputation Squad est l’une d’elles.

La croissance

L’aventure Reputation Squad a démarré dans de petits locaux. Une fois les premiers clients rentrés, nous avons déménagé sur une péniche en face de la Concorde, un cadre exceptionnel pour travailler dans Paris intra-muros. Face au développement des équipes, nous avons ensuite déménagé plusieurs fois pour nous retrouver enfin rue Beaubourg, dans des bureaux assez grands pour supporter la croissance des effectifs. De mon arrivée à mon départ, l’équipe est passée de 1 employé (moi) à +25 employés. L’agence a également ouvert des bureaux à Rennes pour y développer son pôle technique sous la direction de Thierry Roncier.

La clientèle

En terme de prestige de sa clientèle, Reputation Squad a toujours connu une montée en puissance graduelle et ininterrompue: les premiers contrats étaient plutôt modestes et concernaient des personnes ou entreprises à faible notoriété (et donc avec des problématiques d’e-réputation plutôt simples à gérer), puis graduellement des personnalités fortement médiatisées ont commencé à nous rejoindre, pour finir aujourd’hui avec un portefeuille client digne d’une grande agence parisienne. Ce sont la diversité et le prestige des clients de l’agence qui ont transcendé mes compétences de social media marketing en expertise e-réputation.

Les dirigeants fondateurs

Du coup, j’ai passé les 4 dernières années de ma vie en compagnie d’Albéric Guigou et Fabrice Ivara, les deux co-fondateurs et présidents de Reputation Squad. Toute cette aventure, c’est leur bébé, et je dois reconnaitre qu’ils ont piloter l’un des plus beaux lancements d’entreprise que je n’ai jamais vu. Pendant que l’un occupait l’attention médiatique sur les sujets touchant à l’e-réputation, l’autre tenait les rênes financières pour assurer le développement de l’entreprise. Les appels entrants abondaient, le suivi commercial était assuré, et au fil du temps, une solide expertise e-réputation s’est développée. Joli duo, chapeau bas.

Reputation Squad 3.0

La version 1.0 de Reputation Squad fut ses débuts. La version 2.0 fut concrétisée par la période République/Beaubourg durant laquelle la startup s’est transformée en PME. La version 3.0 représente cette phase où l’agence va s’industrialiser et s’internationaliser. C’est ici que je me retire. J’aime me situer à l’éclosion des projets, alors qu’ils ne sont qu’embryonnaires et que les possibilités sont infinies. Je conçois ma contribution chez Reputation Squad comme celle d’un ingénieur du web, dont la tâche principale fut de développer les méthodes et les outils les plus performants pour une gestion contrôlée de l’e-réputation. Nous y sommes parvenus, ensemble. J’ai bien sûr un petit pincement au coeur de quitter une agence fun et performante, au sein de laquelle des amitiés se sont créées, mais le changement n’est pas un frein, il est le moteur de l’innovation et du progrès.

Adios Amigos!

recaptcha

La faille de Recaptcha

Recaptcha, vous connaissez? C’est le système anti-spam que l’on trouve en bas des formulaires en ligne qui garantissent que c’est bien un humain qui est derrière l’envoi d’information. Recaptcha vous affiche des lettres/chiffres tordus ou disposés de manière non-linéaires, et vous demande de recopier ce que vous voyez. Recaptcha n’est pas le seul à fournir ce genre de solution antispam, mais il est le seul à y avoir vu un intérêt sémantique et lucratif. Cependant, son système a une faille que le logiciel ne peut malheureusement pas guérir…

Recaptcha, le crowdsourcing de la reconnaissance de symboles

Recaptcha est né au milieu d’une masse incalculable d’outils proposant exactement la même solution. Son USP? L’idée de Recaptcha est d’intégrer dans la suite de lettres/chiffres à recopier exactement des symboles que même une application OCR n’est pas capable d’interpréter. Par exemple, dans une suite de 10 chiffres/lettres, 2 voir 3 des ces éléments seront inconnus de Recaptcha.

Quel intérêt? De cette manière, Recaptcha stocke en base tous les chiffres/lettres identifiés par les utilisateurs et permet ainsi d’enrichir la technologie OCR de manière générale. Il y a fort à parier que les chiffres/lettres inconnus de Recaptcha sont soumis à plusieurs utilisateurs pour croiser les réponses et garantir l’exactitude de la donnée fournie.

Google achète et l’adapte à ses besoins

Recaptcha a été racheté par Google en 2009. L’intérêt de Google est claire: il peut utiliser Recaptcha pour déchiffrer tout contenu que ses spiders auraient du mal à analyser, principalement les scans de journaux, de livres, ou tout pdf de qualité moyenne. Avec Recaptcha, Google enrichit son pouvoir d’analyse et d’indexation.

recapcha exempleMais Google ne s’arrête pas là: l’un de ses produits pose un problème auquel Recaptcha peut répondre: Google Maps. En effet, avec Streetview, Google Maps enregistre une capture de toutes les façades de tous les immeubles ou maisons. Les ingénieurs de Google Maps ont eu l’idée ingénieuse d’utiliser Recaptcha pour que les utilisateurs identifient eux-mêmes les numéros devant chaque façade. En effet, il est de plus en plus fréquent que Recaptcha affiche une série de 5-6 chiffres/lettres, suivie d’une photo d’un numéro de rue à déchiffrer. De cette manière, ce sont les utilisateurs de Recaptcha qui renseignent Google Maps sur le numéro de chaque rue, une valeur ajoutée qui permet à Google d’économiser en technos de reconnaissance, ou en petites mains qui analysent chaque numéro de rue un-à-un.

Tout cela pour en venir au fait: si vous avez un Recaptcha avec trois numéros sur une plaque qui ressemble à une plaque de numéro de rue, vous pouvez entrer n’importe quel numéro car Recaptcha n’a aucune idée des chiffres qu’il vient de vous soumettre. Cela rend tout de suite la solution recaptcha beaucoup moins séduisante pour sécuriser un site…

rip igoogle

Disparition non-remarquée d’iGoogle

Je viens de remarquer un message de service sur iGoogle prévenant ses utilisateurs de l’interruption du service en novembre 2013. Après une rapide recherche sur Google, je me suis rendu compte que l’annonce date de juin 2012, mais vu que, tel le commun des mortels, iGoogle sort complètement de mes centres d’intérêt, ja n’avais pas vu passé la nouvelle.

Cette disparition s’inscrit dans 2 logiques: la première qui veut que Google recentre ses ressources autour de ses produits star et ferme les autres (RIP Google Reader). La deuxième selon laquelle les interfaces customisables à la Netvibes n’auront jamais vraiment percé.

Google ne veut plus être un fourre-tout

En évaluant les investissements colossaux en termes de temps et de stratégie pour faire de Google+ la star ascendante des réseaux sociaux, Google a compris qu’il fallait mieux canaliser ses forces de développement et se défaire des produits qui ne constituent pas un enjeu stratégique majeur. Certains de leurs choix, comme l’abandon des produits centrés autour du format RSS sont questionnables, mais d’autres tels que iGoogle sont complètement compréhensibles.

Lancé en mai 2005 (quelques mois avant Netvibes), iGoogle n’a jamais vraiment percé dans la mouvance 2.0. Alors que Google voulait que tous ses utilisateurs en fassent la page d’accueil de leurs navigateurs, la firme de Mountain View n’a jamais osé mettre iGoogle en page d’accueil de Google.com, ni en accueil de n’importe lequel de ses produits. iGoogle vivait donc en marge des produits Google, et aucune modification majeure n’a jamais été vraiment constatée (à part une refonte en 2008). Bref, iGoogle n’a jamais été que l’un des multiples reflets de la volonté de Google de truster le buzz, aussi volatile soit-il…

Dashboards personnalisables et puis s’en vont

Certes, dès 2005, le dashboard personnalisable a connu un bel essor. Netvibes s’est posé comme l’un des précurseurs dans cette arène avec sa vaste sélection de modules. À cette époque, les curateurs y trouvent leur compte: Netvibes semble être le parfait tableau de bord pour maîtriser un volume plus élevé d’information (Netvibes a été lancé un mois avant Google Reader). Ses modules sont paramétrables et modulables, et ses onglets permettent de créer plusieurs espaces de veille thématisés (je ne suis pas certain que les onglets étaient là dès le lancement du service).

En 2005, un autre service similaire avait fait son apparition: Pageflakes. Les utilisateurs pouvaient créer des onglets publiques et animer ce qu’ils appelaient des Pagecasts. Le concept du dashboard personnalisable était poussé à son paroxysme. Pageflakes a tenu 7 ans avant d’éteindre définitivement son site en 2012.

Cependant, aucun de ces outils n’aura survécu à la vague 2.0, Netvibes étant de son côté en train de s’éteindre paisiblement dans les bras du groupe Dassault Systèmes. Peut-être que ces outils auraient du copier les onglets de Tweetdeck, Hootsuite, ou intégrer Skype, ou jouer le jeu de Digg, Reddit… Rien de tel n’a été entrepris.

Donc RIP iGoogle et les dashboards personnalisables. Si certains ont des regrets, il reste encore Netvibes, même si je doute que le produit va continuer de beaucoup évoluer. Et bizarrement (ou pas), alors que plus rien ne pourrait laisser croire que les dashboards personalisables pouvaient intéresser qui que ce soit, Yahoo lance My Yahoo pour se récupérer la demi-douzaine d’utilisateurs qui y croient encore (bien joué Marissa Mayer).

google plus

Pourquoi Google+ peine à convaincre ? Comment y remédier ?

Après un nombre incroyable de fails dans la sphère social media, Google semble tenir le bon filon avec Google+. Lancé en juin 2011, Google+ est un produit hybride à la croisée de Twitter et Facebook. Son utilité ? Pas encore bien définie, mais la philosophie de Google dans la mise en oeuvre de ce projet semble être « build it and they will come ».

Google a donc bâti Google+, et a brandi des carottes pour attirer des utilisateurs dans son terrier. Les carottes, ce sont les bénéfices en termes de SEO que Google+ promet en échange d’une animation de son réseau. Ces bénéfices sont bien réels, mais la carotte se transforme en plan carotte lorsque l’on se rend compte qu’il n’y a rien à faire de spécial sur Google+. Pourquoi Google+ ne séduit pas, et comment cela pourrait changer?

A noter que je ne me base pas sur les chiffres incroyables d’augmentation d’utilisateurs que Google+ communique, sachant que cette dynamique de croissance émane principalement de la transformation des utilisateurs Google en utilisateurs Google+. Je me base plutôt sur le peu d’actualités qui entourent Google+ outre les annonces de croissance bidons.

Les atouts majeurs : SEO

Face aux échecs répétés en matière de réseaux sociaux, Google a manifestement décidé de sortir les gros jetons en s’appuyant sur son fameux moteur de recherche. Dès son lancement, la communication et les actions de Google ont clairement sous-entendu qu’un engagement sur Google+ aurait un impact direct sur l’appréciation des contenus indexés dans son moteur de recherche. En clair, si je partage un lien dans Google+, cela améliore son positionnement dans le moteur de recherche.

La carotte est donc lancée pour tous ceux soucieux d’accroitre leur visibilité dans les moteurs de recherche.

Voici quelques bénéfices d’un compte Google+ dans les moteurs de recherche:

  • Affichage de la photo de l’auteur à côté du lien de son article (on dit aussi que ça en améliore du coup le positionnement de l’article dans le moteur de recherche)
  • Affichage du dernier statut publié sur la page Google+ d’une personnalité/marque/entreprise dans le knowledge graph.
  • Meilleurs positionnements des liens partagés sur Google+ dans les SERPs des membres de son réseau Google+.
  • Meilleur positionnement général des liens partagés sur Google+ bénéficiant d’un fort taux d’engagement.

En d’autres termes, Google a créé un réel incentive pour s’engager sur la plateforme. Malgré cela, force est de constater que Google+ n’inspire pas l’internaute moyen.

BD google plus

Quid de la dimension sociale?

Lorsque l’on décide de se lancer dans Google+, on va généralement créer son profil et/ou sa page, linker ses comptes, paramétrer son profil, pour que vienne ensuite la phase du « now what? »: faut-il suivre les mêmes gens/pages que l’on suit déjà sur Facebook et Twitter? Publier les mêmes contenus? Organiser les mêmes campagnes? Quel intérêt?

Google+ n’inspire donc pas car Google+ n’est qu’un ersatz des produits que nous utilisons déjà. Lorsque l’on a eu un échange sur Twitter avec un autre utilisateur, faut-il répliquer cet échange sur Google+? Faut-il reproduire les communautés que l’on a bâtie sur Twitter/Facebook? Que va m’apporter une communauté sur Google+ que ne m’apporte pas déjà une communauté sur Facebook ou Twitter?

Niveau communication, Google ne se tourne pas les pouces: les RP de Google vont encourager les blogueurs, vlogueurs, ou leaders d’opinions de manière générale, à utiliser Google+ en leur offrant d’y animer des campagnes pour animer le réseau. Être pote avec les RP de Google, c’est aussi être dans la boucle des infos exclusives et des évènements organisés par Google, l’incentive fait donc qu’en général les blogueurs collaborent. Ensuite, tout blogueur possède sa troupe de suiveurs qui s’agglutinent autour des posts de leurs leaders d’opinion, ce qui créer une première couche (bien éphémère) d’utilisateurs. Jusqu’à présent, la croissance de Google+ a été dopée aux RP et dépend encore de cette collaboration avec la communauté d’influenceurs pour exister.

Toujours est-il que chez l’internaute moyen, la sauce ne prend pas. Au fond, Google+ n’est qu’un me-too dans la course. Google+ est à Twitter/Facebook ce que Viadeo est à LinkedIn, Dailymotion à Youtube, Bing à Google… Pour décoller, Google+ ne doit pas faire mieux que Facebook et Twitter, il doit faire différent.

meme Google+ fail

Différenciation et engagement sur Google+

L’un des principaux défauts de Google+, c’est son manque d’ouverture. Il est impossible de faire de l’autoshare sur Google+, c’est-à-dire que, par exemple, je ne peux pas publier automatiquement tous mes tweets sur Google+. Pourtant, il est possible au sein de Twitter d’auto-publier ses tweets sur Facebook et vice-versa. Google+ a maintenu depuis son lancement des APIs fermées à la publication de contenu externe. C’est ce qui provoque la problématique du « je viens de publier un tweet: pourquoi devrais-je ouvrir ma page Google+ et y dupliquer ce tweet? »

En ouvrant les valves aux contenus d’autres réseaux, Google+ pourrait accroitre de manière substantielle le taux d’activité sur sa plateforme. Étant originellement un moteur de recherche, Google pourrait alors proposer sur son réseau social des fonctionnalités de recherche transversales (inter-réseaux) qui manque cruellement dans l’arène des outils de veille 2.0. Le projet Friendfeed n’était pas si mal, il bénéficiait d’une croissance modeste mais naturelle, et ses membres étaient enthousiastes. Google pourrait reprendre là où Bret Taylor et Paul Buchheit s’étaient arrêtés (Friendfeed a été racheté par Facebook en 2009).

Niveau indexation de contenu, Google serait servi vu qu’une masse démentielle de contenus sociaux transiteraient alors par sa plateforme. Google+ pourrait même envisager un pied de nez à Facebook en débloquant l’autoshare des status Facebook. Vu que la plateforme est bien designée, il se pourrait même que les discussions démarrées sur Facebook trouvent une continuité sur Google+.

Dans le fond, Google a toujours été un aggrégateur/curateur de contenu. Son moteur de recherche nous a toujours permis de découvrir les contenus présents sur une mulititude de sites. Pourquoi ne pas développer aujourd’hui le même aggrégateur pour les sites 2.0?

wikipedia perfection

Wikipedia, un exemple de perfection socio-technologique

Lorsque l’on créé un site web, développer une communauté représente l’un des principaux challenges qui dépasse les lois de l’informatique et nous fait pénétrer dans la dimension psycho-sociale d’Internet: comment intéresser les individus? Comment leur donner un sentiment d’appartenance à la communauté? Comment organiser les membres de la communauté pour en garantir la préservation? Comment garder les rênes sur la gestion du site avec une communauté qui grandit et réclame des privilèges décisionnels?

La gestion de la communauté

Parvenir à croître une communauté ainsi qu’à la canaliser n’est pas chose facile. Cela s’apparente même à de la science politique, une discipline fort complexe et qui se réinvente constamment au gré de l’actualité. Si le gestionnaire d’un site opère de manière trop autoritaire et n’inclut jamais l’avis de sa communauté dans ses choix de développement, celle-ci se sentira lésée, et cela aura un impact sur le désir de s’investir de ses membres. Si le gestionnaire du site adopte un style trop laisser-faire, alors il y a des chances pour que les débordements se multiplient, et qu’à terme le chaos social fasse fuir les membres. Le gestionnaire doit donc opter pour un modèle démocratique de gestion de sa communauté, c’est-à-dire définir des lois et un système décisionnel composé de responsables communautaires intégrant l’avis de la communauté dans leurs décisions.

L’objectif de la communauté

Selon le projet que porte la communauté, le besoin de structures sociales sera plus ou moins grand: sur Hot or Not, l’utilisateur est limité à un choix dans son interaction avec le site (Hot ou not hot). Sur Reddit, les utilisateurs doivent soumettre des contenus intéressants et voter pour les meilleurs contenus. La communauté est donc en charge de mettre en valeur les contenus qui intéressent le plus les internautes, une tache peu évidente qui requiert une certaine discipline éditoriale. Sur Wikipedia, la tache est infiniment plus complexe: la communauté est en charge de reproduire les principales connaissances de l’humanité de la manière la plus objective possible. Ici, la responsabilité de la communauté est conséquente, car le contenu produit doit être complet et de qualité encyclopédique.

Sur Hot Or Not, seule une action est requise chez les utilisateurs, les risques de débordements restent donc limités. Sur Reddit, les risques sont plus élevés, les utilisateurs pouvant soumettre des contenus indésirables et abuser des algorithmes du site. Sur Wikipédia, les risques sont très élevés, les utilisateurs étant en charge d’écrire la principale source de connaissances sur terre. Plus les risques sont élevés, plus le besoin de créer une couche d’utilisateurs-modérateurs se fera ressentir.

Les obstacles au développement communautaire

Comme évoqué plus haut, le style de management de la communauté peut être une entrave à l’épanouissement de ses membres. Les outils dont jouissent les membres pour construire le contenu détermineront également leur contrôle sur l’évolution du contenu, et donc la sensation de contribuer activement à un projet global. Peu d’outils à disposition de la communauté réduit l’engagement de ses membres. L’importance du projet tel qu’il est perçu par les partis externes à la communauté dynamise également ou non l’effet identitaire d’appartenance au site. Ainsi, la réputation d’un site va fortement influencer le désir de ses membres à s’y investir, et va même aller jusqu’à déterminer la typologie de ses membres.

Je partageais une discussion avec un collègue qui m’expliquait qu’une de ses connaissances possédait une communauté de contributeurs sur son site qu’il avait développé en distribuant des privilèges à certains membres afin d’en faire des modérateurs actifs ainsi que des ambassadeurs. Un système de distribution des tâches et des responsabilités engrange une hiérarchie sociale, une dynamique essentielle dans le développement d’une communauté.

Les epic fail

Les histoires d’échecs de développement communautaire sont nombreuses sur le web: Digg s’était fortement appuyé sur la force de certains de ses membres pour se développer. Ces membres avaient acquis un pouvoir tel qu’ils constituaient un contre-pouvoir qui entravait sérieusement les décisions des équipes officiellement dirigeantes. Ne parvenant pas à reprendre le pouvoir, Digg a décidé d’irradier ces membres influents de sa communauté un après l’autre. En agissant de la sorte, Digg s’est coupé une jambe et a perdu son aura de pionnier prometteur de l’ère 2.0.

Twitter a également traversé des embrouilles communautaires. Pour croitre, Twitter avait fait le pari ambitieux d’ouvrir complètement ses APIs aux développeurs indépendants afin qu’ils développent eux-mêmes les fonctionnalités destinées aux utilisateurs. À ses débuts, 80% de l’activité générée sur la plateforme Twitter provenait des applications tierces. Lorsque Twitter eut atteint un certain seuil de développement, les besoins de consolidation et de réappropriation des membres de sa communauté se sont fait ressentir. Twitter a alors abandonné sa politique d’ouverture de ses APIs, coupant ainsi le courant à des dizaines de milliers d’applications tierces qui disparurent du jour au lendemain. Du coup, les développeurs ont déserté l’API par milliers, et l’écosystème des outils Twitter s’est fortement appauvri.

Le point de cassure suite à un désaccord entre un gestionnaire de site et sa communauté est variable: une communauté se retrouve asservie à son site si celui-ci ne connait pas de concurrence sérieuse. Par exemple, sur Facebook, la communauté a souvent exprimé un fort désaccord vis-à-vis de certains axes d’évolution de la plateforme. Cependant, où aller à part Facebook pour retrouver toutes ses connaissances? Facebook tient un monopole sur le marché des réseaux sociaux, tout comme Google sur le marché de la recherche en ligne… Leurs utilisateurs peuvent se plaindre, mais ils peuvent difficilement fuir… D’un autre côté, sur un forum classique, si la communauté se retourne contre les dirigeants, il sera aisé de reproduire un forum identique et faire migrer les membres de la communauté vers ce nouveau site.

Le rayonnement de Wikipédia

De tous les sites qui dominent le web aujourd’hui, Wikipedia est de loin l’exemple par excellence de réussite communautaire:

  1. La communauté Wikipedia est ouverte à tous.
  2. Le site figure dans le top5 des plus fréquentés au monde.
  3. Plusieurs centaines de milliers de membres ont déjà contribué à l’encyclopédie ouverte.
  4. Le site est la principale source de connaissances sur le Web.

Outre ces mesures quantitatives, Wikipédia a atteint une qualité incomparable dans l’histoire du user-generated content: le contenu du site est entièrement produit par ses utilisateurs, de la création des pages à leur modération, en passant par la définition de l’ensemble des règles qui encadrent le processus de création. Wikipédia est presque intégralement le fruit de sa communauté qui a littéralement fait la plateforme.

La communauté est tellement impliquée et soudée que ceux qui le souhaitent peuvent créer leur propre Wikipedia en s’appropriant MediaWiki, le logiciel qui permet de créer et gérer un wiki, et que l’association met à la libre disposition des internautes. Les gestionnaires du site ne s’inquiètent pas de la fuite de leur communauté: Celle-ci est si bien ancrée dans le site qu’il faudrait un tremblement de terre numérique pour la faire fuir.

Pour évoluer de la sorte, l’équipe dirigeante de Wikipedia a décidé de tout faire pour favoriser la croissance d’une communauté pérenne: le coeur dirigeant ne s’est pas formé en entreprise mais en association, pour défendre au maximum un positionnement de neutralité. Les dirigeants de l’association sont cantonnés à gérer la dimension juridique du projet, l’hébergement des données, ainsi que de donner les directives globales de développement de la plateforme. Des administrateurs bénévoles enclenchent le pas pour la mise en place opérationnel et son bon déroulement. Des modérateurs, eux aussi bénévoles, contribuent à la plateforme mais interviennent également sur les situations de mésentente et de conflit. Ces modérateurs sont les ambassadeurs des principes philosophiques de la communauté. Viennent ensuite les contributeurs réguliers, des membres qui s’investissent pour le pur plaisir de faire évoluer le savoir publiquement accessible du site. Enfin, une couche importante de contributeurs occasionnels viennent compléter les connaissances manquantes, souvent de manière anonyme, mais presque toujours sous l’oeil averti des modérateurs et des contributeurs réguliers.

Indéniablement, le système de hiérarchie sociale de Wikipedia est le plus évolué de tout le world wide web, étant composé de plusieurs « classes » de membres ayant chacune en charge la gestion d’un organe vital du site.

En termes d’outils, la communauté n’est pas en manque: guide d’utilisation exhaustif, espaces de discussion, syntaxes de mise en forme, ajout de média, gestion des versions, modération et blocage des membres, interfaces de veille, outils d’analyse des contenus, d’analyse des comportements, … Wikipédia possède une infrastructure socio-technologique complexe.

Se moquer de la perfection

Il est donc risible d’entendre les journalistes et autres intellectuels de comptoir critiquer la véracité des informations publiées sur Wikipédia ainsi que les compétences de sa communauté. Tout d’abord, la communauté n’est rien de plus qu’un échantillon de l’humanité, dotée des faiblesses propres au type humain.

Ensuite, l’information produite sur Wikipédia est tellement élaborée qu’elle en est bluffante: le site est parti de zéro, pour arriver aujourd’hui à des dizaines de millions d’articles pour la majorité bien rédigés. Ces articles ne sont pas juste le fruit du travail rédactionnel d’une poignée d’hommes, mais surtout le résultat d’un processus consensuel de la part des membres de la communauté.

Avant de formuler des critiques envers Wikipédia, il faut d’abord être capable d’appréhender les leviers qui permettent son existence. Lorsque l’on analyse la dimension socio-technologique de Wikipedia, cela permet de mieux comprendre en quoi l’encyclopédie ouverte reste un modèle communautaire encore inégalé aujourd’hui.

Immobileaks indignez-vous

Locataires, indignez-vous!

Ces dernières semaines, des cas répétés d’expulsion en période de trêve hivernale de logements n’atteignant pas les 9m2 ont provoqué des réactions d’indignation dans l’opinion publique. Sans parler que les loyers des victimes étaient exorbitants. Face à ce malaise social, le pouvoir politique a répondu en assurant que des solutions allaient être déployées pour tacler le problème.

Seulement, comment faire pour détecter les cas d’abus et y répondre? A priori, aucun outil n’a été développé par le gouvernement pour repérer les locations abusives. La ministre du logement Najat Vallaud-Belkacem a elle-même déclaré au micro de RTL qu’il faut « renforcer le contrôle des pratiques illégales des propriétaires, parce qu’aujourd’hui on les apprend trop tard ». Si certains locataires ne souhaitent pas dénoncer la précarité de leur logement, nous sommes très nombreux en France à nous plaindre de vive voix sur l’état du logement que nous louons. Malheureusement, nos plaintes ne rencontrent que trop peu d’écho.

Et pourtant combien sommes-nous à louer un bien immobilier qui ne respecte pas les normes, la loi, et la dignité humaine de manière générale? Personnellement, j’ai trop rarement vécu dans un appartement sans reproche. Par contre, j’ai été trop souvent locataire d’un bien immobilier qui possédait une ou plusieurs anomalies majeures. C’est pour répondre à ce besoin de dénonciation d’une situation indignante que le site Immobileaks a été créé. Immobileaks permet de laisser un commentaire sur n’importe quel bien immobilier. L’objectif d’Immobileaks est de fournir une plateforme d’expression et de détection des abus locatifs.

Immobileaks est né d’un mal que les propriétaires ont eux-mêmes perpétué sur le marché de l’immobilier, en préférant l’avarie à la dignité de leur prochain. Les propriétaires loueurs de leurs biens ont une énorme responsabilité sociétale, et avec Immobileaks, il leur sera de moins en moins possible d’y échapper.

seo e-réputation

Le SEO d’e-réputation

L’e-réputation est ce terme à la mode qui désigne la gestion de la réputation d’une entité physique ou morale appliquée aux logiques du Web. Pour évaluer une e-réputation, il suffit de chercher le nom de l’entité impliquée, et d’évaluer la qualité des résultats, ainsi que l’opinion que l’on se fait de cette entité à la suite de cette recherche. Vient ensuite la phase de conseil dans laquelle plusieurs solutions peuvent être proposée: RP, community management, suppression de contenu, et surtout déploiement d’une présence et conquête des SERPs de Google.

Domination des SERPs

Lorsque l’option de déploiement de présence/domination des SERPs est sélectionnée, c’est à ce moment que bien maitriser le SEO d’e-réputation devient essentiel pour rentabiliser vos efforts, et surtout pour faire remonter des contenus valorisant sur des sites crédibles. La principale différence entre SEO classique et SEO d’e-réputation tient à cela: dans le SEO traditionnel, on va tenté de faire remonter un site sur un maximum de requêtes ciblées, alors que dans le SEO d’e-réputation, on va tenté de faire remonter un maximum de sites sur une requête ciblée.

Cette différence se traduit par des objectifs différents, et donc par une nouvelle approche du fonctionnement de Google: il faut chercher à comprendre comment reproduire la diversité qui constitue une première page de résultats sur la requête ciblée. Sur le nom d’une entité physique ou morale identifiée comme telle, Google va principalement recommander:

  • Site perso/institutionnel
  • Profils sociaux
  • Photos/vidéos
  • Mentions dans la presse (actualités)
  • Mentions dans les blogs/forums
  • Annuaires de personnes/entreprises
  • Article Wikipédia si existant le cas échéant

Des compétences qui divergent

Ainsi, le travail du référenceur en e-réputation se diversifie fortement: il faut pouvoir faire un ou plusieurs sites persos/institutionnels, avoir de bonnes bases en SMO pour crédibiliser les profils sociaux, être doté d’un bon sens journalistique pour placer des articles, comprendre les logiques de référencement d’images et de vidéos selon Google, être à l’aise avec la pluralité de sites qui composent le Web pour en connaître les plus puissants, et être habile avec les dynamiques de changement de Wikipédia. Le travail du référenceur Web nécessite une excellente culture générale du Web, ainsi qu’un certain esprit hacker pour détourner l’utilité de certains sites.

Au niveau des outils, le SEO d’e-réputation requiert les mêmes outils que le SEO traditionnel, à quelques exceptions près: on ajoute des outils ou des flux de veille sur les réseaux sociaux, les moteurs de recherche, certaines pages Wikipédia, et tout site ou forum à surveiller. Tout contenu négatif ou de faible qualité peut devenir un concurrent indésirable dans les moteurs de recherche, il s’agit alors de repérer ces contenus le plus tôt possible et tenter de tuer le poussin dans l’oeuf. Dans le SEO d’e-réputation, la veille est surtout préventive.

Au niveau des actions, les méthodes utilisées sont également très proches du SEO traditionnel, tels que des campagnes de linking, de l’optimisation on-site, de la rédaction de textes originaux et porteurs de mots-clés stratégiques, de la réécriture d’URL… Il faut aussi assurer une diffusion minimum sur les principaux réseaux sociaux avec des profils crédibles, chercher le partage par d’autres utilisateurs des contenus diffusés, ce qui requiert la diffusion de contenus originaux et à forte valeur ajoutée.

Du white-hat à tous les étages

Le SEO d’e-réputation n’a rien de blackhat, et ces techniques ne sont pas conseillées, car une campagne d’e-réputation est avant tout un travail d’image au centre de la stratégie de communication de l’entité impliquée: tout dérapage peut avoir des conséquences collatérales sur les activités de cette entité. Ainsi, il faut éviter la surabondance de textes de qualité médiocre, même si ceux-ci ne servent qu’à placer des liens et des ancres vers certaines pages ciblées. Il faut éviter toute superficiliaté évidente comme l’achat d’amis sur les réseaux sociaux, l’achat de liens sur des sites commerciaux, la création de faux profils ou de faux sites pour en mettre d’autres en valeur, la création de faux commentaires, et surtout l’envoi de liens depuis des sites pénalisés par Google vers des sites que l’on chercherait également à pénaliser. En d’autres termes, les filouteries ne peuvent s’inviter dans une campagne d’e-réputation tant les enjeux sont importants.

Travail d’image

L’autre aspect important à appréhender dans le SEO d’e-réputation est que celui-ci n’a rien d’ROIiste: inutile de chercher à mesurer la profitabilité dans de actions d’e-réputation, la seule chose mesurable est l’amélioration ou pas de l’image de l’entité travaillée. Les individus, marques et entreprises souffrant d’une mauvaise e-réputation savent à quel point la rétablir n’a pas de prix pour continuer à exister et prospérer.

Le SEO d’e-réputation, bien que proche du SEO classique dans son approche des moteurs de recherche, se différencie beaucoup dans ses objectifs et la mentalité des professionnels qui travaillent dessus. L’obsession se porte principalement sur l’objectif de faire reculer des pages dans les moteurs de recherche, plus que d’en faire remonter (car ce n’est qu’à ce moment-là que le client est content). Il faut alors tout mettre en oeuvre pour brosser google dans le sens du poil, afin de faire remonter un maximum de liens en première page.

Solidaireville

SolidaireVille: L’application pixel art au service de la solidarité sur Facebook

logo SolidaireVilleBienvenue sur SolidaireVille, la ville de la solidarité sur Facebook. SolidaireVille est la nouvelle application de micro-dons sur Facebook qui reprend les codes graphiques de FarmVille pour créer un environnement fun et familier autour du don et de la solidarité. Lancée par la CCFD-Terre Solidaire, conçue par une agence parisienne et développée par Atchik, SolidaireVille se vend comme la première application française de micro-dons sur Facebook.

Pour son lancement, l’application propose trois axes de développement dans des zones sous-développées: Développement agricole en Guinée Conakry, développement d’actions sociales au Sri Lanka, et développment éducatif et alimentaire au Pérou. Chaque projet est présenté sur une page à part avec une illustration visuelle du projet, le tout dans un style graphique pixel art. Sur la page du projet de la protection des droits au Sri Lanka, le projet est illustré par une manifestation dans laquelle vous pouvez cliquez sur les manifestants pour donner à destination de l’achat d’un mégaphone et de banderolles! Une gauge à droite permet d’apprécier la progression des dons. Plus la gauge monte, plus l’illustration évolue en prenant en compte les progrés engendrés par les dons.

Une fois votre panier rempli de formateurs de manifs (5 euros), de tracteurs (5 euros) et de médicaments (10 euros), direction la caisse. Votre panier réglé, vos achats se tranforment en cadeaux que vous pouvez ainsi partagez avec vos amis sur Facebook pour les inviter à rejoindre le projet auquel vous venez de contribuer. De cette manière, on donne une première fois aux populations dans le besoin, et une deuxième fois à nos proches. Le page fan SolidaireVille assure le suivi des évolutions de chacun des projets.

SolidaireVille s’est lancé fin Mai 2012. L’application est montée à plus de 20 000 utilisateurs, et la page Facebook cumule plusieurs milliers de fans. Les gauges de dons ont déjà commencé à gravir des échelons.

Dans la forme, l’application SolidaireVille est relativement limitée: il y a trois illustrations qui représentent trois projets et on clique sur des objets pour les acheter. Par contre, de ce modeste environnement ludique émane une réelle ambition de fidéliser les gens au don en jouant sur les mêmes dynamiques qui poussent à construire et entretenir des fermes virtuelles sur FarmVille: Pour venir en aide à des écosystèmes fragiles, et pour nouer des liens dans la poursuite de cet objectif. Sauf qu’ici, le résultat est bien réel!

Kawet

Interview avec Kawet, plateforme d’édition d’apps mobile pour entreprises

Kawet vient d’annoncer l’ajout de Box.net à la gamme d’APIs que le service met à disposition de ses utilisateurs pour développer des “applications métiers”. Après Salesforce et Google Apps, l’intégration de Box.net renforce l’attractivité de la plateforme d’édition d’applications mobile pour entreprises que Kawet tend à devenir. Petite présentation de cette startup parisienne qui monte, accompagnée d’une courte entretien vidéo avec Dante Planterose, l’un des six associés de Kawet en charge du développement commercial.

Kawet permet à ses utilisateurs de créer des « applications métiers » à la volée. La solution Kawet est proposée aux entreprises qui ressentent un besoin complexe en solutions mobiles pour fédérer leurs employés. Avec Kawet, tout manager au sein de l’entreprise peut définir seul les spécifications de l’application mobile, riche en fonctionnalités, qu’il souhaite déployer au sein de son équipe.

Créé en 2010, Kawet s’était initialement donné pour mission de rendre la création d’applications mobiles accessible aux personnes qui ne codent pas. En naquit le site Cashew, composé d’un espace de mise en page et d’une application de prévisualisation instantanée. L’expérience Cashew rappelle les systèmes de gestion de contenu comme Blogspot ou WordPress, où pour créer son site, il suffit de créer des modèles de pages et d’y apposer les éléments de son choix.

Le premier défi relevé par Kawet est donc de neutraliser tous les freins au développement d’applications mobile. Cependant, dans ses applications mobile, le manager en entreprise voudra intégrer les données ou les documents provenant de sources variées, comme de l’intranet de l’entreprise ou de Salesforce. Pour ce faire, Kawet a développé des modules qui permettent en un glisser/déposer d’intégrer des serveurs d’entreprise, ainsi que des systèmes de CRM et ERP: Microsoft Dynamics, Salesforce, Google Apps, SugarCRM, Box.net… Le manager n’a plus qu’à sélectionner les systèmes qu’il souhaite intégrer dans son application, pour ensuite les empiler telles les briques d’un édifice.

Kawet compile ainsi toute une gamme technologique de connexion aux APIs des services et systèmes cités ci-dessus. L’objectif de la startup est d’élargir au maximum le spectre des APIs proposées dans sa suite technologique pour offrir un service complet à ses utilisateurs et s’imposer parmi les leaders de l’édition d’applications mobile pour entreprises. Adjacente à cette motivation, celle de travailler main dans la main avec les services de Mobile Application Management comme Apperian ou les services de Mobile Device Management comme Maas360 pour garantir à ses utilisateurs, en plus de l’édition d’applications, une distribution fluide et sans embûches sur les appareils destinataires des applications développées.

La philosophie qui leade les efforts de développement de Kawet, c’est: “à 9h, le manager d’entreprise a une idée d’application mobile pour ses équipes. A 17h, l’application mobile est développée et déployée sur les appareils de ses équipes.”