Le SEO d’e-réputation

seo e-réputation

L’e-réputation est ce terme à la mode qui désigne la gestion de la réputation d’une entité physique ou morale appliquée aux logiques du Web. Pour évaluer une e-réputation, il suffit de chercher le nom de l’entité impliquée, et d’évaluer la qualité des résultats, ainsi que l’opinion que l’on se fait de cette entité à la suite de cette recherche. Vient ensuite la phase de conseil dans laquelle plusieurs solutions peuvent être proposée: RP, community management, suppression de contenu, et surtout déploiement d’une présence et conquête des SERPs de Google.

Domination des SERPs

Lorsque l’option de déploiement de présence/domination des SERPs est sélectionnée, c’est à ce moment que bien maitriser le SEO d’e-réputation devient essentiel pour rentabiliser vos efforts, et surtout pour faire remonter des contenus valorisant sur des sites crédibles. La principale différence entre SEO classique et SEO d’e-réputation tient à cela: dans le SEO traditionnel, on va tenté de faire remonter un site sur un maximum de requêtes ciblées, alors que dans le SEO d’e-réputation, on va tenté de faire remonter un maximum de sites sur une requête ciblée.

Cette différence se traduit par des objectifs différents, et donc par une nouvelle approche du fonctionnement de Google: il faut chercher à comprendre comment reproduire la diversité qui constitue une première page de résultats sur la requête ciblée. Sur le nom d’une entité physique ou morale identifiée comme telle, Google va principalement recommander:

  • Site perso/institutionnel
  • Profils sociaux
  • Photos/vidéos
  • Mentions dans la presse (actualités)
  • Mentions dans les blogs/forums
  • Annuaires de personnes/entreprises
  • Article Wikipédia si existant le cas échéant

Des compétences qui divergent

Ainsi, le travail du référenceur en e-réputation se diversifie fortement: il faut pouvoir faire un ou plusieurs sites persos/institutionnels, avoir de bonnes bases en SMO pour crédibiliser les profils sociaux, être doté d’un bon sens journalistique pour placer des articles, comprendre les logiques de référencement d’images et de vidéos selon Google, être à l’aise avec la pluralité de sites qui composent le Web pour en connaître les plus puissants, et être habile avec les dynamiques de changement de Wikipédia. Le travail du référenceur Web nécessite une excellente culture générale du Web, ainsi qu’un certain esprit hacker pour détourner l’utilité de certains sites.

Au niveau des outils, le SEO d’e-réputation requiert les mêmes outils que le SEO traditionnel, à quelques exceptions près: on ajoute des outils ou des flux de veille sur les réseaux sociaux, les moteurs de recherche, certaines pages Wikipédia, et tout site ou forum à surveiller. Tout contenu négatif ou de faible qualité peut devenir un concurrent indésirable dans les moteurs de recherche, il s’agit alors de repérer ces contenus le plus tôt possible et tenter de tuer le poussin dans l’oeuf. Dans le SEO d’e-réputation, la veille est surtout préventive.

Au niveau des actions, les méthodes utilisées sont également très proches du SEO traditionnel, tels que des campagnes de linking, de l’optimisation on-site, de la rédaction de textes originaux et porteurs de mots-clés stratégiques, de la réécriture d’URL… Il faut aussi assurer une diffusion minimum sur les principaux réseaux sociaux avec des profils crédibles, chercher le partage par d’autres utilisateurs des contenus diffusés, ce qui requiert la diffusion de contenus originaux et à forte valeur ajoutée.

Du white-hat à tous les étages

Le SEO d’e-réputation n’a rien de blackhat, et ces techniques ne sont pas conseillées, car une campagne d’e-réputation est avant tout un travail d’image au centre de la stratégie de communication de l’entité impliquée: tout dérapage peut avoir des conséquences collatérales sur les activités de cette entité. Ainsi, il faut éviter la surabondance de textes de qualité médiocre, même si ceux-ci ne servent qu’à placer des liens et des ancres vers certaines pages ciblées. Il faut éviter toute superficiliaté évidente comme l’achat d’amis sur les réseaux sociaux, l’achat de liens sur des sites commerciaux, la création de faux profils ou de faux sites pour en mettre d’autres en valeur, la création de faux commentaires, et surtout l’envoi de liens depuis des sites pénalisés par Google vers des sites que l’on chercherait également à pénaliser. En d’autres termes, les filouteries ne peuvent s’inviter dans une campagne d’e-réputation tant les enjeux sont importants.

Travail d’image

L’autre aspect important à appréhender dans le SEO d’e-réputation est que celui-ci n’a rien d’ROIiste: inutile de chercher à mesurer la profitabilité dans de actions d’e-réputation, la seule chose mesurable est l’amélioration ou pas de l’image de l’entité travaillée. Les individus, marques et entreprises souffrant d’une mauvaise e-réputation savent à quel point la rétablir n’a pas de prix pour continuer à exister et prospérer.

Le SEO d’e-réputation, bien que proche du SEO classique dans son approche des moteurs de recherche, se différencie beaucoup dans ses objectifs et la mentalité des professionnels qui travaillent dessus. L’obsession se porte principalement sur l’objectif de faire reculer des pages dans les moteurs de recherche, plus que d’en faire remonter (car ce n’est qu’à ce moment-là que le client est content). Il faut alors tout mettre en oeuvre pour brosser google dans le sens du poil, afin de faire remonter un maximum de liens en première page.

Où est le Google de la location immobilière en France?

google immobilier

Depuis quelques mois, me voilà à la recherche d’un appartement à louer dans Paris. Cependant, je suis dans une situation quelque peu intermédiaire qui fait que, tout en étant relativement bien payé, mon dossier de candidature est une bouse (du moins dans les parties qui parlent de moi), il faut donc que je sois optimisé dans mes démarches afin de garantir au moins une réponse positive dans le lot de dossiers de candidature que je vais soumettre. Malheureusement, je le dis haut et fort, il n’existe pas de Google de la location immobilière en France. Afin d’étayer au mieux mon idée qui mène à la conclusion qu’il existe une opportunité énorme sur le marché de l’immobilier en ligne et en France, je vais commencer par passer en revue les 3 types de sites que l’on trouve pour trouver un logement en location (à Paris):

Pap.fr, l’aggrégateur des particuliers: Pap.fr est le site de recherche de logement le plus performant sur le marché. Le design est simple, compréhensible. Les pages de résultats se chargent vite, les résultats sont extrêmement pertinents. On peut facilement affiner sa recherche et s’abonner à des alertes. Il y a même un url re-writing pour chaque page de résultats générée qui permet à n’importe quel internaute de comprendre le contenu de cette page (ex: http://www.pap.fr/annonce/location-appartement-divers-loft-atelier-maison-peniche-a-5-km-autour-de-paris-75-g439k5-a-partir-du-2-pieces-a-partir-de-2-chambres-jusqu-a-1500-euros). De plus, Pap.fr fait des campagnes de publicité au niveau national, ce qui permet de mieux faire parvenir le message de son existence à sa cible

Le hic: PAP est un réseau d’annonces entre particuliers, donc les infos ne sont puisées que depuis leurs bases de données, et elles ne sont en rien aggrégagées depuis des sources externes. PAP.fr ne concerne qu’un pourcentage minoritaire du marché total de la location d’immobilier en France. L’autre souci des particuliers, c’est qu’ils ne sont pas professionnels, et que ça se sent. Chaque fois, c’est la même chose, un propriétaire pose une annonce avec son numéro de téléphone. Ce dernier se fait défoncé d’un nombre d’appels record au point où la messagerie n’accepte plus aucun message et le propriétaire n’est plus joignable. Certains sont mieux organisés, mais de manière générale, c’est un peu du n’importe quoi quand même. A ce niveau-là, Pap.fr ne devrait pas se gêner pour développer des outils de suivi d’une annonce, afin de les monétiser auprès des propriétaires.

Seloger.com, l’aggrégateur des agences: Début Aout, je me plaignais de cette situation bizarre en France où il est si dur de trouver un aggrégateur d’annonces immobilières, alors qu’aux Etats-Unis, des boîtes comme Zillow ou Trulia font un carton. Comme me l’a expliqué un gentilhomme sur Twitter:

@xavierv Les biens sur leurs portails proviennent de 100*n bases de formats divers. Donc forcément, ça coince 😀

Forcément, ça doit être un peu compliqué tout ça. Son explication fût cependant suivie d’une recommandation:

@xavierv T’as que SeLoger qui vaut le coup. Ils ont refourgué leur logiciel de gestion à 50% des agences, donc c’est solide :/

Le compte Twitter de seloger.com est aussi intervenu dans la discussion, ce qui n’a eu d’autre effet que de la tuer sur le coup 🙂 Je suis donc aller tester seloger.com, car si celui-ci traque 50% des annonces immobilières en France (ou tout du moins à Paris), c’est sûr que je vais pouvoir y trouver mon compte.

La déception s’est faite ressentir plus rapidement que je ne l’attendais: la page d’accueil est un monstre sur pattes, la génération des pages de résultats de recherche est un mélange bizarre de scripts qui perdent le fil dès que l’on veut simplement retourner en arrière. Le design a été conçu par Tim Berners-Lee, réminiscence d’une époque que nous pensions tous révolue. Je me suis abonné à une alerte, j’en ai reçu seulement deux, et elles n’avaient rien à voir avec mes critères de recherche. J’ai aussi essayé de télécharger l’application Seloger.com sur mon Android, mais il semblerait que mon téléphone (qui est lui aussi une bouse) ne soit pas compatible avec les versions existantes de l’application seloger.

Si le moteur de recherche, il faut le dire, mouline un peu quand même, les résultats de recherche sont pas mal, même si, comme sur pap.fr, on en fait vite le tour.

Le dernier type de moteur de recherche immobilier est celui que l’on trouve directement sur les sites des agences tels que Foncia et tous les autres. Dans ce domaine, la qualité des moteurs de recherche est tranchée: Certains de ces moteurs de recherche illustrent parfaitement le fait que les agences qui les ont mis en place se contrefichent du marketing en ligne, alors que d’autres sont étonnemment bien présentés, avec une performance satisfaisante, et une navigabilité extrêmement plaisante. Il est aussi courant de trouver quelques photos de la façade, de l’intérieur, et voir même un plan en plongée des lieux. Le genre d’images qui donnent beaucoup plus envie qu’un "2 chambres, 1 salon, WC séparés, kitchenette". Enfin, si vous voyez ce que je veux dire.

La limite absolue de tous ces moteurs de recherche appartenant à des agences est que, fatalement, l’on ne trouve que les annonces émises par l’agence.

Conclusion: Il n’y a pas un lieu en France où toutes les annonces de location sont aggrégées et recherchables. Cette donne est bien regrettable car les agences ne se donnent pas les moyens de trouver un candidat parfait pour chaque location, et le chercheur de locations manque à trouver un lieu qui le rendrait plus heureux qu’un autre. Surtout, une équipe de développeurs est en train de louper une énorme opportunité de se caler en tant que les Google du marché de l’immobilier en France, et ça j’ai du mal à le concevoir…

En réalité, des startups se lancent avec comme objectif de ratisser toutes les bases de données de toutes les agences immobilières. Le problème c’est que les agences immobilières en france, toute frileuse soit-elle, refuse d’ouvrir leurs bases à l’innovation, comme on peut le voir dans le cas de Gloobot:

gloobot immobilier fermeture

J’ai également essayé Toitmalin – le concept du site n’est pas encore bien abouti – et Viteloge.com – définitivement un concurrent de taille à seloger.com.

Presse traditionnelle contre Moteurs de recherche : La nouvelle donne des informations négatives qui perdurent

presse négative

Cet article a été rédigé en Anglais par Brett Borders, auteur de Online Reputation Edge. Reputation Squad est le partenaire France d’ Online Reputation Edge. Traduction par Xavier Vespa.

Il existe une différence fondamentale dans la manière avec laquelle les médias traditionnels et les moteurs de recherche redistribuent l’actualité. Le public aussi digère et mémorise l’information provenant des moteurs de recherche différemment de l’information provenant d’un titre de presse papier.

Les attachés de presse qui commencent à se plonger dans le secteur de l’e-réputation doivent obligatoirement prendre en compte ces différences fondamentales:

Les médias traditionnels sont éphémères

Les médias traditionnels sont cycliques. Les nouvelles sont rafraichies au quotidien. Le temps de vie d’une mauvaise presse dure le temps qu’un journal passe en rayon d’une librairie, et après cela, l’information s’efface doucement de la mémoire des lecteurs. Ce souvenir négatif peut être contrebalancé en y amenant une touche de positivisme. Pour ce faire, une agence de relations presse orchestre une marche pour collecter des dons pour les enfants handicapés, et envoie une douzaine de communiqués aux journalistes ciblés. Si cette opération est finement accomplie, la perception négative d’une audience vis-à-vis d’une presse négative sera doucement remplacée pas des impressions positives, un titre de presse à la fois. Effectivement, lors de la publication de nouvelles positives, il n’y a plus la presse négative à côté pour comparer. Le négatif a déjà disparu.

Les moteurs de recherche sont permanents

Les moteurs de recherche indexe le contenu de manière permanente. Tant qu’une page Web est accessible à partir d’un serveur Web quelque part (et tant que le site hébergeant le contenu se comporte bien en termes de SEO Best Practices), les moteurs de recherche continueront à l’impliquer dans leurs listes de résultats de recherche. Donc même si vous parvenez à créer du contenu positif qui vient occuper la première page, l’information négative n’aura probablement pas disparue pour autant.

(« Nettoyez tout le contenu négatif en le noyant avec du contenu positif » sont souvent les seules idées proposées par les débutants en e-réputation. Cela peut fonctionner dans des cas de presse négative tempérés, mais cela fonctionne très rarement pour des crises de réputation aigües affectant des sociétés de dimension importante).

Les moteurs de recherche sont une invitation à la recherche et à la découverte

De par leur structure de pages de résultats, les moteurs de recherche encouragent les utilisateurs à comparer une grande variété de pages Web en les mettant côte-à-côte. Il y a beaucoup de contenu superflu sur le Web, mais les utilisateurs se sont adaptés pour mieux juger la crédibilité des contenus avec lesquels ils interagissent au quotidien. Certaines personnes ont même développé le don de repérer les faux commentaires en un clin d’œil. Il me semble parfois qu’une horrible mixture faite de contenus positifs sonnant faux et autres peut aboutir à une perception pire que celles de certains résultats négatifs isolés initialement. Le contenu neutre (NDT : comme sur Wikipedia) est beaucoup plus crédible.

Ce sont les lois du Web. Avoir une stratégie de positivisme strict après une vague de mauvaise presse ne marche pas sur les moteurs de recherche comme cela peut être cas avec la cyclique presse traditionnelle. La presse négative reste en première page – peut-être pour une longue période de temps – et tartiner le Web de contenu positif pour noyer cette tâche semble parfois seulement renforcer la visibilité de ce stigmate.

L’algorithme du moteur de recherche de Twitter évolue

twitter search toptweets

twitter search toptweets

Nous savons que l’algorithme du moteur de recherche de Twitter est voué à évoluer d’une manière probablement aussi complexe que celui de Google. Cependant, aujourd’hui, à part quelques operations de filtrage et d’épurage, les pages de résultats de recherche Twitter ne sont qu’une liste déroulée dans l’ordre chronologique des tweets contenant les mots-clés recherchés.

Tout à l’heure, en faisant la recherche I you fun (demandez pas, c’est purement professsionnel :), je suis tombé sur la page de résultats de recherche que vous pouvez voir juste au-dessus. En première position se trouve un tweet de Justin Bieber, avec un compteur qui affiche clairement 700 tweets. Juste en dessous, on retrouve une liste normale de tweets classés dans l’ordre chronologique.

Je ne sais de quand date cette nouveauté dans le moteur de recherche Twitter, mais c’est certainement extrêmement récent (ou alors je suis aveugle).

Dans tous les cas, ce petit compteur marque le début d’une nouvelle ère dans le moteur de recherche Twitter. Enfin, celui-ci se défait de sa forme initiale – celle de Summize – afin d’offrir une plus grande expérience de découverte et d’interaction à ses utilisateurs.

En termes de technologie de recherche, Twitter a tout à inventer: En effet, aggréger et analyser des SMS par millions, et surtout suggérer en résultat de recherche des tweets qui ont été publiés dans la seconde, c’est plutôt nouveau. Cette premier avancée semble un peu légère : Justin Bieber a 700 retweets, donc il a la première place des résultats. A un moment, je me suis demandé si ce n’était pas un tweet sponsorisé tellement c’était bizarre. Mais j’imagine que comme Google, Twitter doit partir du début et faire évoluer son moteur de recherche au gré de divers tests AB.

Quelqu’un a-t-il plus d’infos sur ce constat?

OneRiot Monétise Sa Recherche En Temps Réel

oneriot

oneriot

Le real-time Web comporte deux principaux challenges:

  • Filtrer et organiser en quelques secondes un flux d’information dans la minute où ce flux est publié en ligne.
  • Monétiser une telle activité.

Autour de cette problématique, un acteur commence à prendre de l’avance sur la compétition: OneRiot. OneRiot est un outil bien connu des geeks de Twitter en général: Ce moteur de recherche permet de trouver du contenu publié dans la seconde sur Twitter, Digg, Delicious, pour n’en citer que quelques-uns.

OneRiot a lancé Vendredi dernier (15 Janvier 2010) un outil permettant aux développeurs utilisant l’API OneRiot de monétiser leurs applications temps réel en y insérant du contenu sponsorisé. Voyez ci-dessous:

oneriot monetize app
From OneRiot Developer Network

Comme il est précisé par OneRiot, le contenu sponsorisé peut être inclus dans la page de résultats en temps réel, ou il peut s’afficher en banner de manière plus classique. OneRiot précise que son format publicitaire a un CTR quatre fois plus élevé que la moyenne des applications temps réel . OneRiot partage les revenus publicitaires (rev-share model) avec les développeurs ayant intégré l’option contenu sponsorisé OneRiot. Comment l’algo d’insertion publicitaire fonctionne-t-il?

Dynamically created ads link to quality content from these publishers that relates directly to a users’ realtime search term or a global trending topic. (Les liens sponsorisés créés de manière dynamique suggèrent du contenu de qualité en lien direct avec le terme recherché par l’utilisateur, ou en lien avec les trending topics en général.)

En d’autres termes, OneRiot ne réinvente pas l’insertion publicitaire déterminée par une recherche de mots-clés, mais il déplace sa logique sur un environnement temps réel et consommation de nouvelles fraiches.

Le problème avec OneRiot aujourd’hui, c’ est que Twitter est la plateforme de création de contenu en temps réel la plus active et la plus accessible. De ce fait, faites une recherche sur OneRiot et vous remarquerez que 95% des résultats proviennent de Twitter. Certains messages spam ne sont même pas filtrés et apparaissent aussi. L’algo de OneRiot est plus évolué que celui du moteur de recherche Twitter, mais il est encore à des années-lumière d’offrir la valeur apportée par Google Search au Web par exemple. Le produit OneRiot n’est pas encore mûr, et pourtant, l’équipe décide déjà de le monétiser.

La nouvelle demande croissante de recherche en temps réel provoque une redistribution des cartes chez les moteurs de recherche. La configuration des acteurs du marché de la recherche en temps réel est la même que celle d’une course cycliste: Il existe un peloton dense de startups, avec certains leaders en tête de file. Ici, OneRiot tente un sprint dans une montée pour semer le peloton, ce qui représente une stratégie risquée mais qui peut s’avérer gagnante pour OneRiot. Le Graal, ca serait que le Web en temps réel devienne la norme, ce qui ferait des gagnants de la recherche en temps réel les leaders de la recherche en ligne.

À lire absolument au sujet de la recherche en temps réel: The Inner Workings of a Realtime Search Engine – The OneRiot Blog