A quelle heure tweeter?

twitter coucou

twitter coucou

Début avril, on a suivi la sortie de Tweriod, une application qui vous permet de savoir à quelles heures vos followers sont en ligne, captifs, et prêts à consommer vos tweets. Les graphes offerts sont intéressants mais laissent un peu pantois:

Tweriod graphe

Tweriod recommendations

La semaine dernière, nous avons aussi assisté à l’arrivée de Timely.is, un outil qui va encore plus loin en vous offrant de choisir pour vous les meilleures heures pour publier vos tweets. En gros, avec Timely, on ne choisit plus quand nous publions nos tweets: Nous les programmons, et Timely détecte les heures de plus grande affluence de followers et publie nos tweets à ces instants précis.

Tweriod comme Timely s’applique à observer le comportement de vos followers pour déterminer les heures de pointe. Comment? La méthodologie consiste, dans les grandes lignes, à scruter les heures de publication des derniers tweets de vos followers, pour déterminer l’heure où vos followers sont les plus actifs. Ceci dit, quand on y pense, avec la méthodologie offerte par Tweriod et Timely, les heures d’affluence sont également les heures où vos tweets sont le plus en concurrence avec ceux des autres, vu que c’est l’heure où ces applications ont déterminé que c’était le créneau où vos followers tweetaient le plus. En alignant son tweet sur ceux des autres, on risque au final de noyer celui-ci dans l’affluence des heures de pointe en dilluant son importance dans la masse.

D’autres méthodes, plus manuelles certes, permettent d’évaluer les bonnes heures pour tweeter en se basant sur les heures d’engagement avec vos tweets. Voici l’une de ces méthodes:

Cet article propose une solution tout à fait originale et élémentairement bien pensée pour vous faire une idée des créneaux horaire de forte audience autour de vos tweets (et de ceux de n’importe qui soit dit en passant). Voici la démarche à suivre pour identifier ces heures de prime time, et optimiser en aval les retombées de chacun de vos tweets:

Dans un premier temps, à partir du moteur de recherche de Twitter, tapez la requête RT @votrepseudo, dans notre cas ici RT @TwtRdar:

Recherche twitter retweets

A partir de la page de résultats, copier l’adresse du flux RSS de cette page, et abonnez-vous à ce flux à partir de votre compte Google Reader:

RSS RTs google reader

La mauvaise nouvelle, comme vous pouvez le constater, c’est que pour le moment, le flux est nouveau, donc l’heure de publication des derniers RTs affichent l’heure d’inscription au flux RSS. Cela veut dire qu’il va falloir laisser mariner ce flux dans votre Google Reader pendant une semaine ou deux, et continuer à tweeter comme vous le faîtes d’habitude. A la suite de ce procédé, et de l’attente requise, retournez sur la page du flux RSS dans Google Reader, et cliquez sur « Show details ». Cette fonctionnalité vous permet de visualiser le nombre de publications dans votre flux RSS par heures, jours, et sur les 30 derniers jours. Voici une capture volée de l’article original du rendu de ce procédé (auteur: @cspenn), il faut se concentrer sur les colonnes bleues:

Et voilà, tout de suite, on voit mieux quels jours, mais aussi quelles heures, garantissent un engagement optimal avec vos tweets. Cette méthode requiert bien évidemment qu’un minimum de 15-20 RTs vous soient adressés par semaine, sinon il n’y aura pas de données à analyser. Cependant, comme je disais en intro, cette technique peut s’appliquer pour n’importe quel pseudo Twitter, donc si vous êtes particulièrement fan de la manière de tweeter de tel ou tel twittos, trackez leurs RT @pseudo dans votre RSS Reader, et inspirez-vous en!

L’auteur du billet à l’origine de cette méthode met cependant en garde les twittos concernant les interprétations hâtives de ce genre de données, qui ne sont à interpréter qu’en termes de tendances, et non de phénomènes invariables. Il poursuit d’ailleurs son discours etn proposant d’autres techniques de mesure d’audience, en modulant les opérateurs de recherche, et en distinguant conversation et conversion. Lecture fortement recommandée!

PS: L’application Whentotweet avait l’air intéressante mais elle ne marche pas 🙁

E-réputation = Noyer des photos de cul ?

libération

cul

Il y a deux-trois semaines de cela, la société pour laquelle je travaille, Reputation Squad, a décroché un deux pages dans Libération: L’Eréputation, une image à restaurer. Dans cet article, la journaliste, qui avait passé une journée dans nos bureaux un mois auparavant, décrit le cours de cette journée heure par heure. En milieu d’après-midi, elle s’est entretenue avec moi. Voici l’extrait de ce qu’elle a retenu de notre entretien:

15 h 15

Au départ, Xavier était «freelance social media manager» dans la Silicon Valley. Ça en jette. Il explique comment il fait du «noyage», pour faire sombrer les liens indésirables au fin fond des abysses de Google. Comme pour ce couple qui pratiquait le sado-masochisme et faisait «beaucoup, beaucoup de photos». D’inoffensifs clichés de la dame, habillée, sur son canapé, en promenade dans la nature, avec des animaux domestiques, ont remplacé ses photos de cul.

Dans un premier temps, je tiens à remercier cette journaliste d’avoir passé une journée dans nos locaux, sa présence fût fortement appréciée. Cependant, la manière avec laquelle elle a présenté mon travail manque de délicatesse, et manque à transmettre la réelle valeur que je génère au quotidien pour les clients de mon employeur. Voici donc une explication un peu plus approfondie de mon travail:

Tout d’abord, parlons du « noyage ». Cette activité consiste effectivement à créer du contenu optimisé sur des mots-clés définis par le client (vu que je travaille pour une agence d’Eréputation, nous travaillons sur le nom des clients), et de faire remonter ce contenu le plus haut possible dans les premières pages de Google, dans le but de « shooter » des résultats indésirables, les faire descendre dans les pages de résultats.

Parfois un spécialiste du référencement naturel parvient à nous bluffer en faisant remonter des sites vides de contenu en première page de requêtes ciblées. Cependant, si cette abbération fonctionne de temps à autre, il n’est pas possible d’imaginer un plan de noyage avec que des sites vides. Comment alors remplir ces sites? On pourrait penser à republier automatiquement du contenu venu d’ailleurs, mais les contraintes de cette méthode sont variées: Risque de dévalorisation des sites dans les moteurs de recherche (Panda), manque de contrôle sur le contenu publié, sites associés à du spam par les Internautes… Si on part dans l’optique de faire remonter des sites sur une requête ciblée, il va falloir s’attacher à créer du contenu original autour du sujet abordé: le client.

En d’autres termes, il va falloir faire de la communication, comme avec une agence de presse ou une agence de publicité, mais ici avec une agence Web. La spécificité de l’agence Web, ce sont les supports sur lesquelles elle communique. Aujourd’hui, ce sont les blogs, les microblogs, les pages Facebook, les sites de partage, etc… qui garantissent la meilleure exposition en ligne. Nos clients n’ont pas encore la maîtrise des outils cités ci-sus, et leurs process de communication sont souvent incompatibles avec les supports Web. Eux font des communiqués de presse et achètent de la pub depuis toujours. Nous, nous les formons à diffuser une multiplicité de messages tous les jours, sur une grande variété de sites différents, et à interagir en direct avec les réactions générées. Leurs modèles et le notre n’a rien à voir, et pourtant, pour que mon travail marche, il faut trouver le juste milieu.

Voilà, je tenais à rectifier les propos de cette journaliste, dans lesquels je n’arrive pas à retenir autre chose que « noyage de photos de cul ». Mon travail consiste à accompagner nos clients dans la prise de contrôle de leur image par une prise en main des outils Web, ainsi que par la déclinaison de leurs communications au format Web. L’objectif final est donc certes de noyer, mais cela passe par de la recherche, de la stratégie, de la pédagogie, et surtout par une connaissance assez poussée de l’univers du Web.

Photos de cul…

Liste de défauts des listes Twitter

twitter lists

twitter lists

Il y a presque deux ans maintenant, Twitter lançait les listes, une solution intuitive pour que tous les utilisateurs puissent catégoriser les twittos en créant des listes à centre d’intérêt. Cette nouvelle fonctionnalité a été fortement acclamée par la twittosphère, qui y trouva là un moyen de mettre de l’ordre dans un réseau social quelque peu anarchique dans l’approche. Malheureusement, deux ans plus tard, force est de constater que Twitter n’attache pas trop d’importance aux listes qu’il propose. Pour preuve cet état des lieux dressé par Scobleizer, qui met en exergue des faiblesses dans les listes que la startup ne s’est jamais appliquée à solutionner.

Ainsi, voici la liste de défauts des listes Twitter:

  1. On ne peut pas caler plus de 500 membres dans une liste.
  2. On ne peut pas faire des listes de listes, histoire que l’on puisse également regrouper ensemble les listes aux thématiques similaires.
  3. Pas de visualisation des retweets des membres d’une liste.
  4. Il est impossible d’opérer une recherche uniquement au sein d’une liste.
  5. Pas de trending topic pour une liste donnée.
  6. Aucune solution pour se faire recommander dans une liste.
  7. Pas de listes publiques, comme dans un wiki où tout le monde peut contribuer.
  8. Quand vous suivez une liste, cela n’a aucun impact sur votre timeline.

En d’autres termes, les listes Twitter ne sont pas très bien intégrées dans l’expérience utilisateur. À croire que cette fonctionnalité n’intéresse pas les ingénieurs de Twitter outre-mesure, au point d’en être délaissée au profit de projets bien plus porteurs comme la dickbar…

Si vous connaissez vous aussi des défauts de fabrication avec les listes Twitter, merci de les partager ici avec nous.