Le débat entre sites d'informations et agrégateurs de contenu n'est pas prêt d'être fini, on se souvient du dialogue rugueux entre les journaux français et Google.
Ce billet, publié par Arnon Mishkin, apporte des éléments techniques pour éclairer le débat. Les agrégateurs de contenu sont principalement Google News ou Yahoo News. Ils proposent aux lecteurs un choix de liens, mais ne produisent pas d'information.
L'auteur remarque, en effet, que dans la pratique de consommation des médias, les agrégateurs sont en position de force.
La majorité de la valeur générée est captée par les agrégateurs qui font des liens vers les sites d'information, et non par les sites d'informations eux-mêmes. Selon une étude, la home page d'un agrégateur de contenu reçoit deux fois plus de visites qu'il n'y a de clics effectués sur les liens proposés sur la home page. Les utilisateurs se rendent sur la page pour lire les titres mais ils ne cliquent que si cela les intéresse. Les agrégateur, ce sont des sites comme Yahoo News, Google News, Digg, Techmeme and the Huffington Post.
L'agrégateur (ou portail) est considéré comme la référence, la page où l'on se rend pour consulter des informations. Les sites d'informations (autrefois dits « de référence ») ne reçoivent plus beaucoup de visites par leur home page. Ils en reçoivent par l'intermédiaire de ces agrégateurs et des moteurs de recherche.
L'auteur remarque: « Historiquement, les journaux bénéficiaient de ce travail des agrégateurs, parce que les lecteurs achetaient le journal. Aujourd'hui les seuls bénéficiaires sont les agrégateurs qui proposent des renvois vers les articles".
Pour Eric Schonfled (Techcrunch), la perspective est différente. Les sites d'informations ne sont plus perçus comme un tout. Chaque article vaut pour lui-même et les lecteurs pénètrent sur le site non par la home page, mais par autant de porte d'entrée qu'il y a d'articles sur le site.
De plus il relève que les sites d'informations ne sauraient capter l'attention de leurs lecteurs en proposant 20% d'informations intéressantes et 80% de dépêches d'agence retravaillées.
- A lire également, l'article de Jeff Jarvis "On the link economy"
Commentaires
Mishkin propose à peu près de faire payer les kiosques à journaux qui affichent les différentes "unes" sur leur devanture.
Il me semble que c'est plutôt l'inverse, non? Les journaux et hebdos doivent payer pour être en bonne place dans les kiosques.
J'y vois plutôt une incompréhension totale de l'écosystème de l'info sur le web plutôt qu'une analyse pertinente.
Qu'en penses-tu, Eric, tu ne t'es pas prononcé dans ton post? ;)
@Nicolas,
Il me semble que les agrégateurs ont un grand pouvoir d'attraction (voire de prescription): ce sont des outils, donc ils sont neutres. Ils sont dans une position stratégique. Quand un site reçoit un visiteur en provenance de ces agrégateur, le visiteur perçoit le site comme un simple passage, non comme une destination.
En conclusion, j'ai le sentiment que ces agrégateurs sont en position de force...
Fort intéressant, pour moi qui cherche l'agrégateur le plus pratique. Ce billet ouvre à réflexion: est-ce que le contenu des sites d'infos est suffisant pour le lecteur? Non, il cherche simplement à avoir le choix. Un agrégateur propose une vue transversale de nombreux sites: il est donc niormal qu'il serve de "portail".
Selon quelle étude? Il n'y a aucun chiffre, aucun élément factuel dans le post de Mishkin. D'où sort son affirmation? Quand on connaît le revenu des agrégateurs, on rigole doucement. La presse écrite à le droit d'essayer de récupérer les revenus qu'elle pense juste de récupérer... mais une fois encore elle montre ici qu'elle se focalise sur le mauvais problème. Ce n'est pas le chiffre d'affaires qu'elle peut attendre d'un partage de revenu avec les agrégateurs qui va lui permettre de récupérer par exemple, les 10 milliards de dollars perdus en pub aux US, juste pour les quoitidiens.
La presse écrite a-t-elle encore une offre publicitaire qui tient la route? Comment peut-elle mettre en place une stratégie de "données"? Il va falloir prouver le retour sur investissement (ROI) aux annonceurs et pas se contenter de faire du display.
@Jeff,
Oui, la source vers l'étude en question n'est pas précisée. Je vais essayer de me renseigner.
Merci de ton commentaire et de tes autres remarques.
@Eric : effectivement les agrégateurs sont en position de force, c'est bien là une grosse difficulté pour le référencement de sites éditoriaux...
Quand on sait qu'un bon article en home sur un Google Actualité peut apporter jusqu'à 10 000 visiteurs en quelques heures, on préfère investir pour se placer dans les "featured" des agrégateurs que gratter pour des positions sur des mots-clés trop concurrencés. Avec un modèle payant, ça va ressembler à des liens sponsorisés. Sans modèle payant, c'est récupérer le bénéfice de la création des éditeurs avec la pub, générer du trafic agrégateur et des nouveaux abonnements sans produire de contenu.
Un outil type régie pub, régie contenu permettrait de résoudre cette polémique, mais demanderait aux Google, Yahoo, PaperBlog, Wikio d'être transparent...
En tant que simple lecteur je trouve que les agrégateurs de contenu comme Google News rendent un service, donc je ne suis pas choqué qu'ils captent une partie de la valeur générée par l'information qu'ils agrègent. Les utilisateurs ne cliquent que si les articles les intéressent et ça me semble tout à fait normal.
Si les sites d'information veulent conserver toute la valeur générée par l'info, je ne vois pas d'autre solution qu'un regroupement des créateurs de contenu afin de mettre en oeuvre leur propre portail de référence, concurrent de Google News et des autres agrégateurs. C'est un service utile, celui qui le rend en bénéficie.