Blogonet, un nouveau classement des blogs francophones…

Le classement Wikio étant fort décrié, il n’est pas étonnant de voir fleurir des solutions alternatives proposant une méthode différente pour classer les blogs. C’est justement l’objectif de Blogonet, un service réalisé par Julien et s’articulant finalement autour de deux grands points : l’actualité des blogs francophones, sous la forme d’un digg-like complètement automatisé, et le classement mensuel de ces derniers.

Blogonet : la partie digg-like...

Si je devais adresser un reproche à Wikio, ce serait sans doute de trop tenir compte des backlinks pour réaliser son classement. A mon sens, la popularité d’un blog ne dépend pas uniquement du nombre de liens qui pointent vers lui. Non, s’il y a une donnée importante qu’on ne peut négliger, c’est bien l’activité au sein du site et les interactions entre le blogueur et ses lecteurs. Des articles liés par de nombreux sites peuvent s’avérer importants ou populaires, certes, mais ils le sont davantage lorsqu’ils attirent de nombreux commentaires et font réagir les internautes.

Et c’est justement cette différence essentielle qui fait de Blogonet une réelle alternative à Wikio.

Blogonet : le classement mensuel

Mais attention, car si Blogonet propose un classement mensuel des blogs francophones, il ne s’arrête pas là. Tout comme Wikio, il s’impose aussi comme une source d’informations fiable et propose un annuaire complet des différentes publications qui secouent notre charmante blogosphère. Et là aussi, le service se différencie pas mal de Wikio. Pour commencer, tous les articles publiés pointent directement vers leur source. Pas de redirections hasardeuses, on part directement sur du do-follow et c’est quand même beaucoup plus agréable. Même chose, Blogonet ne proposant qu’un court résumé de chaque billet, on évite l’écueil du duplicate content.

A la base, Blogonet intègre déjà les publications de pas mal de blogs. Evidemment, vous avez la possibilité de proposer n’importe quel site de votre choix ou bien de rattacher un blog existant à votre compte après vous être inscrit. Mais dans tous les cas, les articles sont récupérés automatiquement et il n’est donc pas nécessaire de les proposer manuellement. Une bonne chose, surtout lorsqu’on a déjà l’habitude de proposer ses billets sur plusieurs digg-like.

Globalement, Blogonet est une agréable surprise, un chouette service et on lui souhaite de rencontrer le succès.

Oui, parce qu’il le mérite amplement.

31 réflexions au sujet de “Blogonet, un nouveau classement des blogs francophones…”

  1. “Et là aussi, le service se différencie pas mal de Wikio. Pour commencer, tous les articles publiés pointent directement vers leur source. Pas de redirections hasardeuses, on part directement sur du do-follow et c’est quand même beaucoup plus agréable. Même chose, Blogonet ne proposant qu’un court résumé de chaque billet, on évite l’écueil du duplicate content.”

    c’est marrant mais j’ai l’impression que c’est le cas sur Wikio.
    aucun article n’est publié en full text, jamais un article n’est indexé individuellement (contrairement à Blogonet), donc aucun problème de duplicate content dans le cas de Wikio.
    Et tous les liens sont en durs.

    Par ailleurs, le critère “nombre et la qualité des commentaires déposés par les lecteurs, sur le blog de l’auteur”.. franchement, vous y croyez ?
    Je serais curieux de savoir si blogonet arrive vraiment à récupérer ces valeurs, ne serait ce que dans le top 100 de son classement. Ou alors à la main ? :)

    Répondre
  2. Faux, moi j’avais plein de duplicate content avec Wikio et j’ai dû me désabonner pour arrêter ça car à chaque fois mes notes ressortaient d’abord chez Wikio et ensuite chez moi dans Google :(

    Répondre
  3. @Olivier,

    sincèrement, vous ne devez pas parler de la même chose.

    une page comme les /articles/ de blogonet provoqueront du duplicate content. chez Wikio on ne retrouve pas ce genre de pages indexées avec le titre de l’article en titre de page, et où le seul contenu étant le résumé de l’article.

    mais bon, chacun son expertise sur ces fameux duplicate content hein..

    Répondre
  4. Aoutch je sais pas ce qu’il a anone avec ce site mais il l’aime pas.

    Bon bah je verrai si je m’inscris, Wikio ne me rapportant jamais grand chose, j’ai l’impression que seul les digglike où il faut aller envoyer les articles marchent pour les petits blogs

    Répondre
  5. @if is Dead: +1 quand tu dis “j’ai l’impression que seul les digglike où il faut aller envoyer les articles marchent pour les petits blogs”… et ouaip non, en fait +1 tout court ;)

    Répondre
  6. Je ne suis pas d’accord avec le truc des digg-like. Perso, c’est justement quand tu as un “petit” blog qu’ils peuvent te rapporter le plus. Pas forcément de manière directe, mais juste pour le SEO.

    Répondre
  7. Une alternative interessante, même si j’ai pas la même expérience avec wikio.
    Pour ma part je les utiliserai de façon complémentaire plutot.

    Sinon +1 pour le critère backlink, ça se créer facilement donc à mon sens ça ne veut pas dire grand chose.

    Répondre
  8. @Fred: yop il dit pas le contraire If is dead, juste que ceux où on soumet “à la main et en personnalisant l’accroche” seraient les plus performants (en terme de retour) pour un ptit blog. Après, pour les digg-likes, j’ai plusieurs fois tenté le coup (d’ailleurs là, j’ai re-tenté avec fuzz et spirit of wordpress) mais je laisse toujours tomber rapidement. Parce que ça me lasse vite quand il faut soumettre à la main et parce que le concept même des digg-likes me laisse toujours un arrière-goût bizarre… un goût de “pas mauvais mais pas satisfaisant quand même”…

    Répondre
  9. ah également :

    “Après, pour les différents points pris en compte lors de l’élaboration du classement mensuel, le mieux reste de poser directement tes questions à Julien. Tu peux aussi aller voir sur son blog (ilonet), il avait déjà expliqué le fonctionnement de son algo.”

    justement, je ne vois pas plus de détail sur son blog.
    je vois juste parmi les critères : “le nombre et la qualité des commentaires laissés par les internautes, sur le blog de l’auteur”

    et, étant de nature curieuse et sceptique, je pose donc la question : “comment peut il faire pour récupérer le nombre de commentaires sur des milliers de blogs fonctionnant sur des plateformes hétérogènes ?” et ensuite vient naturellement “mais, comment peut on en plus juger automatiquement de la qualité d’un commentaire ?”

    mais bon, faut croire que je suis le seul à me dire que c’est douteux comme annonce si ça n’est pas accompagné d’une explication technique..

    Répondre
  10. Fred parle de ce billet :
    http://ilonet.fr/r312-top-d

    Pour récupérer les commentaires, deux cas de figure :
    – Le blog propose, pour chaque article, un flux RSS de ses billets. Dans ce cas, le principe est similaire à la lecture du flux RSS des articles.
    – Le blog n’en propose pas, le robot va directement lire la page HTML. Contrairement à ce qu’on pourrait croire, il n’y a pas tant de plateformes que ça qui soient différentes. Actuellement, il existe 16 déclinaisons du script, le choix est fait selon la plateforme utilisée (Wordpress ? Dotclear ? Over-Blog ? etc…). Mais encore une fois, beaucoup de ces plateformes ont une manière similaire d’afficher les commentaires.

    Ensuite, le robot les passe à la moulinette. Le coeur du programme tient compte de nombreux critères, comme la diversité des auteurs, la longueur moyenne des commentaires, le nombre de liens, etc etc… Ca reste un calcul de pertinence… Plus simple que ceux qu’utilisent Google et compagnies, forcément, mais le principe est similaire.

    Répondre
  11. “il n’y a pas tant de plateformes que ça qui soient différentes”

    plus que 16 en tout cas…

    la capture et l’analyse de commentaire, c’est un paramètre effectivement intéressant pour réaliser un classement, mais dans la pratique je ne pense pas qu’on puisse maintenir ce genre de ‘connecteurs’ dans le temps sans de nombreuses interventions manuelles. Par ailleurs je ne pense pas que cela soit “scalable”

    question pragmatique: sur les 10.000 blogs annoncés, combien ont leurs commentaires correctement capturés et analysés?

    et donc, dès qu’un bloggeur a une plateforme exotique (enfin.. qui n’est pas parmis les 16 supportées par blogonet. la liste est disponible quelquepart ?), ou même un site fait maison, il ne peut pas rentrer dans ces critères et donc ne peut pas apparaître dans le classement ?

    Répondre
  12. “plus que 16 en tout cas…”
    La mauvaise fois à l’état pur.
    Je parle de 16 déclinaisons, tout en précisant que “beaucoup de ces plateformes ont une manière similaire d’afficher les commentaires”. Autrement dit, une déclinaison peut être utilisée pour 1, 3, 10 ou 50 plateformes.

    Actuellement, le moteur est capable d’extraire correctement les commentaires de tous les blogs recensés, sans exception. Y compris sur ceux qui utilisent des systèmes exotiques (à base de javascript, entre autres).

    C’est aussi pour cette raison qu’il y a une validation manuelle des blogs : cela permet de détecter, sur l’ensemble des billets proposés dans le flux RSS du blog, si les commentaires sont bien pris en compte. Si ce n’est pas le cas, une nouvelle déclinaison est créée (ou une existante est élargie, selon les modifs à apporter).

    Répondre
  13. @Fred: ouaip non mais tu joues sur les mots là, je parle aussi des trucs “manuels” genre fuzz et cie (bref qui ne se contentent pas de pomper ton flux ou de se baser sur un ping pour “auto-publier” tes nouveautés). Et je suis tout à fait d’accord sur le fait que ça aide à se rendre visible et donc à se créer une base de visiteurs, etc. ça je ne dis pas du tout le contraire. Après quand je dis que ça me laisse un arrière-goût bizarre ça n’a rien à voir avec des considérations de placements dans les moteurs, etc. mais d’un pur feeling d’utilisateur.

    Répondre
  14. je connais des bloggeurs que ça ne fera pas marrer du tout :shock:
    il suffit d’avoir un minimum d’expérience en SEO pour se rendre compte qu’il y a un problème conséquent…

    maintenant, c’est peut être une erreur de la part de Jukien, et il ajoutera peut être rapidement /article/ dans son robots.txt

    Répondre
  15. Pour le moment, aucun de ces exemples n’est confirmé. Nos conseillers SEO affirment qu’il n’y a pas de problème à ce niveau à partir du moment où le lien des articles mène directement vers l’article source, car nous récupérons que les deux premières lignes de l’article (donc pas de duplicate-content).

    Toutefois, s’il s’avérait, avec le temps, que ayez raison, soyez assurés que nous prendront les mesures nécessaires. Notre philosophie étant de respecter au maximum les blogueurs (et de les aider au maximum).

    Pour information, je suis moi-même blogueur, et mon blog est indexé sur Blogonet.

    Répondre
  16. faudrait peut être penser à changer de conseillers SEO.
    surtout quand on se sert de ce genre d’arguments pour en faire de la com’

    si encore ils vous avaient dit de n’indexer au moins que les pages /articles/ ou blogonet dispose au moins d’un commentaire, ou d’un article lié. mais ça n’est pas le cas.
    au final, ce sont des milliers (potentiellement 400K+) de pages qui vont être indexées avec _aucune_ valeur ajoutée.

    et ça n’est pas seulement le problème du parasitage des articles de blogueurs par vos pages ne contenant qu’un seul résumé isolé, mais également le risque important que vous prenez de vous faire blacklister purement et simplement de moteurs tels que Google.

    bonne continuation néanmoins.. mais ne comptez pas sur moi pour relayer toute cette désinformation sur vos pratiques SEO..

    Répondre
  17. @anone: Bien sûr que ton exemple me fait marrer, puisque tu dis que blogonet sort déjà devant. Ensuite parce que blogonet n’y ait plus justement, et enfin parce que Google est assez grand pour déterminer quel est l’article à mettre en évidence entre les deux.

    sinon c’est quoi ton pseudo ? t’as l’air de t’y connaître et tout, pourquoi rester anone yme ?

    ah monis que…

    toi aussi tu as un site à cacher à Fred ? :mrgreen:

    Répondre
  18. Genre je suis anone, j’hallucine… Genre je prends des pseudonymes pour commenter sur mon blog… Genre j’ai un site à cacher… Non mais si ça se trouve, toi, tu es moi. Ouaip, et peut-être même que BurningHat est moi aussi. Ainsi que Morgan.

    Ouais, je suis peut-être vous tous, ou vous êtes peut-être tous moi.

    Bon, je vais prendre mes cachetons et avaler une fourchette.

    Répondre
  19. @Fred : Je n’ai pas compris le message de if is Dead dans ce sens. Je n’ai pas l’impression que tu étais visé. C’est toi qui a lu trop vite, ou moi qui ai mal interprété ?

    Répondre
  20. @Fred: de quoi tu parle ?

    Relis mon commentaire au lieu de dire des bétises, merci ;)

    j’ai dis “toi aussi tu as un site à cacher A fred”

    @Jukien: non non tu as bien interprété, c’est Fred qui a du zapper un mot ;) Trop de café ce matin peut être :P

    Répondre
  21. @Fred: aaah non, je refuse d’être toi ! (juste pour le principe de protester)

    @Jukien: +1, moi non plus je n’ai pas compris le comme de <abbr title=”If Is Dead”>IID</abbr> comme Fred. Je pense qu’il a du prendre ses cachetons avant de lire. Ce qui a évidemment altéré sa compréhension :p mais je peux me tromper aussi ;) Tout ceci peut ne pas être vrai

    Pas de Panique !H2G2

    Répondre
  22. Il faut arrêter de faire publier automatiquement son contenu sur les sites comme Wikio et Paperblog qui sont des arnaqueurs mais plutot résumer ses articles sur les Digg-like, et il y a même un service gratuit pour cela sur Digg-France

    Répondre
  23. Bon, j’ai pas lu tout les commentaires, difficile de suivre tant la discussion semble animée. Juste pour dire que je viens de soumèttre quelques blogs à ce service, donc à plus tard pour mes impressions et analyses pour ce qui est de la plus value SEO

    Répondre

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.