Catégories
Uncategorized

#SMO et #SEO : L’impact de Google +1

l y’a quelques jours, Sylvain Richard a publié son prêche dominical sur le thème : Le SMO remplacerait le SEO ? Pas d’accord !

Autant prétendre que l’impact du SMO (twitter / FB / Google+) remplacera et dépassera à terme le poids des backlinks me semble complètement prématuré, une vision à la Jeanne d’Arc, peu pertinent, autant je me pose des questions quand je vois cette page de résultats sur la requête « Blog SEO » lorsque je suis loggé sur gmail, sachant que j’ai rajouté l’agence 1ere position dans mes cercles.

Ma page de résultats personnalisés sur la requête « Blog SEO »

SERP-blog-seo

Le blog de l’agence apparaît en bas de page, en position 9 et 10, j’ai coupé les résultats intermédiaires.

Un impact limité… pour l’instant

Pour l’instant, l’impact de Google + est limité, les résultats personnalisés apparaissent en base de page. Mais franchement, le jour où Google décidera que les 3 premiers résultats seront ceux de votre cercle, cela aura inévitablement un impact sur le SEO et le trafic que généré par ce biais.

SERP

Google + : pas encore indispensable, mais un vrai levier à considérer

L’intérêt de promouvoir et de travailler sa présence sur Google + devient évident, il est temps d’utiliser les outils de partage social sur vos sites web pour anticiper cette évolution et profiter de ce levier. Il est évident que ce sont les marques reconnues (B2B et B2C) qui profiteront de ce levier dans un premier temps, mais je suis certain que les « petits » sites pourront en profiter aussi s’ils proposent du contenu intéressant : c’est le retour au link baiting.

traficgplus

Le SEO / référenceur deviendra-t-il un manager de visibilité ?

Certains se demande si le terme de SEO n’est pas destiné à évoluer, cf cet article de Search Engine Watch :

visibility

Mini traduction : La nouvelle dénomination du référenceur pourrait être responsable de visibilité, car tout repose sur la visibilité pour votre public.

Pour ma part, j’estime de toute façon que le webmarketing est un tout, il y a différents leviers que l’on peut actionner, le SEO et le SMO sont complémentaires, le SMO ne peut être négligé.

La conclusion ? Cliquez sur le +1

Et tout simplement commencez à utiliser Google + si ce n’est pas déjàa fait !

Sur le web

– Un exemple de requête concurrentielle où les résultats de Google+1 sont mis en avant : SERP pour cars
– Comment Optimiser sa page Google + par David Degrelle
– L’excellent article d’Olivier Duffez sur l’impact du SMO sur les SERP
– En anglais, un article de Mashable sur l’impact de Google + et augmentez votre taux de clics dans les SERP chez Search Engine Watch.

Catégories
Uncategorized

Conférence de Kevin Richard : Méthodes avancées de #SEO

Le 2 février 2012, à l’initiative de l’association Chambé-Carnet et dans le cadre des rencontres « Je dis web », Kevin Richard (alias 512Banque) a présenté sa conférence intitulée « méthodes avancées du référencement naturel ».

illustration-mission-optimized

Cette conférence de Kevin Richard s’adressait à un public assez hétéroclite : des étudiants, des développeurs, des affiliés, des webmarketers, des domaineurs et même des… référenceurs ! Du coup, la présentation a été très didactique, pour ne pas perdre les néophytes, mais est tout de même restée d’un bon niveau, en présentant les bonnes pratiques et en tordant le cou à celles d’un autre âge…

L’architecture : Google est sourd, muet, et aveugle

Il faut faire avec et s’assurer qu’il puisse accéder au contenu et le lire. Ca veut dire pas de Flash, ou alors avoir une version dégradée, et hiérarchiser ses contenus selon les bonnes pratiques du W3C, sans être intégriste par rapport à celles-ci : 90% des pages du web ne sont pas aux normes.

//edit 5/2 : Suite à la remarque en commentaires, Kevin Richard avait en effet mis un bémol sur le fait que Google est aveugle, puisqu’il peut désormais afficher des copies d’écrans dans les pages de résultat.

Enfin, on a eu un petit aperçu de scrapebox et d’un footprint pour illustrer le fait que Google crawle et indexe aussi les pages vers lesquelles des annonces Adwords pointent, sans autre lien. Footprint : inurl:gclid site:votresite.com

Le contenu : intéressant et non dupliqué

Le SEO est du reverse engineering : il faut dérouler la pelote de l’algorithme de Google et s’inspirer des pages qui trustent les premières positions : Wikipedia, Amazon.

Google a notamment pour indicateur de page pertinente le taux de rebond et le temps passé sur la page. Ces données sont obtenues par la barre Google et le navigateur Chrome très probablement, pas par Google Analytics.

Par exemple Amazon propose du contenu unique, des pages produit longues et intéressantes, autorise les commentaires (c’est du contenu gratuit !).

Evitez le contenu dupliqué. Vrai problème pour les e-commercants qui ont des milliers de fiches produits aux caractéristiques similaires. Une solution d’automatisation pour les e-commercants aux produits de niche et ciblés : créer une interface de création de texte basés sur des critères. Exemple, pour un site de vélo, décrire les différents types de cadres, roues, usages, et cocher selon chaque vélo les critères pour générer automatiquement des textes spinnés… excellent !

Quant à la densité de mots clefs, c’est has been mademoiselle… !

Backlinks : Un profil de liens naturel

Pas de pénalités à moins d’être un gros bourrin lorsque l’on automatise la création de liens, par contre il est bon de garder un profil de liens qui ait l’air naturel :
– Ancre optimisées, URL mortes : aux US, ils préconisent d’avoir deux tiers d’ancres non optimisées (URL, cliquez-ici, nom du site, etc.). Variez les ancres dans tous les cas, avoir des centaines d’ancres exactement optimisées sur votre page est un (mauvais) signal.
– Achat de mots clefs : Google n’a pas à dire ce qui est bien ou mal, à vous d’être discrets et à voir si c’est rentable d’acheter (ou vendre…). Mon avis : Google vend bien des mots clefs…
– Link baiting ou link ninja ? Entre ce que dit Google et la réalité pour réussir à se référencer, il y a différentes approches.

Chapeaux blancs et bérets noirs

Hélas, David Degrelle (agence 1ere Position) devait être présent mais a annulé sa participation, j’aurai bien voulu connaître son avis sur l’automatisation des tâches (Xrumer, Sick Submitter et imacros ont été mentionnés), le spinning, l’achat de liens, la sous-traitance du rédactionnel. Les SEO de 1ere position n’ont pas du tout réagi, j’aurai bien aimé avoir leurs réactions aussi, vu qu’ils sont de la chapelle des chapeaux blancs (allez un peu grisé quand même, non ?).
//edit : Aurélien, de 1ère Position, commente la conférence dans les commentaires de cet article, et David Degrelle explique sa position par rapport aux méthodes Black Hat.

Une question a été posée sur les risques de l’automatisation, si Kevin l’annonçait à ses clients : oui, il l’annonce, en les prévenant des risques éventuels.

Et les réseaux sociaux dans tout ça ?

Kevin observe que les articles très retwittés bénéficient d’un regain de popularité qui s’estompe dans le temps… apparement il n’est pas plus « fan » que ça de facebook, peu pertinent pour l’achat d’annonces notamment… ça se discute !

E-reputation : un nouvel axe de business pour les SEO

Kevin a abordé ce point qui est un enjeu majeur dès lors que l’on est confronté à des clients mécontents ou des concurrents peu scrupuleux. Avant d’engager des services coûteux et des procédures juridiques, la solution la plus simple est de gérer le contentieux directement avec le client, ça vous coûtera moins cher. Sinon, et bien il y a des solutions : nettoyer le web en cachant en seconde page les pages compromettantes, en boostant d’autres pages. Petit truc sournois, dans le cas d’un article de blog : pré-dater une autre version et utiliser le Digital Millenium Act… ma phrase ne veut pas dire grand chose… indice : consultez cet article sur les coucous.

Edit 20/2 : Les slides de la présentation

Chambé Carnet a publié les slides de la conférence que voici ci-dessous. Le dernier slide notamment est intéressant car résume bien les idées passées pendant la conférence.

 

A voir sur le web

Kevin Richard :
– Son agence SEO et e-reputation Cultivaref
– son blog SEO Delicious Cadaver
– Son fil twitter @512banque
– Ses formations au référencement naturel : Le next level du SEO
– L’interview par Chanbé-Carnet

================== Commentaires

Comme cet article a d’abord été publié sur oweia.net, je copie/colle les commentaires les plus intéressants.

Conférence de Kevin Richard : Méthodes avancées de référencement naturel4 février 2012 02:08, par Aurelien

Salut,

En direct de la chapelle des chapeaux blancs, je t’adresse mon commentaire suite à cette conférence de Kévin

Le problème est à mon avis pas tant de la question de l’automatisation mais de savoir comment on utilise ces outils. Bien sur certains comme Xrummer sont des usines à spam et sont proscrit chez nous (on voit vraiment pas comment les utiliser sainement…) mais on est pas abnégationniste au point d’avoir tiré un trait sur toute les techniques et outils qui nous permettent de gagner du temps sur des tâches à faible valeur ajoutée.

Si je pousse un peu à l’extrême la vision du White Hat dans sa chapelle, on devrait s’interdire l’automatisation de certaines tâches sous prétexte qu’elle ne sont pas naturelles et passé par la main de l’orfèvre donnant sa bénédiction :-).

Dans de nombreux cas pour nos clients qui disposent de structures de taille importantes pour lesquelles il est impensable de ne pas recourir à un certain niveau d’automatisation, le tout étant de respecter les usages et les règles éthiques et de respecter la liberté des autres, et penser avant tout à la pertinence de nos actions pour les internautes, car ces comme ça que nous devons les justifier dans le contexte de groupe qui doivent justifier de leurs investissements sur le référencement naturel (qui n’est pas toujours bien compris)

Bref l’outil ne fait pas le moine, ces outils sont aujourd’hui rendu populaire par la mouvance BH mais ça fait de nombreuses années que nous utilisons des techniques de « texte à trou » présentée qui sont la forme la plus simple d’automatisation que l’on puisse trouver est que l’on ne peut pas qualifier de Black Hat ou SPAM systématiquement. J’ai d’ailleurs l’occasion d’utiliser des outils comme Imacros sans pour autant en avoir une utilisation Spammy

Je rejoins aussi Kevin sur l’hypocrisie de Google qui se permet de considérer certaines actions comme « licite » ou non tout en révisant sa ligne de conduite dans le temps à l’inverse de ces Guidelines officielles. J’ai eu l’occasion de recommander la duplication complète d’un site E-commerce ciblant plusieurs marchés sur des extensions géographique différentes à une époque ou la règle de bonne conduite était d’éviter la duplication à tout prix. Aujourd’hui, les recommandations officielles de Google admette la pertinence d’un site dupliqué sur des domaines avec extensions géographiques différentes et a même il y a quelques mois de cela crée une balise spécifique pour améliorer la gestion de cette forme de duplication légitime (l’extension géographique d’un domaine étant un critère de confiance important pour pousser l’internaute à l’achat) ? Bien sur il est toujours mieux de faire du contenu différent sur chaque marché mais ce n’est pas toujours possible …. nous avons pu gagner des part de marché lentement mais surement sur à étrangers avec une technique qui semblait pourtant « à risque » mais que j’ai eu raison de pousser selon mes convictions.

Je ne crois pas que ça fasse de moi un Black Hat, un Grey Hat ni même un White. Il est de toute façon hypocrite de porter un chapeau puisque nous tentons tous d’une façon ou d’une autres de manipuler en notre faveur les algorithmes de Google. L’approche White consiste sans doute un peu plus a faire confiance à ce qui est pertinent et utile pour l’internaute avant tout et de fonctionner sur ses intuitions et ses convictions marketing, de respecter les autres internautes et acteurs présent sur le web car toutes ces techniques d’automatisation mal utilisées ont un coût pour ceux qui les subissent …

Et merci pour ce super article 😉

Aurélien,

Voir en ligne : http://www.1ere-position.fr

 

Bonjour Thomas,

Et tout d’abord sincèrement désolé de répondre si tardivement ici mais je tenais tout de même à le faire.

J’ai effectivement décidé d’annuler ma participation car je pensais au début qu’il s’agissait d’une conférence moitié WH, moitié BH et l’idée de me retrouver « grand témoin » d’une conférence 100% BH ne me plaisait plus du tout.

Comme je l’indiquais aux organisateurs, à qui je n’en veux absolument pas, la seule fois où j’ai participé à une conférence BH, c’était bien pour avoir un débat contradictoire entre BH et WH.

Car si j’ai de l’estime à titre personnel pour Kevin et de rares autres BH, j’ai vraiment du mal avec l’abus marketing du moment où pour parler de BH on parle maintenant de « techniques avancées », pour faire plus politiquement correct, au lieu de simplement dire ce que c’est : des techniques de SPAM !

Je n’accable pas les BH, mais plutôt nous (au sens large mais moi inclus), notre communauté, parfois les clients, qui sommes en train de faire du BH, une activité « tendance » et de ses représentants des « people » qu’on idolâtre, alors que nous ne faisons pas le même métier.

J’ai surtout aimé le BH à ses lointains débuts, plus proche de hackers, plus intéressés par le défi technologique consistant à montrer les failles de Google, que ceux majoritaires d’aujourd’hui cherchant à nous faire passer le BH, pour du SPAM mignon, et nous prendre pour des bisounours.

Aurélien a parfaitement résumé notre position et nos motivations à s’intéresser aux techniques de SPAM et comme je l’ai toujours fait depuis que j’ai commencé dans le SEO en 99.

D’une part pour rester lucide et éveillé sur les techniques que nous pouvons avoir en face de nous et d’autre part pour analyser de manière pragmatique et éthique les outils ou méthodes que nous pourrions adapter en white, sans vendre notre âme au diable et mettre de coté l’utilisateur final.

D’ailleurs cette histoire de couleur de chapeau est aujourd’hui en passe de devenir une légende urbaine, je ne connais personne pouvant se targuer d’être 100% white ou 100% black.

Je vois d’un coté, des référenceurs qui s’intéressent et respectent l’utilisateur final en ayant intégré au fil du temps de nombreuses expertises complémentaires (contenu, ergonomie, marketing, analytics, réseaux sociaux, etc.), et de l’autre des spammeurs qui ne s’intéressent qu’à ranker dans Google (linkwheel, spinning, splog, spam commentaires).

A voir comment les BH sont en train de monétiser leur savoir-faire dans tous les sens, je me dis qu’eux aussi, doivent penser que leurs approches sont en fin de vie. Et ils auraient bien tort de s’en priver, puisque c’est un succès, 70 personnes pour une conférence sur le SPAM, c’est tout de même bien triste pour notre métier de référenceur…

Voir en ligne : http://twitter.com/david_degrelle

  • Merci David pour ce retour argumenté. A vrai dire la conférence proposait les deux visions, sans (trop) de prosélytisme pro-blackhat, ça aurait intéressant en effet d’avoir un débat contradictoire sur le sujet.

    • Merci également de cette précision importante, c’est pour cela que mon propos n’a rien de personnel mais bien une réaction d’ordre générale sur l’évolution de la perception du phénomène BH au niveau global.

      • Vendre son âme au diable, tu n’y vas pas un peu fort ? C’est précisément contre ce type d’argument que j’ai fait une diapositive exprès sur l’aspect « moral » et le SEO. Non, ce n’est pas Google qui décide pour moi ce qui est bien ou mal. C’est moi.

        Par ailleurs, la conférence n’était pas une apologie du « SPAM », dommage que tu n’y aies pas assisté. Opposer « respecter l’utilisateur » d’un côté, et de l’autre le « spam dégueulasse » (pourquoi pas l’arnaque à la carte bleue tant qu’on y est !), c’est un peu simpl(iste).

        Mais au final, dans la « vraie vie », la seule chose qui compte, c’est les résultats, et c’est les clients qui votent. Il n’y a pas de mystère si même les industries « mainstream » commencent à nous contacter, nous les méchants spammeurs, je parle en tout cas de Paul et moi.

        C’est parce qu’elles ont appliqué les méthodes d’optimisation interne.
        C’est parce qu’elles ont mis un bon contenu.
        Elles ont tout bien fait comme il faut.

        Et devine quoi ? Ca ne marche pas.
        Elles n’ont pas de résultat.

        Donc elles viennent nous voir. Et elles rankent. Et elles sont contentes. Et ça tient sur la durée.

        J’ai des gros clients qui viennent me voir pour des cas de e-réputation extrême. Ils ont besoin de virer des résultats (très) négatifs de la première place. Genre des journaux ou des forums. Que leur préconiser ? De l’optim interne ? Ou du « SPAM » ? Moi, je « SPAMME » et ça marche.

        Au final, la conférence n’était pas « black hat » ni « white hat », je n’ai d’ailleurs jamais parlé de couleur de chapeau pendant la conf. Dommage que tu ne sois pas venu, car loin de mépriser l’optimisation interne et l’approche positive vis-à-vis des utilisateurs, je l’encourage, et je pense que tu aurais carrément pu apporter des choses que je n’ai pas forcément mentionnées.

        Voir en ligne : http://www.cultivaref.fr

Catégories
Uncategorized

Test : Deux annuaires pour référencer votre compte twitter

Avoir un compte Twitter, le mettre à jour, chercher des contacts qualifiés… c’est bien. Mais certains utilisateurs de Twitter, qui seraient très intéressés par ce que vous avez à proposer, ne vous connaissent peut-être pas. Pour changer cela, il n’y a pas de remède miracle, mais un début de solution : les annuaires qui référencent les comptes Twitter.

social-icon-twitter

Les annuaires Twitter fleurissent depuis un moment déjà. Quelques uns d’entre eux ont eu le temps de finir leurs jours, faute de popularité et d’entretien. d’autres, en revanche, ont su tirer leur épingle du jeu.
Ces services reprenant l‘état d’esprit de Twitter, s’y inscrire ne prend en général que quelques instants. Il suffit de vous identifier, d’entrer quelques informations concernant votre compte, des mots clés la plupart du temps, et le tour est joué.

Evidemment, il ne s’agit pas d’une solution miracle, et votre nombre de followers ne va pas tripler d’ici la semaine prochaine, surtout que peu de services français existent aujourd’hui, et qu’il faut souvent se rabattre sur des services anglophones. Mais un peu plus de visibilité ne vous fera pas de mal.

Pour visiter les sites des annuaires, il vous suffit de cliquer sur les titres. N’hésitez pas à signaler les annuaires dans lesquels vous êtes référencés.

Twitts

Un portail français, ouvert à tous, très simple et assez ergonomique. L’enregistrement ressemble à celui de Twibs, sauf que tout est en français. Une fois cette étape passée, vous accédez à une interface qui vous permet de gérer votre compte Twitter, de trouver des mots clés qui pourraient vous intéresser, et même des statistiques sur l’évolution de votre compte, de ses followers.

Vous pouvez poster des messages depuis le site, raccourcir vos URL et même, détail ultime, totalement inutile et donc essentiel : ajouter des émoticons à vos tweets.
Evidemment, en plus de cela, vous pourrez trouver de nouveaux comptes twitter passionant, bénéficier d’un service de petites annonces et de recherche par thématiques. Un vrai petit coup de coeur.

Twibs

On démarre avec un service réservé aux entreprises. Certes, c’est en anglais, mais vous pouvez vous référencer avec vos mots clés, ajouter le nom de votre entreprise, s’il est différent de votre compte Twitter, votre numéro de téléphone, votre adresse… et il y a même la possibilité de se géolocaliser grâce à une application Google Maps intégrée.
Vous pouvez également ajouter l’adresse de votre blog. Il ne reste plus qu’aux twittos français d’aller faire un tour sur le site, de plus en plus populaire, et le tour sera joué !

Catégories
Uncategorized

Lutter contre le contenu dupliqué : la balise « canonical »

Depuis 2009, les principaux moteurs de recherche ont mis en place une solution pour lutter contre le Duplicate Content. Cette solution est facilement applicable, réellement efficace, à utiliser si votre informaticien complètement attardé en SEO créée du duplicate content partout sur votre site.

services-seo-optimized

Pourquoi une balise contre le Duplicate Content ?

L’utilité de l’url canonical est simple à expliquer. Il s’agit de déterminer, aux yeux des moteurs de recherches et au sein même de votre site, quelle est la bonne version d’un contenu.

Que ce soit à cause d’une mauvaise gestion des versions de vos sites, ou d’autres problèmes, des problèmes de contenu dupliqués ont vite fait d’arriver.
Cette balise vous permettra de référencer le contenu de votre choix, et pas un autre.

Comment utiliser la balise link rel= »canonical » ?

Là encore, rien de sorcier. Vous devez ajouter cette balise dans le head de votre site, en y spécifiant l’adresse de vos pages et contenus originaux.
par exemple, si vous souhaitez définir une page de votre site comme étant une page originale, il vous faudra ajouter cette ligne dans le head de votre page HTML : <link rel= »canonical » href= »/monsitelevrai.fr/cool » />

Grâce à cela, la vraie adresse de votre site sera « monsitelevrai.fr/cool », et non « monsitelevrai.fr/cool/trololo » ou quoi que ce soit d’autre.

Catégories
Uncategorized

Création et optimisation de votre Sitemap

Google SiteMaps est un outil gratuit développé par Google à destination des webmasters afin d’améliorer la façon dont Google indexe les pages web de leurs sites/forums. Cela permet d’améliorer la visibilité de votre site web dans les résultats de recherche Google, et en plus c’est gratuit…!
seo_specialist_workplace-optimized
En plaçant un fichier SiteMap sur votre site, vous permettez à Google de connaître plus facilement les nouvelles pages à indexer, ainsi que la fréquence d’indexation optimale pour les pages déjà dans l’index.
Les sitemaps sont particulièrement utiles dans les cas suivants :
  • Si votre site web intègre du contenu dynamique.
  • Si toutes les pages de votre site web n’ont pas été indexées par Googlebot lors du processus d’exploration de vos pages
  • Si votre site web est récent et que seuls quelques liens permettent d’y accéder. Googlebot explore le Web en suivant les liens entre les différentes pages. En conséquence, si le système de liens de votre site n’est pas cohérent, les robots de Google auront des difficultés à le détecter.
  • Si votre site internet contient de nombreuses pages de contenu mal reliées entre elles ou pas reliées du tout.

Fonctionnement de Google SiteMap

Le fonctionnement de Google SiteMaps se déroule en trois étapes :

  • Créer un ou des fichiers XML contenant les urls du site et respectant le protocole SiteMap.
  • Uploader le fichier XML généré sur votre site en respectant les contraintes d’’emplacement et de taille.
  • Soumettre le fichier SiteMap à Google.

Protocole Google SiteMaps

Le fichier SiteMap doit commencer par l’’en-tête :

<?xml version= »1.0″ encoding= »UTF-8″?>
< urlset xmlns= »http://www.google.com/schemas/sitemap/0.84″>

Pour chaque url de votre site mettre un bloc <url> :

< url>
< loc>http://www.example.com/</loc>
< lastmod>2005-01-01</lastmod>
< changefreq>monthly</changefreq>
< priority>0.8</priority>
</url>

Les paramètres « lasmod », « changefreq » et « priority » sont optionnels.

Le fichier doit se terminer par :

</urlset>

’Emplacement du fichier Google SiteMap

Le Fichier SiteMap n’est pas obligatoirement placé à la racine du site web à indexer. Cependant, l’emplacement du fichier SiteMap compte : car seules les urls contenues dans le fichier appartenant au dossier où se situe le fichier sur votre site seront prises en compte.

Exemple 1 :

Fichier Map : http://www.monsite.com/sitemap.xml

Seront acceptés :

http://www.monsite.com/monrep/index.php

http://www.monsite.com/index.php

http://www.monsite.com/rep1/rep2/index.php

Seront ignorés :

http://monsite.com/morep/index.php

https://www.monsite.com/morep/index.php

http://sousdom.monsite.com/

Exemple 2:

Fichier Map : http://www.monsite.com/monrep/sitemap.xml

Seront acceptés :

http://www.monsite.com/monrep/index.php

http://www.monsite.com/monrep/sousdos/index.php

Seront ignorés :

http://www.monsite.com/index.php

http://www.monsite.com/rep1/rep2/index.php

http://sousdom.monsite.com/monrep/index.php

Taille et poids d’un SiteMap Google

Un fichier XML de SiteMap généré et non compressé ne doit pas dépasser 10 Mb ou contenir plus de 50 000 Urls. Si votre site génère un Sitemap supérieur à 10Mb ou 50000 URLs, il est préférable de générer plusieurs fichiers SiteMap et utiliser un fichier index de SiteMap.

Soumettre le SiteMap à Google

Pour ajouter votre fichier SiteMap à Google, il faut se connecter avec un compte gmail sur Google Webmaster Tool, et soumettre l’URL de votre siemap à l’outil de soumission de sitemep Google. Google webmaster Tool permet de suivre le statut du sitemap soumis et de suivre sa prise en compte en temps réel.

Outils de création de SiteMap

La création d’un fichier XML Google SiteMapn peut être réalisé de plusieurs façon : à l’aide d’un logiciel ou d’un script. Certains site web propose des outils en ligne pour générer un SiteMap XML. Chacune ayant ses avantages et ses inconvénients.

Logiciels de creation de Sitemap

Il existe de nombreux logigiels de création de Sitemap. Xenu est un outil gratuit et performant qui permet entre autre de générer un sitemap à partir d’un crawl du site web à indéxer. L’avantage de la solution logicielle est le non encombrement du serveur et un plus grand contrôle de ce qui est crawlé ou non.

Les Scripts de creation de Sitemap

Les scripts php ou autre permette une génération à la volée des fichiers Google SiteMaps grâce aux passages des visiteurs qui marquent les pages. Cette solution est intéressante pour les sites en perpétuelle évolution comme les forums et les blogs. L’inconvénient majeur de cette solution est la charge induite sur le site. de nombreux CMS, tel que joomla, drupal, wordpress ont des plug-ins permettant la génération automatique de Sitemap Google.

Catégories
Uncategorized

Comment modifier les « SiteLinks » ?

Comme vous pouvez le voir sur l’image illustrant cet article, les SiteLinks, ou liens de site, sont les liens qui apparaissent dans Google sur les recherches de notoriété, c’est-à-dire lorsqu’un internaute recherche le nom de votre site (ou marque).

Comment Google réalise-t-il ce choix de SiteLinks ?

Il existe en 4 et 8 SiteLinks selon les sites, mais parfois on peut se demander comment ils sont choisis par notre ami Google. Une hypothèse serait qu’ils sont choisis de manière automatique selon la popularité de ces pages, les pages plus « linkées » sur votre site…

Hypothèse démentie par l’image ci-dessous, les SiteLinks d’un ami blogueur de mode, où les pages choisies sont pour le moins étonnantes ! Le site a été lancé au début de l’année et peu, voire aucun effort SEO n’a été fait sur ce site, ce qui en soi n’est pas un mauvais point en cette période de suroptimisation pénalisée par divers animaux black&white.

liens-sites-fashandy

Le cas des grandes marques : Chanel, Sony, Apple, etc.

Dans l’exemple suivant, la marque Chanel dispose de mini SiteLinks, en fait simplement des liens vers des rubriques, constatation que l’on retrouve pour bien d’autres marques, de mode ou autre.

chanel-site-links

Alors qu’Apple, par exemple, dispose de vrais grands liens de site :

apple-liens-site

Comment modifier ces SiteLinks ?

Mon très cher Fabrice de Fashandy (le lien, c’est cadeau !), si tu veux modifier cela et mettre en avant d’autres pages, il va falloir que tu informes Google via l’outils Google Webmaster Tools. Je sais que tu n’es pas encore inscrit, donc profites-en pour t’inscrire, tu vas voir ça peut servir !

retrograder-lien

Une fois dans l’interface, tu vas dans configuration > liens de site, et là tu vas pouvoir… rétrograder tes liens. Et oui, je sais, ça serait tellement plus simple de choisir directement les liens à afficher, mais Google est très joueur, et c’est donc la roulette ces SiteLinks ! ;-)

Quels liens choisir dans ces SiteLinks ?

C’est là que mon cher Fab, il va falloir à ta stratégie pour ton site : quelles sont les pages les plus intéressantes, celles dont tu es le plus fier (oui j’aime flatter ton ego), ou plus prosaïquement, quelles sont les pages qui vont te rapporter le plus de tunes ? Ah zut, tu ne fais pas de tunes sur ton blog. Bn, tu vois ce que je veux dire, tu as l’opportunité via cet outils de mettre en avant des pages, autant que ce soit les plus valorisantes pour toi vu que tu écris ce blog pour la beauté du geste !

Bientôt, je t’apprendrai comment afficher ta tête sur Google, ton ego va exploser, tu vas devenir une star !

Références

Sur le sujet, retrouvez les préconisations de Google et un article de SEOland assez vieux mais intéressant.