Google Local : Ne passez pas pour un Pigeon

google-pigeonIl semblerait que Google ait apporté une modification à son algorithme, une nouvelle fois.

Cette fois, le but est de faire du ménage sur les résultats locaux et plus précisément sur les résultats Google Maps.
Lors de vos recherches géolocalisées ou celles sur votre smartphone correctement localisé, vous tombez sur des liens Google Maps (et donc des pages Google Business).

Ce levier d’acquisition de trafic est devenu régulièrement exploité, peut-être trop, et ne parait pas aussi bien « contrôlé » par Google.

Qu’à cela ne tienne, Google va remédier à cela en sortant une mise à jour dont le nom animalier pourrait être « Pigeon ».

Pour cela, Google compte prendre des critères de classification supplémentaires, s’appuyer sur le Knowledge Graph (informations sémantiques tirées de plusieurs sources), géolocalisation plus précise,…

Pour l’instant, cette mise à jour n’a été déployée qu’aux USA. Mais comme bien souvent, le reste du monde devrait suivre rapidement.

En attendant une annonce officielle de Google sur le sujet, il serait intéressant pour les retardataires de faire un tour du côté de Google My Business. Et n’oubliez pas que Mr SEO peut vous accompagner sur cette partie la !

Une stratégie de Linkbuilding efficace ?

Google a beau faire la guerre à tous les SEO en imposant de nouvelles règles et en faisant évoluer ses algorithmes, la course à l’acquisition de backlinks reste bien souvent le principal chantier dans une stratégie de développement de visibilité.

Difficile de sortir du lot lorsque « personne » ne parle de votre site de manière « naturelle » comme le demande notre moteur de recherche préféré.

Certains ont su anticiper les barrières imposées par Google à une époque ou le lien poussait comme du chiendent sur les sites de communiqués de presse, annuaires, digg like et sites obscurs en développant leur propre galaxie de sites propres, « populaires » et « éditorialement » réfléchis, mais cela a forcément un coût !

Heureusement, il reste de nombreuses possibilités de trouver du liens, même si désormais une grande partie n’est pas censée être suivis par les moteurs et donc non interprétée (officiellement…)

Entre les réseaux sociaux qui pullulent, les commentaires d’articles, le partenariat (ou plus communément appelé échange de liens), nos amis les blogueurs, les forums,… il y a de quoi faire.

linkbuilding-anatomie-techniquesLe plus important dans tout cela reste l’équilibre !
Pour « paraître » le plus naturel possible (oh la jolie antithèse ! …) la diversification doit être de rigueur !
Pas la même ancre, pas la même page, pas la même source, etc…

Si vous ne trouvez pas le temps ou que vous tournez en rond sur le développement de votre notoriété, faites appel à Mr SEO !

Pour en savoir plus, voici de nombreuses pistes pour trouver votre bonheur !

Tableau périodique SEO : La chimie du référencement

Petite originalité dans le monde de l’infographie. Search Engine Land nous présente les différents critères (pas tous hein…) mais un bon récapitulatif pour ne rien oublier sous la forme d’un tableau périodique des éléments.

On site et Off site, idéal pour checker que tout est en ordre ou nécessite quelques corrections !

Et comme il n’y a pas que des anglophones, je vous propose la version traduite par Julie Chodorge

tableau-périodique-seo

Comme tout bon petit chimiste, le petit SEO se doit de connaitre sur le bout des doigts son tableau !

Et si jamais cela est trop compliqué, faites appel à Mr SEO qui le révise tous les soirs avant de dormir 🙂

L’indexation d’application Android par Google

En voilà un joli titre ! Mais qu’est ce que a veut dire ?

L’avènement des smartphones a vu naître la notion d’application mobile !
Chacun de vous possédant son téléphone intelligent (ça sonne moins bien hein ?) prend la liberté d’installer des 10aines d’applications plus ou moins utiles.

Cependant, Google va permettre à certaines d’étoffer leur intérêt avec… leur indexation !
Nos chers voisins outre-Atlantique ont donc pu voir arriver dans les résultats Google (mobile) des contenus en provenance de leurs applications !

Désormais, cette possibilité s’ouvre à la France, et surtout à tous les possesseurs d’applications Android ! Bien sur celles d’Apple, non ! …

Pour Google, les applications vont donc être interprétées comme un site internet, et donc devoir être optimisées (cela vaut surtout pour la stratégie de maillage interne). Des  données seront remontées sur Google Webmaster Tools, des recherches seront auto-complétées vers des pages appli,.. Bref tout pour inciter les derniers réticents à la création d’applications à se pencher sur le sujet, et à faire grossir le Play Store.

Encore une fois, de la à dire que cela puisse avoir un quelconque impact sur le référencement naturel, il n’y a qu’un pas…

Pour être concret, voici une capture d’écran sur la requête « Rafaël Nadal »

Screenshot_2014-07-02-13-36-42

Pour en savoir plus, voici les recommandations de Google

 

 

Analyser ses logs pour trouver les failles de son site

Google envoie ses robots dans les 4 coins du web et l’on estime qu’il parcourt plus de 20 milliards de sites par jour.
Et il est plus que probable que votre site en fasse partie. Vous pouvez bien entendu retrouver cette information sur votre interface Google Webmaster Tools, cependant, entre le décalage des données et le manque de détails, difficile de tirer une réelle analyse de ces chiffres.

crawl-google

Activités des robots Google

Lorsque Google passe sur votre site, il se balade de liens en liens, vous consacrant un laps de temps plus ou moins réduit en fonction de certains critères. Durant son passage, il analyse chacune de vos pages et remet à jour son index en fonction des éléments trouvés. L’idée est qu’il passe sur l’ensemble des pages de votre site tout en tachant de passer régulièrement sur vos pages fortes et en évitant de se perdre sur des pages en erreur ou en doublon.

Comment vérifier ce que fait Google sur mon site ?

Rien de plus simple : Analyser vos logs !
Que ce soit sur un serveur dédié ou mutualisé, ces fichiers restent bien souvent accessible.
Mais une fois que vous les avez, que faire ?
Il existe des solutions qui permettent d’extraire les informations qui nous intéresse (la trace de Google) du type Glogg.
En complément, il est possible de mettre en place web permettant de synthétiser rapidement ces informations : Watussi Box

Vous pourrez donc aisément découvrir les pommes pourries de votre site (toutes les pages nuisibles : 404, duplicate, …) et tenter de bloquer l’accès à celles-ci. Il est évident que vous trouverez un paquet de failles qui vous montreront que Google les découvre à tous les coups. Plus le crawl des robots sera propre, meilleure sera votre indexation, et mieux sera la prise en compte de vos pages !

Au final, avec un bon crawler et un bon analyseur de logs (Botify pour ne citer que lui malgré un prix élevé), vous devriez pouvoir présenter un site propre, sans doublons de balises, sans duplications, sans erreur 404 et avec un minimum de redirections !

Il est possible de tirer encore beaucoup d’informations, mais pour cela, faites appel à Mr SEO 🙂

Matt Cutts au SMX Advanced

Matt Cutts, célèbre « bloggeur » made in Google, est intervenu très récemment lors du SMX Advanced à Seattle !

Qu’en est-il ressorti ?

Dans les grandes lignes :

– La vitesse de chargement aurait toujours un impact sur le référencement, bien que minime !
– L’arrivée, un de ces quatre, des 12 derniers mois de données des mots clés générant du trafic
– Pas d’avantage à posséder un site sécurisé (https)
– Les pénalités manuelles peuvent durer des années (sic) suivant la gravité
– Facebook et Twitter sont crawlés de la même façon qu’un site lambda
– L’importance d’avoir un site mobile (responsive)
– Google lit de mieux en mieux le JS

En soit, rien de bien neuf sous le soleil de Seattle, juste quelques informations à se mettre sous la dent !

Retrouvez plus en détail cette conférence sur Webrankinfo !