C'est quoi le Black Hat en Référencement (SEO) ? Il existe de nombreuses techniques en référencement (seo), plus ou moins propres pour être pertinent aux yeux de Google. Et comme être placé dans les 1ers liens de Google peut considérablement augmenter vos ventes (36% des internautes cliquent sur le 1er lien, source jdnet), certaines pratiques « douteuses » (dites « black hat ») se sont développées. En référencement, les 2 choses les plus importantes sont le contenu et les liens. Les black hats ont donc des techniques pour améliorer artificiellement ces 2 éléments. Mais Google veille: Les 2 meilleurs exemples de riposte du géant de Mountain View sont les mises à jours Panda & Penguin. Google Panda: est ce que le contenu du site est de qualité? Google veut rester pertinent et proposer l’information de meilleure qualité en haut de page.
Pour arriver à cette situation, Google à mis en place un algorithme (aka Google Panda) qui valide que vos contenus sont « uniques » et « pertinents » pour l’utilisateur. 2 exemples: Duplicate Content. "Techniques de référencement web" : les bonnes feuilles : "Techniques de référencement web" : les bonnes feuilles sur l'Ajax et le JavaScript. L'extrait qui suit est issu de l'ouvrage d'Alexandra Martin et de Mathieu Chartier, "Techniques de référencement web : Audit et suivi SEO" qui vient de paraître chez Eyrolles.
Il s'agit plus précisément d'un passage du chapitre "Facteurs Bloquants et pénalités Google" concernant l'Ajax et le JavaScript non optimisés. Plus d'informations sur l'ouvrage et ses auteurs sur la dernière page "En savoir plus" de ce dossier. Des codes en JavaScript peu ou mal optimisés peuvent causer des problèmes de lecture pour les robots des moteurs de recherche.
Le langage Ajax étant fondé sur JavaScript et XML, il subit les mêmes conséquences et posent aussi ses propres problèmes en matière de compréhension par les crawlers. En réalité, deux principaux soucis se posent lorsque nous utilisons JavaScript ou Ajax : des liens sont incompris voire illisibles pour les robots et ne peuvent donc pas être suivis ; Ajax donne du fil à retordre. SEO & start-ups : 4 erreurs qui vous empêchent de tirer du trafic des moteurs de recherche. Le SEO est souvent une partie délaissée de plein gré ou par manque de temps par les start-up qui préfèrent se tourner vers des leviers d’acquisition plus facilement contrôlables, comme le référencement payant, ou sur l’amélioration de leur produit. lire les recommandations de Google Les résultats naturels représentent plus de 80% des clics des internautes et le taux de clic moyen d’une page dans le top 5 est de 22.9% (contre 7% de clic moyen sur une annonce adwords).
Le trafic potentiel que peut tirer un site internet du SEO est donc énorme, à condition de ne pas commettre l’une des erreurs suivantes. 1. Si vous souhaitez traduire le contenu de votre site ou de votre blog, ne choisissez pas les paramètres d’URL pour gérer l’affichage des différentes langues de votre site. Par exemple, la structure est préférable à Pourquoi ? Pour aller plus loin : lire les recommandations de Google 2. Pourquoi ? 3. Pourquoi ? 4. Pourquoi ? SEO : vers un Big Bang du Web Mobile ? Google l'a annoncé : A partir du 21 avril, il utilisera le critère "mobile-friendliness" comme signal de positionnement. Ce changement touchera toute requête mobile dans le monde. Quelques conseils pour se préparer. Depuis quelque temps déjà, la fameuse notion de mobilité est devenue un véritable cheval de bataille pour Google. Ce dernier met l’accent, avec sa subtilité légendaire, sur l’importance de la capacité de nos sites à s’afficher et à être bien exploités sur mobiles.
Des critères bientôt clés pour optimiser sa visibilité. Dès juin 2013, Google constatait déjà que les utilisateurs de smartphones représentaient un segment important et prometteur. L’histoire s’est poursuivie en 2014, où Google a commencé à tester un affichage spécifique servant à indiquer si un site était « mobile-friendly », ou pas.
En même temps, le moteur de recherche nous propose un certain nombre d’outils pour que nos sites s’affichent bien sur mobile et surtout, qu’ils se positionnent bien dans ses résultats. Quelles évolutions pour le SEO en 2015 ? Voici quelques prédictions relatives aux évolutions des usages, des moteurs de recherche et donc du SEO en 2015... Non le SEO n'est pas mort ! Au pays de Google, on prononce souvent l’expression : « hindsight is 20-20 », voulant dire qu’il est facile de « prévoir » le passé. Pour 2014, nous savons tous que dans la ménagerie de Google, il y a eu toujours plus de pingouins, de pandas, voire même des pigeons (et oui) ou des colibris… N’importe quel spécialiste du SEO pourrait nous dire que 2014 était l’année où Google a commencé à regarder ou à crawler les pages comme un internaute, ne tenant compte que de ce qui est directement visible dans la page sans cliquer.
Le moteur, on le sait, a également commencé à nous indiquer directement dans ces résultats si un site est optimisé pour les mobiles. L’année du mobile Le contenu est roi Encore une prédiction qui ne date pas forcément de cette année. « Content is king ». On a trouvé la boîte noire Le linking ne sera plus jamais comme avant. Pages 404 : et si elles n’étaient pas si inutiles que ça ? Ne vous est-il jamais arrivé de pester devant une erreur 404. Rares sont les sites qui en sont exempts. Avez-vous déjà mesuré l’impact de ces pages sur votre trafic ? Pour ne pas que ce trafic parte à la poubelle, voici quelques pistes. Si vous avez un restaurant ou un magasin et que vous partez sans arrêt à la pêche sans prévenir, les clients potentiels qui se sont déplacés chez vous et qui se cassent le nez ne reviendront jamais.
Tout le monde sait cela. Sur le web c’est pareil, pour les internautes et pour les moteurs, qui ont tous horreur de perdre du temps. Sauf si vous faites le nécessaire pour que votre page 404 soit un moyen de récupérer et de réorienter le trafic et de capter l’attention de vos visiteurs. Page 404 : état des lieux et bonnes pratiques Les bonnes pratiques en termes d’ergonomie et de navigation sur un site web impliquent que l’on travaille cette page comme n’importe quelle autre. . - Les pages non-personnalisées - Les pages personnalisées à minima Cela peut passer par : Les bonnes pratiques de désindexation de contenus. Dans le cadre d'une approche globale SEO, l'indexation des URLs est un KPI stratégique. Un éditeur de site aura pour objectif d'indexer un maximum de contenus dans les moteurs de recherche. Pourquoi parler de désindexation ? Pour orienter les visiteurs vers des pages qui représentent un réel intérêt et surtout prioriser une indexation "utile" des contenus que l'on souhaite mettre en avant.
La question de la désindexation d'URLs peut se poser dans différents cas de figure : refonte web, contenus obsolètes, pages non stratégiques,...autant de situations qui vont nécessiter, selon le volume de données à traiter, la mise en œuvre de directives associées à la désindexation. Les bienfaits de la désindexation de contenus il m'est déjà arrivé de constater sur un site à fort volume de contenus qu'un nombre important d'URLs obsolètes ou non stratégiques apparaissaient dans les pages de résultats des moteurs de recherche. Identifier les contenus à désindexer Exemples de questions clés à se poser :
J-5. Google bientôt "mobile-friendly" : faut-il foncer vers le Responsive ? Un design Responsive a des avantages, mais ce n'est pas la panacée. 5 jours avant la mise à jour de Google, voici 2 erreurs souvent vues lors des migrations vers le responsive. J-5. Ce 21 avril, les résultats que va remonter Google sur les mobiles vont privilégier les pages optimisées pour ces terminaux, c'est-à-dire celles qui bénéficient du label "site mobile" (aussi appelé "mobile-friendly"). Alors que cette mise à jour se rapproche, le Responsive Web Design peut apparaître comme la solution idéale. Officiellement recommandée par Google, cette solution offre clairement d'attractifs avantages, mais elle n'est pas idéale non plus, et certaines erreurs sont souvent commises lorsque ce design est adopté.
En voici deux, sans doute parmi les plus vues, mais ce n'est pas exhaustif... Elles ont été soumises à Aymeric Bouillat, consultant chez Résonéo également connu pour son blog technique spécialisé dans le SEO yapasdequoi.com. Et si Google pénalisait les sites mobiles trop lents ? Fin février 2015, une étiquette rouge "slow" est apparue dans les résultats de Google sur les sites jugés "lents". Décryptage. Google réalise régulièrement des tests dans son moteur de recherche.
Fin février 2015, une étiquette rouge « slow » est apparue sur les sites jugés « lents » pour prévenir les mobinautes avant qu’ils ne s’engagent à télécharger les pages. Une mesure intéressante pour les utilisateurs mobiles, qui doit faire réfléchir les concepteurs de sites. Car, si toutes les mesures testées ne sont pas mises en place par Google, un certain nombre finit par voir le jour. Et la vitesse d’affichage des pages est déjà prise en compte parmi les 200 facteurs de positionnement d’un site internet pour le classement des résultats d’une recherche dans Google.
Que la performance web devienne une priorité des e-commerçants n’est pas une mauvaise chose, surtout lorsqu’on étudie le comportement des internautes face à la lenteur d’un site. ² Source. Comprendre les mises à jour & pénalités de l'algorithme de Google. Le fonctionnement de Google a beaucoup évolué depuis les 10 dernières années. Il est intéressant de s'intéresser de plus près aux bases de son fonctionnement afin de comprendre ce qu'est réellement une pénalité.
Google bot, index & algorithme Lors du crawl d’un site internet, le Google bot lit les différents éléments de la page (code html, texte…). Il suit également les différents liens (internes et externes) représentant des sortes de « route ». L’indexation est un processus complémentaire mais totalement indépendant. Il consiste en la création d’une base de données mettant en relation les différents documents d’un site internet avec des groupes sémantiques repérés lors du crawl.Si l’on empêche un document d’être crawlé via le fichier robot.txt, il peut quand même être indexé.
Par contre, il ne se sera pas associé à un groupe sémantique – par extension, il ne sera pas accessible à partir d’une requête. Les pénalités Les pénalités manuelles Les pénalités algorithmiques Penguin Panda. Analyse des backlinks : les outils préférés de six SEO. Le JDN a demandé à six référenceurs les outils d'analyse de liens entrants qu'ils préfèrent utiliser, et pourquoi. Voici leurs réponses. Quels outils utilisez-vous le plus pour analyser les backlinks ? Quels sont leurs avantages et particularités par rapport aux autres outils du marché ? Telles étaient les questions posées par le JDN à plusieurs professionnels du SEO. Voici leurs réponses. Serge Esteves : "Ahrefs ou Majestic SEO pour les analyses avancées" "Pour des analyses rapides ou des pré-audits, j'utilise Searchmetrics qui a l'avantage de proposer une panoplie d'autres outils SEO, donc cela m'évite de basculer d'un outil à l'autre.
Pour des analyses plus avancées, pour étudier une pénalité Penguin par exemple, j'utilise Ahrefs ou Majestic [qui est plus connu sous son nom précédent : Majestic SEO, NDLR] ou encore à des outils qui font appel aux API de ces outils, comme Netpeak Checker ou simplement SEOTools pour Excel de Niels Bosma. Alexandra Martin : "Ahrefs a tout pour plaire"