background preloader

Robots.txt - Manuel d'implémentation

Robots.txt - Manuel d'implémentation

http://robots-txt.com/

Related:  # onlineSEO techniquecrawl et logs

Excel - la fonction Recherchev présentation La fonction RECHERCHEV d'Excel permet de faire exécuter au tableur une recherche dans un tableau de valeurs et de renvoyer la valeur trouvée dans une cellule déterminée à l'avance. On pourra, par exemple, faire trouver par Excel la désignation et le prix unitaire d'un produit en saisissant simplement sa référence. Comme le fait l'ordinateur central d'un hypermarché quand il renvoie la référence et le prix d'un produit dont le code-barres a été lu en caisse ou saisi par la caissière. Cette fonction peut avoir de nombreuses applications : facture, bulletin de salaire, base de données... Budget Crawl : Google nous explique sa vision Budget Crawl : Google nous explique sa vision 4.29 (85.71%) 7 votes Pour analyser un site web et mettre à jour son index, un moteur de recherche utilise des robots (ou agents, spiders, crawlers, etc.) qui vont parcourir toutes les pages d'un site en cliquant sur tous les liens rencontrés, sauvegardant à chaque étape le contenu de la page visitée.

18 tutoriels vidéo sécurité pour smartphones et internet (par la CNIL) La CNIL (Commission Nationale de l’Informatique et des Libertés) renforce son offre pédagogique en ligne avec l’ajout de vidéos récentes sur sa chaîne YouTube dédiée, notamment de tutoriels afin d’agir non seulement en internaute responsable, mais aussi de sauvegarder en tant que citoyens ses droits au respect de la vie privée et aux données personnelles : sécurisation des smartphones, achat en ligne, choix de mot de passe… Astuces et conseils La CNIL diffuse ainsi des vidéos courtes et explicatives en délivrant des conseils et astuces fort utiles sur des aspects de plus en plus importants du Web et de la mobilité prenant désormais une place grandissante dans la vie de tous les jours. Captures d’écran et points de vue de juristes et d’experts viennent compléter les explications claires et précises fournies dans ces modules mis à disposition de tous. Modules vidéos pédagogiques de la CNIL mis à disposition à ce jour Pour smartphones

Référencement naturel et Ajax Il y a quelques temps, j'avais réalisé un test sur la duplication des liens et ancres multiples . Je m'étais demandé quels sont les différents types de liens qui existent sur Internet. Les ancres et boutons qui génèrent du contenu de manière dynamique me sont donc venu en tête. A la suite de ce premier test, j'ai mis en place un test de référencement avec l'aide de . La réponse est plutôt équivoque : Oui, mais non... L'Ajax, c'est quoi ?

Robots d'exploration Google - Aide Search Console L'expression "robot d'exploration" désigne tout programme qui permet de détecter et d'explorer automatiquement des sites Web en suivant des liens d'une page à une autre. Notre robot d'exploration principal s'appelle Googlebot. Le tableau ci-après répertorie les caractéristiques des robots d'exploration Google classiques qui peuvent figurer dans les journaux de votre URL de provenance, ainsi que la manière dont ils doivent être indiqués dans le fichier robots.txt, dans les balises Meta pour les robots et dans les instructions HTTP X-Robots-Tag. Fichier robots.txt Lorsque plusieurs user-agents sont reconnus dans le fichier robots.txt, nous suivons le plus spécifique d'entre eux.

Exploration AJAX : guide destiné aux webmasters et aux développeurs - Centre d'aide Outils pour les webmasters Présentation générale Si vous utilisez une application AJAX avec du contenu que vous souhaitez voir apparaître dans les résultats de recherche, un nouveau processus, lorsqu'il sera mis en œuvre, permettra à Google (et éventuellement à d'autres moteurs de recherche) d'explorer et d'indexer votre contenu AJAX. Les applications AJAX sont connues pour être difficiles à traiter par les moteurs de recherche, car le contenu AJAX est produit dynamiquement par le navigateur, ce qui le rend invisible pour les robots d'exploration. Analyse et étude du Crawl Google pour le SEO via les logs Les logs serveurs, une existence depuis la nuit des temps ! Pourtant de manière visible, c’est depuis trois ou quatre ans qu’on a vu surgir certains articles à ce sujet, deux ans qu’on commence sérieusement à s’y intéresser et maintenant qu’ils se démocratisent totalement. Certains consultants ou agence SEO ne font d’ailleurs plus d’audit sur de gros sites sans ces données. Mais au fait, à quoi ça sert et comment ça marche ? C’est toujours aussi étonnant de voir comment un référenceur peut être un champion de la technique ou un littéraire dans l’âme. Ici, vous l’avez compris, sauf à avoir à disposition un mec qui te met en place le tout, il va falloir sortir le tournevis pour opter pour la bonne méthode d’analyse des données.

Comment utiliser le cloud sans risque Stocker films, photos, musique et données en ligne, c'est pratique. Mais ça peut aussi être imprudent. Nos conseils pour profiter du cloud, sans nuages. Référencement de pages en AJAX I - Ajax n’est pas une marque de lessive ! AJAX pour Asynchronous Javascript And XML regroupe un ensemble de technologies donnant la possibilité de servir des contenues web de façon asynchrone. Le terme AJAX a été introduit en 2005 par un américain du nom de Jesse James Garrett pour désigner l’architecture correspondante. AJAX est notamment utilisé pour permettre la mise à jour des contenues d’une page web depuis le serveur sans recharger le navigateur Internet. Crawl, data et vlookup : le super combo du SEO Mais encore ? Vlookup (recherchev) est donc une fonction intégrée aux tableurs (Excel). Ca peut aussi marcher avec d’autres comme open office, Google spreadsheet etc, mais attention, le nom de la fonction peut changer. Néanmoins le principe reste le même. L’idée étant de regrouper au sein d’un même tableau, des données issues de plusieurs tableaux différents, mais ayant des données en commun (bien souvent les URLs).

Redirection 301 La redirection 301 est définie dans le document RFC2616 qui dit qu' »une nouvelle adresse a été définitivement allouée à la ressource demandée et toute référence future à cette ressource DEVRAIT utiliser la nouvelle adresse inidiquée« . Les navigateurs modernes suivent automatiquement ces redirections 301. Ils affichent également la nouvelle adresse dans la barre d’adresse. Conformément à RFC2616, cette même nouvelle adresse sera celle éventuellement ajoutée aux favoris du navigateur. La norme recommande donc d’utiliser la redirection 301 quand le changement d’adresse d’une page est permanent.

Sprites CSS : performance et maintenabilité L’optimisation des performances des sites implique de diminuer le nombre de requêtes HTTP. Pour ce faire, il est possible de regrouper les images utilisées dans les CSS, cette technique s’appelle les sprites CSS. Présentation de la technique

Related: