Le cloaking est une technique d’optimisation utilisée par certains référenceurs et propriétaires de sites web, qui consiste à présenter un contenu différent aux robots et aux utilisateurs. Cette stratégie a pour but de se hisser plus rapidement et plus efficacement dans les premiers résultats de recherche naturels (liens bleus). Autrement dit, le cloaking est une technique visant à manipuler les crawlers de Google et des autres moteurs de recherche. Il s’agit donc d’une tactique de dissimulation interdite par tous les moteurs de recherche et considérée comme du Black Hat. Pourtant, de nombreux spécialistes continuent de l’utiliser. Que faut-il en penser ?

cloaking-black-hat

Sommaire :

Les différentes techniques de cloaking

Il existe plusieurs techniques de cloaking, certaines étant plus difficiles à déceler que d’autres. 

Le cloaking à partir du user agent 

Le cloaking portant sur le user agent est largement répandu mais figure pourtant parmi les plus risqués. Il s’agit simplement d’identifier le user agent du visiteur et d’adapter le contenu en fonction. Par exemple, si le système identifie que le visiteur est un humain et non un robot, la page affichée sera conçue pour l’humain (peu de texte, de belles images, etc.). En revanche, si le user agent est celui d’un robot, la page proposée sera ultra optimisée avec beaucoup de texte. On peut alors se demander pourquoi se compliquer autant la vie ? Tout simplement parce que parfois, SEO et UX ne font pas bon ménage. Positionner une page nécessite un contenu fourni et de qualité, ce qui nécessite une certaine expertise en termes de webdesign afin de ne pas proposer une page indigeste. Autrement dit, concevoir une page répondant aux exigences des robots ET des utilisateurs prend donc du temps. Il est plus rapide de scinder la page en 2 versions : une version visuelle soignée et une très brute avec le texte optimisé. Cette technique tend toutefois à disparaître tant elle est facilement détectable par les robots, notamment par le biais du CSS.

Le cloaking basé sur l’adresse IP

Chaque utilisateur accédant à un site web dispose d’une adresse IP basée sur sa localisation et son service internet. Il s’agit simplement d’une suite de chiffres, que nous pouvons apercevoir dans les logs. Le cloaking via l’adresse IP consiste à détecter une adresse IP et à adapter le  contenu en fonction des informations qu’elle révèle. Cette technique est généralement utilisée pour adapter le contenu selon la localisation de l’internaute. Il peut également s’agir de détecter le crawler d’un moteur de recherche pour lui proposer une page très bien optimisée. Ainsi, le bot “pensera” que la page est riche et pertinente et la placera potentiellement dans les premiers résultats de recherche. 

Le cloaking via Javascript, Flash ou Dhtml

Cette technique profite des différents paramètres des navigateurs. Lorsque le navigateur de l’utilisateur est compatible avec JS, ce dernier reçoit alors une version différente de celle d’un utilisateur dont le navigateur a désactivé le JavaScript. Cette méthode est quelque peu désuète dans la mesure où aujourd’hui, la question de l’activation ou la désactivation du JS ne se pose plus tellement. C’est d’autant plus vrai avec Flash.

Le cloaking old school avec du texte invisible

Il s’agit ici de la technique la plus “sale” et la plus risquée. Elle consiste simplement à ajouter du texte invisible (par exemple écrit en blanc sur fond blanc) et de le disséminer un peu partout dans la page. Si cela fonctionnait très bien il y a 10 ou 15 ans, c’est aujourd’hui une méthode révolue qu’il faut absolument proscrire. Google sait très bien repérer ces textes cachés. Sauf directive spécifique dans le robots.txt (à éviter), le CSS est accessible aux bots. Ils sauront donc très bien déceler votre petit subterfuge !

Le cloaking via le HTTP_Referer et l’HTTP Accept-language

Avec cette méthode, l’en-tête HTTP_REFERER du demandeur est vérifiée et sur cette base, une version différente de la page peut être présentée. La deuxième technique consiste à vérifier l’en-tête HTTP Accept-Language de l’utilisateur et sur la base du résultat de la correspondance, une version spécifique du site web est présentée. 

Le cloaking White Hat : des techniques intelligentes et tolérées

Le cloaking, quel qu’il soit, est contre les règles de Google. Toutefois, avec l’avènement du mobile, des méga menus et filtres à facettes, beaucoup de sites ont été rapidement confrontés à la difficulté de mêler SEO et UX. C’est pourquoi, certaines techniques ont vu le jour et sont à l’heure actuelle “tolérées” par Google, tant que celles-ci sont destinées à améliorer l’expérience utilisateur. Parmi les plus courantes, l’on retrouve le ciblage géographique. Il s’agit d’effectuer un ciblage géographique automatique pour aider à déterminer la provenance d’un visiteur et la page de la ville qu’il souhaite voir. Les robots sont quant à eux redirigés vers une page non géo-ciblée. C’est logique dans la mesure où les robots sont “partout et nulle part”.  L’obfuscation de lien est également une pratique de plus en plus courante considérée comme du cloaking White Hat (ou Grey Hat pour les plus frileux). Il s’agit de “cacher” certains liens internes aux robots dans le but d’optimiser le budget crawl. L’obfuscation est particulièrement pertinente pour les sites qui disposent d’une navigation à facettes qui est souvent à l’origine des centaines voire de milliers de pages qui “consomment” du crawl, sans générer de visites SEO. Cacher ces liens internes aux robots permet donc de focaliser le crawl sur les pages réellement stratégiques, tout en laissant des suggestions de filtres aux utilisateurs. En d’autres termes, on aide Google à trouver les pages les plus pertinentes, c’est ce qu’il souhaite, non ?

Les risques encourus et les sanctions de Google

Le cloaking Black Hat peut donner lieu à de sévères pénalités algorithmiques ou manuelles de la part de Google mais aussi des autres moteurs de recherche. Elles peuvent toucher une partie de votre site (celle concernée par le cloaking) ou votre site en entier. Autrement dit, à jouer avec le feu, vous pouvez donc faire brûler toute la maison ! En 2020, le cloaking Black Hat est donc réservé aux experts et/ou aux sites “secondaires” que vous utilisez par exemple pour faire des liens. En aucun cas vous ne devez vous lancer dans le cloaking sur votre “money” site ! Si aujourd’hui certaines techniques arrivent encore à tromper la vigilance de Google, nous ne savons pas de quoi demain sera fait. 

Conclusion

En matière de SEO, il y a deux écoles : les adeptes du Black Hat et les SEO “bio”. Certains n’hésitent pas à prendre tous les risques tandis que d’autres suivent scrupuleusement les guidelines de Google. Dans tous les cas, si vous ne possédez pas une expertise technique avancée, nous vous déconseillons de vous lancer dans de tels chantiers. En effet, bien que très tentantes, les différentes techniques de cloaking présentent aujourd’hui plus de risques que de bénéfices. Vous pouvez toujours utiliser les techniques White et Grey Hat, moins dangereuses et assez efficaces. Cela demandera néanmoins une veille active afin de vous assurer que Google ne durcit pas les règles entre temps ! 

   Article rédigé par Louis Chevant

Complétez votre lecture

Le guide complet du Maillage interne

La méthode pas à pas pour construire vos cocons sémantiques, votre maillage et l’arborescence optimale de votre site web.