Cloaking SEO : Pourquoi et comment mettre en place une stratégie de Cloaking ?

Dans un précédent article, je vous parlais de l’obfuscation de liens en SEO, il s’agit d’une technique permettant d’optimiser votre maillage interne et d’optimiser le positionnement de votre site sur les moteurs de recherche.

Aujourd’hui, nous allons plus loin. Je vais vous présenter les différentes techniques de Cloaking SEO et vous expliquer comment mettre en place ces stratégies.

Avant de commencer, je souhaite vous mettre en garder, l’utilisation des techniques de Cloaking avec pour objectif de présenter un contenu différent aux robots de Google et à l’internaute n’est pas approuvé par Google. En mettant en place ce genre de stratégie vous risquez une pénalité. Cependant, il existe d’autres cas où le cloaking peut être intéressant, en particulier quand il s’agit de cacher votre stratégie de netlinking à vos concurrents. Dans cet article, nous aborderons ces différents points.

Définition : Cloaking SEO

Le cloaking SEO (signifiant dissimulation en anglais) est une technique visant à présenter un contenu différent aux internautes et aux robots parcourant votre site internet. L’utilisation du cloaking pour présenter une version différente de la page aux robots de Google est strictement interdit et vous expose à une pénalité.

Dans la mise en place d’une technique de cloaking, il est possible de détecter la provenance de la requête à l’aide de critères tels que le User-Agent, l’adresse IP ou encore la localisation de l’internaute et de présenter une version différente de la page ou encore de mettre en place une redirection.

Le schéma suivant présente le comportement d’une page internet cloackée.

Pourquoi utiliser le Cloaking ?

Dans les prochaines sections, nous allons voir les cas d’usage du cloaking, il en existe d’autres, cependant, nous nous attarderons uniquement sur les deux cas les plus utilisés par les consultants SEO.

Cacher les liens à ses concurrents

Le premier cas d’usage consiste à cacher sa stratégie à ces concurrents. Aujourd’hui, de nombreux robots parcours le web afin de récupérer des informations sur votre contenu, sur votre stratégie de netlinking ou encore sur l’évolution de vos positions dans les moteurs de recherche.

On peut par exemple citer les outils tels de SEMRush, Majestic, Ahrefs, SEOBserver, Haloscan. Ces outils parcourent le web et analyse les pages afin de fournir des données. Cependant, ces données peuvent être utilisées par vos concurrents afin de connaître la stratégie que vous avez mise en place afin de vous positionner sur tel ou tel mot clé.

Lors de la mise en place d’une stratégie de cloaking, il est possible de cibler uniquement les robots en provenance de ces plateformes afin de cacher les informations que vous ne souhaitez pas rendre publique.

Un cas d’usage bien connu des experts en référencement naturel est de cloacker les liens sur les réseaux privés de blog (PBN, Private Blog Network). En dissimulant les liens réalisés sur ces réseaux à l’aide des techniques de cloaking. Cela empêchera vos concurrents de connaitre la provenance de vos liens et rendra plus difficile l’analyse de votre stratégie. Si vous en avez la possibilité, cacher les liens aux plateformes d’analyse de netlinking peut être une bonne pratique afin d’éviter de révéler au grand jour votre stratégie.

Induire en erreur les moteurs de recherche

Bien que je puisse recommander le premier cas d’usage, je ne recommande pas de mettre en place des stratégies de cloaking visant a tromper les robots des moteurs de recherche. Cela peut être fait à des fins de recherche afin de mieux comprendre le fonctionnement des robots, mais en aucun cas vous ne devez utiliser cette technique sur vos money sites. Si Google ou tout autre moteur de recherche détecte l’utilisation de ces techniques, vous risquez une forte pénalité et le rapport risque/récompense n’est pas en votre faveur.

L’utilisation des techniques de cloaking à destination des robots des moteurs de recherche est considéré comme une technique dite « Black hat » qui ne devrait être utilisé qu’à des fins de recherche et développement.

La mise en garde étant faite, je vais tout de même vous proposer quelques cas d’usage pour induire en erreur les moteurs de recherche :

  • Cacher les textes pour les internautes : si un robot arrive sur votre site internet, présentez-lui une page avec un contenu très optimisé pour le référencement naturel, ne prenant pas en compte les considérations d’expérience utilisateur. S’il s’agit d’un humain, présentez-lui une page optimisée pour la conversion. L’utilisation de cette technique vous permettra de séparer votre page en deux versions, une qui favorisera votre positionnement sur Google, une autre qui optimisera votre taux de conversion.
  • Mise en place de redirection cachée : une version encore plus simple consiste a mettre en place une redirection vers un autre site si un internaute arrive sur votre page et à présenter une page optimisée pour le référencement s’il s’agit d’un robot. Vous pouvez par exemple rediriger l’internaute vers une page d’affiliation.

Les différentes techniques de Cloaking

Maintenant que vous êtes mis en garde (je ne le répéterai jamais assez) et que nous avons vu quelques cas d’usage, je vais vous présenter trois techniques pour permettant de mettre en place des techniques de cloaking.

Pour les personnes utilisant WordPress, j’ai mis à disposition il y a quelques années un plugin WordPress SEO Content Cloacker, qui fonctionne toujours aujourd’hui, vous pouvez vous rendre sur le répertoire de plugin de WordPress et l’installer sur votre site internet.

Cloaking basé sur le User-Agent

La méthode la plus simple pour la mise en place d’un cloaking est d’utiliser le User-Agent. Lors de chaque requête effectuée à un serveur, le navigateur ou le robot envoie des informations dans le header de la requête permettant de l’identifier. Il est alors possible de récupérer cette information et de modifier le comportement du serveur et de la page web en fonction de cette valeur.

Attention cependant, il est facile de modifier le User-Agent et en utilisant cette technique, il y a des risques que d’autres robots ou d’autres internautes tentent de se faire passer pour les Google Bot ou les robots des outils afin d’e comprendre le fonctionnement de votre d’analyser le comportement de votre page. Cependant, dans la très grande majorité des cas, un cloaking à l’aide du User-Agent vous permettra de réaliser des taches simples.

La méthode est la suivante :

  • On analyse la requête HTTP afin de récupérer le HTTP_USER_AGENT
  • On compare le User-Agent à une base de données afin de détecter la provenance de la requête
  • On adapte le comportement de la page en fonction.

Pour vous aider, vous pouvez télécharger un fichier indiquant une liste des User-Agent des différents robots utilisés par les outils SEO : télécharger le fichier

Ensuite, vous pouvez vous inspirer de la fonctionne suivante :

function isSeoCrawler(){
	$userAgent = $_SERVER['HTTP_USER_AGENT'];
	// Récupérer la liste des User-Agent
	$seoCrawlers = getSeoCrawlersUserAgentList();
	$isSeoCrawler = false;
	foreach($seoCrawlers as $seoCrawler){
		if(preg_match("#".$seoCrawler."#isU", $userAgent)){
			$isSeoCrawler = true;
			break;
		}
	}
	return $isSeoCrawler;
}

Cette fonction vérifie si le User-Agent contient les termes indiqués dans une liste, s’il s’agit d’un robot SEO, alors la fonction renvoie true. Si vous souhaitez détecter les robots de Google, vérifiez simplement la présence de google ou google-bot dans le User-Agent.

Utilisation des IP et reverse DNS pour le cloaking

Comme évoqué, la première méthode est facilement falsifiable, afin de mettre en place un cloaking plus efficace, il est possible d’utiliser une méthode basée sur l’adresse IP de l’internaute ou du robot. Pour ce faire, nous allons prendre l’adresse IP tentant d’accéder à la page du site internet, puis nous allons effectuer une action de reverse DNS afin de récupérer le nom d’hôte, si le nom d’hôte correspond au nom d’hôte des IP de Google, alors nous pouvons savoir s’il s’agit des robots de Google.

function isGoogleBot(){
    $remoteAddr =  $_SERVER['REMOTE_ADDR'];
    $host = gethostbyaddr($remoteAddr);
    $ipFromHost = gethostbyname($host);
    if($remoteAddr != $ipFromHost){ return false; }
    $isGoogleBot = false;
    $googleHosts = array(
        'google.com',
        'googlebot.com'
    );
    foreach($googleHosts as $dns){
    if(preg_match("#".$dns."#isU", $host)){
            $isGoogleBot = true;
            break;
        }
    }
    return $isGoogleBot;
}

Cette fonction est difficile à falsifier, ainsi, vous serez s’il s’agit en effet d’un robot de Google.

Comment vérifier que le cloaking fonctionne ?

Maintenant que nous avons vu comment mettre en place une technique de dissimulation, nous devons vérifier si cela fonctionne. Pour cela méthode la plus simple est d’utiliser les outils d’exploration de Google. Vous pouvez par exemple vous rendre dans le test de Pagespeed insight afin de voir la version de votre page ou de votre site internet que voit Google. Vous pouvez utiliser différents outils dans la Search Console de Google, l’outil de test des données enrichies, etc.

Mise à jour 10 juin 2024
Besoin d'aide pour votre SEO ?

Vous souhaitez améliorer vos positions sur Google et générer du trafic qualifié à l’aide du référencement naturel SEO, nous sommes là pour vous accompagner.

Agence SEO
Nicolas Trimardeau
Depuis 2004, je parcours le web et fais des tests pour comprendre les algorithmes de Google. Je vous partage mon expérience du SEO et du SEA pour vous aider à exploiter correctement le pouvoir du plus grand moteur de recherche du monde.