Tip:
Highlight text to annotate it
X
Bonjour à tous.
Je suis Matt Cutts.
Aujourd'hui, nous allons parler
du "cloaking", des techniques de dissimulation.
Nous recevons beaucoup de questions sur le sujet.
De quoi s'agit-il ?
Comment Google le définit-il ?
Pourquoi est-ce risqué ?
Ce genre de choses.
On trouve beaucoup d'informations en ligne,
notamment sur les blogs.
Mais je tenais à faire une vidéo sur le "cloaking",
afin de répondre aux questions
et de présenter quelques règles d'or
de sécurité.
Tout d'abord, qu'est-ce que le "cloaking" ?
Cette technique consiste à présenter un contenu différent
aux internautes et à Googlebot.
Imaginez que vous avez un serveur Web.
Un utilisateur souhaite accéder à une page.
Voilà votre utilisateur.
Vous lui montrez cette page.
Tout le monde est content.
Maintenant, imaginez que Googlebot
souhaite accéder à la même page.
Vous la montrez à Googlebot.
La plupart du temps, les internautes
et Googlebot accèdent au même contenu.
Et tout le monde est content.
Le "cloaking" consiste à montrer un contenu différent
aux utilisateurs et à Googlebot.
Et c'est très risqué.
C'est contraire à nos consignes de qualité.
Recherchez "consignes de qualité" sur Google,
vous trouverez une liste exhaustive
de toutes les ressources vous permettant de déterminer
si vous prenez des risques.
Voyons cela plus en détail.
Pourquoi le "cloaking" pose-t-il problème ?
Pourquoi nous n'aimons pas ça ?
Il faut remonter aux débuts des moteurs de recherche,
lorsque des tas de gens utilisaient le "cloaking"
pour tromper tout le monde.
Par exemple, pour Googlebot, le serveur Web renvoyait
une page sur les dessins animés,
sur Disney ou autre.
Lorsqu'un utilisateur accédait à la même page,
le serveur renvoyait du contenu pornographique.
En recherchant des dessins animés Disney sur Google,
vous voyiez s'afficher une page qui semblait répondre à votre requête,
mais qui contenait en réalité du contenu pornographique.
C'est une très mauvaise surprise.
Les gens s'en plaignent.
C'est une fâcheuse expérience pour les utilisateurs.
Tous les types de "cloaking" sont donc contraires
à nos consignes de qualité.
Le "cloaking" bienveillant n'existe donc pas.
Nous sommes évidemment particulièrement attentifs
aux cas de tromperies les plus graves.
C'est là qu'intervient l'équipe de lutte contre le spam.
Mais tous les types de "cloaking" sont contraires à nos consignes.
Alors, quelles règles devez-vous suivre
afin d'éviter ce genre de problèmes ?
Pour détecter le "cloaking", prenez une page,
au moyen d'une requête Wget ou cURL.
Récupérez-la et prenez son empreinte.
Prenez tous les différents contenus
et réduisez-les à un seul chiffre.
Ensuite, prenez la place de Googlebot
avec un user-agent Googlebot.
Vous pouvez même "Explorer comme Googlebot"
dans les outils Google pour les webmasters.
En tant que Googlebot, récupérez la même page.
et prenez son empreinte.
Si les chiffres sont différents, ça peut être un problème.
Il est possible que vous vous trouviez
dans une zone à haut risque.
Mais les pages peuvent être dynamiques.
Elles peuvent contenir un horodatage, les annonces peuvent changer,
ce n'est donc pas une règle infaillible.
Une autre alternative serait de vous demander
si un élément du code de votre serveur Web
cherche à détecter la présence d'un user-agent
ou l'adresse IP de Googlebot
en particulier.
Car si vous agissez différemment
ou de manière inhabituelle pour Googlebot,
que cela concerne son user-agent ou son adresse IP,
Googlebot et les utilisateurs
ne voient peut-être pas le même contenu.
Cela représente un gros risque.
Pensez-y.
Une question souvent posée par les "chapeaux blancs"
qui ne souhaitent pas faire de "cloaking"
ni prendre de risques
concerne la géolocalisation et les user-agents des appareils mobiles,
comme les téléphones.
La bonne nouvelle,
c'est que vous n'avez pas à vous en préoccuper.
Voyons donc pourquoi la géolocalisation et les téléphones portables
ne relèvent pas du "cloaking".
Jusqu'à présent, nous avions un utilisateur.
Maintenant,
disons que celui-ci vit en France.
Puis prenons un autre utilisateur
qui vit au Royaume-Uni, par exemple.
Dans un monde idéal, si votre contenu est disponible
sur un domaine .fr ou .uk, ou dans d'autres langues,
si vous proposez une traduction,
cela sera très utile aux personnes avec une adresse IP française,
car elles pourront voir le contenu en français.
Ces personnes seront ravies.
Lorsqu'une requête arrive sur le serveur Web,
la géolocalisation vous permet de savoir
qu'il s'agit d'une adresse IP française.
Vous envoyez donc la version française,
ou redirigez l'internaute vers la version .fr de votre domaine.
Si un autre internaute utilise un navigateur en anglais,
ou que son adresse IP vient des États-Unis ou du Canada,
vous lui envoyez le contenu en anglais,
à moins qu'il ne vienne de Québec,
bien sûr.
Vous prenez donc une décision
en fonction de l'adresse IP.
Tant que vous ne créez pas un pays
auquel Googlebot appartient,
du genre le Googlandia,
vous ne faites rien de différent ni d'inhabituel
pour Googlebot.
À l'heure où nous tournons cette vidéo,
Googlebot explore à partir des États-Unis.
Vous pouvez le traiter comme n'importe quel utilisateur
provenant des États-Unis,
et lui envoyer du contenu en anglais.
Nous vous recommandons d'ailleurs de traiter Googlebot
comme un navigateur ordinaire, tel qu'Internet Explorer 7
ou tout autre navigateur souvent utilisé
pour accéder à votre site.
Donc la géolocalisation,
c'est-à-dire réagir en fonction des adresses IP,
ne pose pas de problème,
tant que vous ne réagissez pas uniquement
pour l'adresse IP de Googlebot.
Vous cherchez à optimiser l'expérience utilisateur
en fonction de l'adresse IP.
De la même manière,
si un internaute
utilise un téléphone portable,
et accède au site avec un iPhone ou un téléphone Android.
Vous pouvez vous douter qu'il s'agit d'un user-agent
totalement différent.
Il n'a pas du tout les mêmes capacités.
Vous pouvez répondre à ce user-agent
et lui envoyer une version allégée du site
plus lisible sur un petit écran.
Ici aussi, la différence,
c'est que, si vous traitez Googlebot comme un utilisateur d'ordinateur,
et que le user-agent ne détecte rien de différent ou d'inhabituel,
il n'y a aucun problème.
Vous examinez les capacités du téléphone portable,
vous envoyez une page adaptée,
mais vous ne faites rien qui prête à confusion.
Vous ne traitez pas Googlebot différemment,
en fonction de son user-agent.
Vous ne devriez donc pas avoir de problème.
La dernière chose dont je veux vous parler
s'adresse davantage aux utilisateurs avancés.
Certains se disent :
"Je n'utilise peut-être pas la chaîne exacte de user-agent
ni l'adresse IP exacte d'où provient Googlebot,
mais je pourrais vérifier les cookies.
Si un utilisateur ne répond pas aux cookies,
ou traite JavaScript de manière différente,
alors je m'adapte et j'aborde les choses différemment."
Dans ce cas, vous devez vous demander
s'il s'agit d'une excuse pour traiter Googlebot différemment
ou trouver un moyen de le segmenter
pour lui faire faire autre chose.
Donc, pour savoir si vous faites du "cloaking",
demandez-vous si vous traitez Googlebot et les utilisateurs de la même manière.
Dans l'idéal, nous devons accéder à peu près à la même page
que celle présentée à l'utilisateur.
Nous voulons que l'expérience de l'utilisateur final soit la même
s'il clique sur un résultat de recherche Google
ou s'il arrive directement sur la page.
Voilà pourquoi vous ne devez pas traiter Googlebot différemment,
et pourquoi le "cloaking" est une fâcheuse expérience,
contraire à nos consignes de qualité.
C'est pour cela que nous y prêtons attention.
Le "cloaking" bienveillant n'existe pas.
Nous voulons être certains
que l'utilisateur accède à la même page que celle vue par Googlebot.
J'espère que cette vidéo vous a été utile
et que vous comprenez mieux le "cloaking" et ses règles d'or.
Si vous devez retenir une chose de cette vidéo,
demandez-vous si votre code cherche à détecter
le user-agent ou l'adresse IP de Googlebot,
et si vous traitez ce dernier différemment.
Si vous le traitez comme tout autre utilisateur
et lui envoyez des pages en fonction de la géolocalisation,
si vous examinez les téléphones du user-agent,
tout va bien.
Si vous recherchez Googlebot en particulier,
et agissez différemment,
vous entrez alors dans la zone à haut risque.
Vous trouverez plus d'infos sur notre site Web.
Nous allons sans doute ajouter les liens correspondants
dans les métadonnées de cette vidéo.
J'espère que vous aurez compris
notre position par rapport au "cloaking", pourquoi nous le prenons au sérieux,
et comment nous en mesurons les effets
pour déterminer si un utilisateur a recours au "cloaking" ou non.
Nous regardons en priorité l'impact sur l'utilisateur final.
Quel que soit votre code, si des contenus
totalement différents sont renvoyés à Googlebot
et aux utilisateurs, nous allons certainement
nous y intéresser de plus près.
Merci.