Cloaking: el enemigo de una buena estrategia de SEO
El cloaking es un término inglés que se puede traducir como “encubrimiento” y que denomina a una táctica por la cual un servidor, desde el mismo URL, muestra al crawler de un buscador una versión de la página distinta a la que le muestra al usuario. Este método de SEO black hat que, contrapuesto al SEO white hat denomina a todas aquellas estrategias engañosas, se usa para mejorar de forma poco ética el ranking de una página, y es por eso que Google y otros buscadores lo consideran un incumplimiento de sus directrices de calidad. En honor de la verdad hay que reconocer que no siempre se trató de una táctica de manipulación.
Orígenes del cloaking
Aquellas páginas web cuyo contenido está compuesto principalmente de gráficos, vídeos o animaciones flash se posicionan, en general, bastante mal en los resultados de los buscadores. El contenido multimedia, atractivo para muchos usuarios, solo puede ser leído por los motores basados en texto en su estructura básica. Mediante el cloaking se puede compensar este hándicap y, en lugar de mostrar al crawler la página original, se le muestra una descripción de los contenidos de la imagen o del vídeo, es decir, una página en forma de texto puro. Los motores de búsqueda pueden procesar estos contenidos más fácilmente y, por lo tanto, indexarla y clasificarla correspondientemente. Pero esta edición selectiva de distintas versiones de una página alberga un alto potencial de fraude.
El cloaking como maniobra capciosa
Es muy frecuente encontrar páginas que usan métodos de cloaking para mostrar contenidos al buscador que no se muestran al usuario en absoluto. Tal intento de manipulación se entiende muy bien a la luz de la página web ficticia de un casino:
Para aumentar su visibilidad en Internet, el proveedor de un casino online muestra al crawler del buscador contenido sobre juegos de mesa, aunque a los visitantes solo se les ofrece juegos de azar de pago. Como consecuencia y a causa de la información falsa, el motor clasifica esta página bajo los juegos de mesa y la muestra erróneamente cuando se realiza una búsqueda según estos términos. Esto es causa de irritación en los usuarios que fueron llevados a esta página y reduce, por tanto, la usabilidad del buscador.
Para evitar este tipo de trucos, los buscadores combaten el cloaking con dureza. Google ha creado un equipo especializado en webspam para estos casos, y los webmasters que usan este tipo de métodos y son descubiertos pueden contar con una exclusión de su proyecto del índice de búsqueda.
Cómo se lleva a cabo el cloaking
Los administradores de páginas web que siguen métodos black hat utilizan, por regla general, dos técnicas diferentes:
Agent name delivery (entrega por nombre del agente)
El acceso a una página web tiene lugar, por lo general, a través de un denominado user agent, que puede ser un programa cliente como un navegador web o un programa automatizado como la araña de un buscador. Estos se identifican mediante un nombre específico (agent name), lo que permite a un servidor web ajustar los contenidos solicitados a cada navegador gracias a hojas de estilo optimizadas. La agent name delivery constituye, de esta manera, el fundamento para una visualización optimizada a cada terminal. Este procedimiento se convierte en cloaking cuando los webmasters integran ciertos mecanismos que reaccionan de forma especial ante agent names de crawlers conocidos como el Googlebot y le entregan contenido diferenciado. Para evitarlo, los buscadores hacen pasar al robot por un navegador corriente.
IP-Delivery (entrega por dirección IP)
Además del agent name, la dirección IP también permite categorizar a los visitantes de una página web y entregarles contenido especial. Este procedimiento se usa, por ejemplo, en el marco del geotargeting o segmentación geográfica y sirve para mostrar a los usuarios versiones en distintos idiomas de la web u ofertas de interés regional. La IP delivery pasa a considerarse cloaking cuando se muestran contenidos hechos a medida de la dirección IP estándar de un crawler de un buscador. Pero esta técnica de SEO deshonesto solo funciona cuando este bot usa siempre la misma dirección IP. Es por eso que, entretanto, la mayoría de buscadores, para esquivar este truco, cambia las direcciones IP regularmente.
En un vídeo oficial al respecto, Matt Cutts, antiguo director del equipo de webspam de Google, remarca que el geotargeting basado en IP y la adaptación de contenidos a user agents móviles no representan ningún tipo de cloaking, sino que son medidas que apuntan a una mayor usabilidad. En consecuencia, para Google no es relevante si un usuario en Francia recibe, debido a ajustes de idioma, otros contenidos diferentes a los que recibe un visitante de Estados Unidos si se corresponden con lo que el crawler ha encontrado durante su examen de la página.
Recomendaciones para webmasters
Google comparte con administradores web que quieran evitar los riesgos de un cloaking involuntario dos consejos fundamentales:
- El contenido web ha de prepararse de tal manera que tanto el usuario como la araña reciban siempre el mismo.
- Las líneas de código que van detrás del agent name o de la dirección IP de un crawler son sospechosas y, por ello, se han de evitar.
En definitiva, la elaboración de versiones especiales solo para los bots de contenidos difíciles de examinar por ellos no está permitido. En su lugar, las imágenes, los vídeos o las animaciones han de contar con una descripción del contenido en los meta tags correspondientes.
Para saber cómo ve una página el Googlebot visita la Search Console de Google.