Archivos mensuales: septiembre 2015

Qué son las consultas automáticas en buscadores

Como punto inicial, es importante explicar qué son las consultas automáticas (o automated queries como son conocidas en inglés) y cómo pueden ayudar en el posicionamiento de un sitio web. Este tipo de consultas consisten en bombardear de forma automática (sin la intervención del usuario) algún motor de búsqueda para conocer cómo se está posicionando una web en concreto a partir de cierta búsqueda.

consultas-automaticas

Los datos arrojados a partir de las consultas automáticas son muy importantes de cara al estudio del posicionamiento que tiene un sitio web, sin embargo, el riesgo que se corre al utilizarlas es que el motor de búsqueda al que se está bombardeando detecte esta técnica y no sólo banee a los equipos que están lanzando las consultas por violar los términos de uso del buscador, sino que, incluso, puede llegar a penalizar al sitio web que está tratando de obtener la información.

Como solución a este problema existen dos aproximaciones:

  • La primera es completamente legítima, pero poco potente. Consiste en utilizar el API que la mayoría de motores de búsqueda ofrecen. Sin embargo, estas APIs suelen estar bastante limitadas con respecto al poder de consultas automáticas, ya que, por poner un ejemplo claro, Google limita el número de resultados a 1000 por consulta entre otras cosas.
  • La segunda aproximación no es más que jugar al gato y al ratón con los motores de búsqueda. Consiste en utilizar una serie de técnicas para ocultar que las consults se están produciendo de forma automática y parezca que están siendo llevadas a cabo por usuarios legítimos del buscador (sin violar los términos de uso). Una de estas técnicas consiste en que las consultas sean lanzadas por varios hilos y hacer que cada hilo no sólo no lance muchas consultas de forma consecutiva, sino también, hacer parece que cada hilo es un usuario legítimo distinto, esto se puede hacer mediante el uso de NAT (para que parezca que cada consulta viene de un ordenador distinto dentro de una misma subred), el uso de proxies, el uso de diferentes User-Agent en la cabecera HTTP. Cualquier solución puede ser válida, el principal problema es que las empresas que están detrás de la mayoría de los motores de búsqueda son suficientemente poderosas como para detectar este tipo de técnicas, y neutralizarlas rápidamente.

A pesar de todo, entre las APIs ofrecidas por los principales motores de búsqueda y otras herramientas como “Google Webmaster Tools” que ayudan a descubrir el posicionamiento de un sitio web concreto a partir de ciertas palabras clave (<em%gt;keywords</em>) no tiene mucho sentido utilizar las consultas automáticas, ya que, el valor que aportan no compensan el riesgo de utilizarlas.

Cómo eludir páginas web sospechosas en tu estrategia de marketing online

El administrador o autor de un sitio web no es responsable de los links entrantes que recibe. Por esta razón, en base a este principio, aunque existan páginas “dudosas” que enlacen una página corriente, ningún buscador podrá penalizar a ésta última. Si esto fuese posible, se abriría la posibilidad de que individuos o organizaciones con malas intenciones, crearan sitios web diseñados exclusivamente para ser vistos con malos ojos por ciertos motores de búsqueda e incluyesen enlaces a un sito web con intención de que se penalizase en las búsquedas de esos motores.

Sin embargo, ese administrador o autor sí es responsable de los contenidos enlazados desde su propia página y, por tanto, si un sitio web enlaza recursos que contienen spyware o cualquier otro tipo de malware, o sitios que intentan hacerse pasar por otros con intenciones fraulentas (phising), un motor de búsqueda podría penalizar esta página reduciendo su peso para el posicionamiento o eliminandola por completo del índice.

dudosa-reputacion

Por esta razón, es conveniente que los webmasters o autores de una página web, cuiden los enlaces que se colocan en su site, desconfiando de ofertas de intercambio de enlaces que provienen de desconocidos, o enlazando páginas con las que no son lo suficientemente familiares.

Existen algunos portales que contienen listas negras de sites que intentan instalar Malware. El propio Google tambien ofrece un servicio para comprobar si un site puede ser peligroso. Así mismo, existen varias listas de sites que realizan Phising para apropiarse de los datos secretos de usuarios incautos. Algunos de estos portales permiten incluso realizar comprobaciones basadas en rangos de direcciones IP o incluso en sistemas autónomos de Internet completos. No obstante, estas listas están muy lejos de la perfección, ya que la mayor parte de ellas tienen unas frecuencias de actualización bastante mediocre, debido sobre todo a la necesidad existente en algunos casos, de realizar verificaciones manuales de los site reportados como sospechosos.

Google advierte de penalizaciones en SEO

En la actualidad, alrededor de un 99% de las consultas de información en Internet se realizan utilizando un motor de búsqueda como punto de partida. El inmenso número de páginas web existentes hace que para cualquier búsqueda común se encuentren miles o millones de resultados. Por esa razón, uno de los aspectos fundamentales que determina la calidad de un buscador es la capacidad que éste tiene de ordenar los resultados según su relevancia para los términos de búsqueda introducidos por el usuario.

google-penaliza

Aunque la posición de un site concreto dentro de un conjunto de resultados es decidida de forma unilateral por el propio motor de búsqueda, existen ciertas técnicas cuyo uso puede aumentar sustancialmente las posibilidades de que un sitio web logre situarse en las primeras posiciones de la lista de resultados. Algunas de estas técnicas son legítimas y cuentan con el visto bueno de los buscadores, mientras que otras son consideradas málas prácticas SEO, que violan de forma directa sus códigos de buenas conductas o términos de servicio.

El objetivo de este sitio web es proporcionar información y documentación sobre todas aquellas prácticas en SEO, que no son recomendables y que los principales buscadores penalizan a la hora de posicionar un sitio web. Entre otros contenidos, pueden encontrarse los siguientes.

¿Por qué no posicionas haciendo SEO?

Esta es una típica pregunta que quien empieza a analizar su posicionamiento en Internetsiempre acaba haciéndose.

Despues de haber invertido en SEO Onpage, haber utilizado herramientas como Google Webmaster Tools para analizar que podemos mejorar de nuestra web vemos que hay otros websites con código sucio, pocos links entrantes, contenido mal estructurado etc. que se posicionan en primeros lugares para los criterios que queremos posicionarnos.

¿Nos está engañando nuestro SEO?

La respuesta es NO. Matt Cutts lo explica en el video de este artículo.

En resumen viene a decir que cuando analizamos los links que apuntan a una página no se muestran realmente todos los links, sino solamente una muestra. Esto es porque originariamente no disponian de un sistema de almacenamiento para hacerlo y, por defecto esto ha quedado así.

Por lo tanto la respuesta a la pregunta ¿Porqué mi web optimizada para SEO esta por debajo de otras que no lo están? es muy sencilla:

Dicha web debe tener algún Link de una página web con una elevada reputacion para Google y que cuando analizamos los links que apuntan a dicha web no aparece por los motivos expresados anteriormente.

Es cierto que Google premia un buen código orientado al SEO pero si tiene que elegir entre una web orientada al SEO pero cuyo contenido sea peor que una web no tan orientada al SEO pero con un un contenido más útil para el usuario posicionará mejor la segunda.

De este post debemos sacar entonces varias conclusiones:

  • La famosa frase de “El contenido es el Rey”
  • La importancia de tener una buena estrategia de Linkbuilding

Dadas las últimas acciones de Google enfocadas a dar importancia a las Redes Sociales, me aventuro a decir que en un futuro cercano poco a poco Google empezará a incluir muy en serio en su algoritmo parámetros relacionados con las recomendaciones en Redes Sociales (ya lo hace), con el objetivo de mejorar la gran subjetividad que tiene el hecho de valorar un contenido como bueno o malo.

Esto me hace pensar que no me equivoco al pensar que el término SOCIAL MEDIA (cada vez más escuchado) se va a imponer en un breve periodo de tiempo.