Posicionamiento SEO

La eterna pregunta que me hacen cada vez que le digo a alguien que me dedico al posicionamiento SEO. ¿Cómo se hace para aparecer en las primeras posiciones de Google? Suelen hacerme la pregunta como esperando que por arte de magia les diga qué botón pulsar y lo puedan hacer en sus páginas. Cuando les explicas algunos de los muchos factores que Google valora de cara al posicionamiento natural, la cosa cambia.

Para empezar, cuando se va a realizar un trabajo nuevo de posicionamiento, es necesario realizar un análisis exhaustivo de la página web que queremos posicionar con el fin de detectar posibles problemas que nos dificulten o incluso penalicen y ver qué factores son los que debemos trabajar para conseguir ese ansiado número 1.

En este post, os voy a mostrar los factores que las herramientas que empleo tienen en cuenta dentro de la fase de análisis. Se dividen en 6 grandes grupos: Indexación y rastreabilidad, Redirecciones, Enlaces, Codificación y factores técnicos, URLs y dentro de la página.

INDEXACION:

  • Paginas con código de estado 4xx: Los errores 4xx apuntan a errores del sitio web. Si tienes algún enlace roto en la página y un visitante pulsa en él, debería ver un error 4xx. Es importante comprobar regularmente estos errores y corregirlos, debido a que pueden tener un impacto negativo y reducir la autoridad del sitio a ojos de los usuarios.
  • Página 404 configurada correctamente: Una página de error 404 personalizada puede ayudar a mantener a los usuarios en el sitio web. En un mundo perfecto, se debe informar a los usuarios que la página que está buscando no existe, y debe contar con elementos como un mapa de sitio en HTML, la barra de navegación y un campo de búsqueda. Pero lo más importante, una página de error 404 debe devolver un código de respuesta 404. Esto puede sonar obvio, pero por desgracia no es tan raro.
  • Páginas con código de estado 5xx: Los mensajes de error 5xx son enviados cuando el servidor ha tenido un error. Es importante monitorizar regularmente estos errores para investigar sus causas, ya que tienen un impacto negativo y reducen la autoridad de la página a ojos de los motores de búsqueda.
  • Archivo Robots.txt: El archivo robots.txt se rastrea automáticamente por los robots de los buscadores cuando llegan a tu sitio web. Este archivo debe contener comandos para robots, tales como las páginas que deben o no deben ser indexadas. Si deseas no permitir la indexación de algunos contenidos (por ejemplo, páginas con contenido privado o duplicado), sólo tienes que utilizar una regla apropiada en el archivo robots.txt. Para más información sobre estas normas, puedes echar un vistazo a http://www.robotstxt.org/robotstxt.html. Ten en cuenta que los comandos ubicados en el archivo robots.txt son más como sugerencias en lugar de reglas absolutas para robots. No hay ninguna garantía de que un robot no comprobará el contenido que tengas anulado.
  • Sitemap XML: Un sitemap XML debe contener todas las páginas del sitio web que deseas sean indexadas, y debe estar situado en el sitio web, en una estructura de directorios a poca distancia de la página de inicio (por ejemplo http://www.sitio.com/sitemap.xml). En general, sirve para ayudar a la indexación. Debes actualizarlo cada vez que agregues nuevas páginas a tu sitio web. Además, el mapa del sitio debe seguir una sintaxis particular. El mapa del sitio te permite establecer la prioridad de cada página, diciendo a los motores de búsqueda las páginas que se supone deben rastrearse con más frecuencia (es decir, que se actualizan con más frecuencia). Aprende cómo crear un mapa del sitio .xml enhttp://www.sitemaps.org/.
  • Páginas restringidas para la indexación: Una página puede estar restringida para la indexación de diferentes formas:
    • en el archivo robots.txt
    • por la etiqueta noindex X-Robots
    • por la etiqueta <meta> noindex.

Cada una de ellas es una línea de código HTML que le dice a los motores de búsqueda cómo manejar ciertas páginas del sitio web. Específicamente, la etiqueta dice a los motores de búsquedas si la página está autorizada para su indexación, seguir sus enlaces y/o archivar su contenido. Asegúrate de que las páginas con contenido único y útil están disponibles para su indexación.

REDIRECCIONES:            

  • Versiones www y no-www corregidas: Por lo general, los sitios web están disponibles con y sin “www” en el nombre de dominio. La fusión de ambas URL te ayudará a prevenir que los motores de búsqueda indexen las dos versiones de la página web. A pesar de que la indexación de las dos versiones no causará una penalización, el establecimiento de uno de ellos como prioridad es una buena práctica, en parte porque ayuda a canalizar el valor SEO de los enlaces a una versión común. Puedes mirar para otro lado o cambiar tu versión principal actual en el archivo .htaccess. Alternativamente, se puede establecer el dominio preferido en Google Webmaster Tools.
  • Versiones duplicadas HTTP/HTTPS: Si las versiones HTTP y HTTPS de tu web no están correctamente configuradas, ambas pueden ser indexadas por los motores de búsqueda y causar problemas de duplicidad. Para solucionar este problema se recomienda establecer una versión como prioridad. 
  • Páginas con redirección 302: Las redirecciones 302 son temporales, así que no pasan nada de jugo de enlace (Link Juice). Si las utilizas en vez de las 301, los motores de búsqueda continuarán indexando las viejas URLs, y descartarán las nuevas como duplicados. O puede que dividan la popularidad del enlace entre las dos versiones, dañando tus posiciones. Por esto es que no son recomendables si estás moviendo de forma permanente tu contenido. Utiliza una redirección 301 para preservar todo el jugo de enlace y evitar problemas por contenido duplicado. 
  • Páginas con redirección 301: Las redirecciones 301 son permanentes y normalmente son utilizadas para solucionar problemas de contenido duplicado o redirigir ciertas páginas que ya no son necesarias. La utilización de redirecciones 301 es totalmente legítima, y es una buena práctica SEO debido a que las 301 pasan el jugo de enlace de la vieja página a la nueva. Asegúrate de que rediriges tus viejas URLs a la páginas más relevantes. 
  • Páginas con rel=”canonical”: En la mayoría de los casos de URLs duplicadas se gestionan a través de redirecciones 301. Sin embargo, a veces, por ejemplo cuando el mismo producto se presenta en dos categorías con dos URL diferentes y ambos tienen que estar disponibles, se puede especificar qué página debe ser considerada una prioridad con la ayuda de etiquetas rel=”canonical”. Debe estar implementado correctamente dentro de la sección <head> e indicar la versión de la página principal que deseas sea posicionada en los motores de búsqueda.

ENLACES

  • Enlaces rotos: Los enlaces salientes rotos pueden ser una señal de mala calidad para los motores de búsqueda y los usuarios. Si un sitio tiene muchos enlaces rotos, pueden llegar a la conclusión de que no ha sido actualizado desde hace algún tiempo. Como resultado, el posicionamiento del sitio puede verse afectado. A pesar de que 1-2 enlaces rotos no causarán una penalización por parte de Google, trata de comprobar regularmente tu página web, repara los vínculos rotos (si lo hay), y asegúrate de que su número no sube. Además, a los usuarios les gustará más tu sitio web si no tienes enlaces rotos que apunten a páginas no existentes.
  • Páginas con número excesivo de enlaces: Según Matt Cutts (cabeza visible del equipo Webspam de Google), “… todavía hay una buena razón para recomendar mantener a menos de cien enlaces más o menos: la experiencia del usuario. Si usted está mostrando más de 100 enlaces por página, podría ser abrumador para sus usuarios y darles una mala experiencia. Una página puede parecer buena para usted hasta que se pone en el “sombrero del usuario” y ve cómo se ve la página siendo un nuevo visitante”. Aunque Google sigue hablando de la experiencia de usuarios, demasiados enlaces en una página también puede hacer daño a tu clasificación. Así que la regla es simple: cuantos menos enlaces en una página, menos problemas con sus posiciones. Así que trata de cumplir con las mejores prácticas y mantén el número de enlaces salientes (internos y externos) por debajo de 100.

CODIFICACION Y FACTORES TECNICOS

  • Optimizada móviles: De acuerdo con Google, el algoritmo móvil afecta a las búsquedas desde móviles en todos los idiomas del mundo y tiene un impacto significativo en los resultados de búsqueda de Google. Este algoritmo funciona sobre una base de página por página. No se trata de cómo de amigables son tus páginas para móviles, sino simplemente de saber si son amigables a móviles o no. El algoritmo se basa en criterios tales como tamaños pequeños de letra, objetivos de pulsación y enlaces, legibilidad de contenido, punto de vista, etc.
  • Páginas con código rel=”canonical” duplicado. El duplicado del rel=canonical en una página sucede con frecuencia por la combinación de plugins SEO que a menudo insertan un rel=canonical por defecto, y posiblemente pasó desapercibido para el webmaster que instaló el plugin. Haz una doble comprobación del código fuente de la página para localizar y corregir el problema. En caso de múltiples rel=canonical, Google es probable que ignore todos, por lo que tu esfuerzo para evitar problemas de contenido duplicado puede ser inútil.
  • Páginas con frames: Los Frames permiten visualizar más de un documento HTML en la misma ventana del navegador. Como resultado, el texto y los hipervínculos (las señales más importantes para los motores de búsqueda) parecen que faltan en este tipo de documentos. Si utilizas Frames, los motores de búsqueda no podrán indexar adecuadamente su contenido valioso.
  • Páginas con errores y alertas W3C: La validación se realiza generalmente a través del Servicio de Validación de marcado W3C. Y aunque cumplir con los estándares del W3C no es obligatorio y no tiene un efecto directo en el SEO, un mal código puede hacer que Google no indexe correctamente tu contenido más importante. Se recomienda comprobar las páginas para evitar errores de código roto para evitar problemas con los motores de búsqueda. 
  • Páginas demasiado grandes: Naturalmente existe una correlación directa entre el tamaño de la página y la velocidad de carga, que de hecho, es uno de los numerosos factores de posicionamiento. Básicamente, las páginas pesadas tardan más en cargar. Es por esto que existe una regla que nos aconseja mantener el tamaño del HTML por debajo de 256 Kb. Por supuesto, no siempre será posible. Por ejemplo, si tienes una página de comercio electrónico con un gran número de imágenes, tendrá a buen seguro más kilobytes, pero esto tendrá un impacto significativo en usuarios con una velocidad de conexión lenta.

URLs

  • URLs dinámicas: Las URLs dinámicas contienen caracteres como “?”, “_” y diversos parámetros que no son amigables con el usuario debido a que no son descriptivas y son difíciles de memorizar. Para incrementar las posibilidades de un buen posicionamiento, es mejor configurar las URLs para que sean descriptivas y contengan palabras clave, no números y parámetros. De acuerdo a la Guía de Webmasters de Google, “Las URLs deben ser limpias para una mejor práctica, y no contener caracteres dinámicos”. 
  • URLs demasiado largas: Las URLs más cortas de 115 caracteres son más fáciles de leer por los usuarios y los motores de búsqueda, y ayudará a mantener tu sitio web amigable con el usuario.

DENTRO DE LA PAGINA

  • Etiquetas título vacías: Si la página no tiene un título, o la etiqueta título está vacía (p.e. se verá así en el código: <title></title>), Google y otros motores de búsqueda decidirán qué parte del texto mostrarán como el título de tu página en los listados. De esta forma no tendrás control sobre lo que la gente verá cuando encuentren tu página. Así pues, cada vez que hagas una página web, no te olvides de crear un título con significado que sea atractivo a los usuarios.
  • Títulos duplicados: El título de la página es a menudo tratado como el elemento más importante en la página. Es una señal fuerte de la relevancia para los motores de búsqueda, ya que les dice lo que la página es realmente. Es, por supuesto, importante que el título incluya las palabras clave más relevantes. Pero más que eso, cada página debe tener un título único para asegurar que los motores de búsqueda no tienen problemas para determinar cuál de las páginas del sitio web es relevante para una consulta. Páginas con títulos duplicados tienen menos oportunidades de posicionar alto. Aún más, si tu sitio tiene páginas con títulos duplicados, esto puede influir negativamente en el posicionamiento de otras páginas. 
  • Títulos demasiado largos: Cada página debe tener un título único rico en palabras clave. Al mismo tiempo, debes tratar de mantener las etiquetas de título concisas. Títulos que tengan más de 55 caracteres quedarán cortados por los motores de búsqueda y se verán poco atractivas en los resultados de búsqueda. Incluso si tienes tus páginas en la página 1 en los motores de búsqueda, si tus títulos se acortan o están incompletos, no van a atraer a tantos clics como lo habrían hecho estando de otra manera.
  • Meta descripción vacía: A pesar de que las meta descripciones no tienen efecto directo en el posicionamiento, son muy importantes, ya que forman parte del fragmento que la gente ve en los resultados de búsqueda. Por lo tanto, las descripciones deben “vender” la página web para los buscadores y animarles a hacer clic en el enlace. Si la meta descripción está vacía, será el propio motor de búsqueda el que decidirá qué incluir en el fragmento.
  • Meta descripciones Duplicadas: Según Matt Cutts, es mejor tener meta descripciones únicas e incluso no tener meta descripciones, que mostrar descripciones duplicadas en sus páginas. Por lo tanto, asegúrate de que tus páginas más importantes tienen descripciones únicas y optimizadas.  
  • Meta descripciones demasiado largas: A pesar de que las meta descripciones no tienen efecto directo en el posicionamiento, son muy importantes, ya que forman parte del fragmento que la gente ve en los resultados de búsqueda. Por lo tanto, las descripciones deben “vender” la página web para los buscadores y animarles a hacer clic en el enlace. Si la meta descripción es demasiado larga, va a quedar cortada por el motor de búsqueda y puede parecer poco atractiva para los usuarios.

Como podéis comprobar, hay muchos factores a analizar antes de realizar incluso un presupuesto de posicionamiento web. Cada sitio web es un mundo y hay que tratarla de manera individualizada si queremos obtener los mejores resultados en buscadores.

Es un trabajo complejo y largo si no se tienen las herramientas adecuadas, por lo que siempre recomiendo acudir a alguien especializado que os hará ahorrar un montón de tiempo y dinero para hacer este trabajo.

Si te ha parecido interesante el post, compártelo en las redes sociales. ????