La siguiente no intenta ni debe ser tomada en cuenta como una completa guía SEO; sirve, simplemente, a los efectos de repasar conceptos y mantenerse al día con las buenas prácticas de optimización Web de cara a los motores de búsqueda.


La competencia dentro de los resultados de búsquedas orgánicas—en Google—es tan alta, que requiere de la implementación de más y mejores prácticas de optimización para que nuestras páginas Web o la de nuestros clientes estén visibles en el día a día.

Sobre como llevar a cabo esta optimización es de lo que trata el SEO (acrónimo de Search Engine Optimization). Y este trabajo se lleva a cabo; tanto en la página (on-page) como fuera de ella (off-page).

El primer aspecto a considerar es trabajar tanto con el título de la página (title) como con la descripción del documento (etiqueta meta description). Ya que esta información es la que ve el usuario en los resultados de búsquedas orgánicos o SERP (acrónimo de Search Engine Ranking Position).

Y esta etapa no es menos importante que las demás; especialmente porque la persona que busca, cuando llega a este estadio, ya está accediendo a los contenidos de nuestro sitio Web sin siquiera habernos visitado. Lo lee desde la páginas de resultados del buscador.

En este nivel, también se encuentra la arquitectura interna de URLs que estemos utilizando; y si la misma contiene las palabras claves por las cuales competimos entonces estaremos trabajando de cara una optimización con URLs amigables. Y este es otro punto que el usuario que busca contenidos visualiza en los resultados de búsquedas.

Cuando en SEO se habla de una arquitectura de URLs me gusta hacer énfasis en la simpleza de la misma. Pocas niveles de carpetas, mucho contenido; pero nunca y de ningún modo al revés.

Los crawlers o bots rastrean los contenidos a través de los enlaces. De este modo debemos asegurarnos de proporcionar al menos un enlace desde un documento A para llegar a un documento B. Y es una buena práctica facilitar a los bots un mapa de nuestro sitio (aka sitemap.xml) para los mismos entiendan la estructura del sitio Web. Tiene una excelente valor agregado ofrecer esa arquitectura a nuestros visitantes; pero las personas prefieren un HTML por delante de un archivo XML

Por ello mismo, así como el archivo sitemaps.xml es descriptivo—aunque no mandatario, en cuanto a indexación—contamos con una potente herramienta que si es restrictiva y es el archivo robots.txt

Este archivo contiene las directivas, generales o particulares, sobre las instrucciones que damos a los spiders al respecto de qué carpetas y/o archivos no deseamos que sean indexados en los motores de búsqueda.

3 enlaces que dejo a título de recomendación, tanto de lectura como de uso:

.- Herramientas para Webmasters
.- Directrices para Webmasters
.- Qué hay que saber antes de contratar a un SEO

Autor: Daniel Ulczyk es consultor SEO y diseñador Web freelance; desarrolla sus actividades desde Diseniorweb y es autor del blog Utilidades para Webmaster, puedes seguir su actividad a través de su cuenta de Twitter y .
Autor: . Consultor y auditor en posicionamiento web. Desarrollo de aplicaciones, diseño y programacion de plataformas y paginas web. Formación, profesor en el Programa SmmUs (Social Media Marketing) de la Universidad de Sevilla. Cursos sobre social media en Cámaras de Comercio de Málaga, Sevilla y Córdoba. Puedes encontrarme en Google Plus y Twitter .

¿Te gustó este post? No te pierdas los próximos, síguenos en redes sociales.

Te recomendamos también

3 comentarios:

  1. Interesante artículo. Solo mencionar que las meta keyboards no son tomadas en cuenta ni por Google ni por Bing por lo que es irrelevante colocarlas en nuestra web.

    Saludos

    ResponderEliminar
  2. Es cierto Carlos; por eso mismo—en el gráfico—están del lado de "bajo valor"
    Saludos!

    ResponderEliminar
  3. Cuanto sabes Daniel.
    Muchas gracias.
    Saludos

    ResponderEliminar