Jump to content
Strawberry Orange Banana Lime Leaf Slate Sky Blueberry Grape Watermelon Chocolate Marble
Strawberry Orange Banana Lime Leaf Slate Sky Blueberry Grape Watermelon Chocolate Marble

Seo

  • entries
    14
  • comments
    0
  • views
    2,400

Contributors to this blog

Estrategias Seo On Page


Belleza

263 views

El concepto de SEO On Page se refiere al conjunto de técnicas que se aplican dentro de la página web para su optimización, el objetivo fundamental es hacer el código de la página lo más compatible posible con los algoritmos de los motores de búsqueda, a fin de facilitar el proceso de indexación y lograr el posicionamiento del sitio web en los primeros lugares de los resultados de los motores de búsquedas.

Uso de las palabras claves

Es una tarea fundamental buscar un buen conjunto de palabras claves que identifiquen el ramo de operación del sitio web. A continuación unos consejos para facilitar este proceso:

1. Identificar las palabras claves que usaría un usuario para conseguir su sitio web, por ejemplo si es un sitio relacionado con dietas, las palabras claves podrían ser: perder peso, ejercicios, etc.

2. Verificar la tendencia del uso de las palabras claves seleccionadas a través de la herramienta http://www.google.com/trends/

Optimización del contenido y código de la página

Una tarea muy importante para la optimización del código fuente y contenido de la página es la colocación de las palabras claves en las siguientes ubicaciones internas del sitio web (siguiendo con el ejemplo):

1.En el nombre del dominio ejemplo: www.dieta.com

2.En las URLs que componen el sitio, por ejemplo: www.dieta.com/perderpeso/

3.En las meta etiquetas: le indican al robot que indexa el sitio web las palabras claves mediante las cuales el motor de búsqueda ubicará el sitio web.

4.En el contenido: mientras más cantidad de contenido (artículos de calidad) se genere en el sitio web haciendo uso equilibrado de las palabras mejor será el posicionamiento.

Actualización Archivo Sitemap.xlm

El archivo Sitemap.xlm es usado por los rastreadores para ubicar las URL y agregarla a los índices de búsqueda de los motores.

Parámetros de Indexación Robot.txt

En el archivo robot.txt se parametriza todo lo relacionado con el proceso de indexación del sitio web: frecuencia de indexación, URLs que deben ser indexadas, accesos permitidos, etc.

Validación del código

Un código depurado y libre de errores es fundamental para lograr un buen posicionamiento, para diagnosticar un sitio web solo debe ingresar la URL en el siguiente link y hacer las correcciones recomendadas: http://validator.w3.org/

Velocidad de carga de la página

La velocidad de la carga de una página debe ser menor a 200 ms, una buena velocidad evita que el abandono verifíquela a través de http://developers.google.com/speed/pagespeed/insights/

0 Comments


Recommended Comments

There are no comments to display.

Guest
Add a comment...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
×
×
  • Create New...