¿Cómo posicionar correctamente tu sitio web en Internet?

¿Cómo posicionar correctamente tu sitio web en Internet?

Hacer un sitio web y que sea visible desde un explorador no nos garantiza que alguien más que nosotros lo esté viendo, para segurar que los usuarios de los buscadores como google, bing, yahoo y otros puedan encontrar nuestro sitio web y que tenga un buen posicionamiento web SEO, debemos incluir cierto tipo de código dentro de nuestro sitio web y aplicar varias técnicas para que dicho objetivo sea cumplido.

Primero, tener un contenido original, nada hace más atractivo un sitio web que un contenido innovador, que le sirva de algo a los usuarios bien sean artículos informativos o tutoriales, seminarios o notas de moda, actualidad o de tecnología. Lo importante es que no sea un copy-paste (copiar-pegar) de otro sitio, en caso de ser un una recopilación de un artículo de otro autor, siempre debemos citar a dicho autor y poner un enlace al sitio de donde salió la información.

Cómo indexar correctamente nuestro sitio web

1. ¿Cómo agregar el url de  nuestro sitio web en los buscadores principales?
2. ¿Cómo enviar contenido a Google?
3. Sobre el uso de robots.txt
4. Sobre los sitemaps
5. Indexación del contenido
6. Incluir los metatags
7. Directrices de diseño y contenido
8. Bibliografia

Cómo agregar el url de  nuestro sitio web en los buscadores principales

Enviar contenido a Yahoo: visitar el siguiente enlace

http://siteexplorer.search.yahoo.com/es/free/submit

Aquí se puede enviar el URL del sitio web o del feed

Para verificar el sitio web, osea para que yahoo sepa que usted tiene acceso al sitio web, debe primero subir vía FTP el archivo que  genera automaticamente la página de Yahoo o incluir el metatag dentro del su página de inicio ejm index.html y da clic en el botón Autentificar.

 

yahoo_addsite

Enviar contenido a Google

Para agregarlo a Google: visitar el siguiente enlace
http://www.google.com/intl/es/submit_content.html

addsitegoogle

Introducir el URL completa, incluido el prefijo http://www.misitioweb.com/

Para que google diferencie entre los sitios que han enviado los usuarios y los que se han introducido de forma automática a través de algún software, escribir en el campo correspondiente las letras torcidas que aparecen en el  cuadro.

Hacer clic en añadir url

Verificación del sitio web:

Hay dos maneras de verificar el sitio web, para demostrar que es el propietario de un sitio web, puede añadir una meta-etiqueta a su página principal (demostrará que tiene acceso a los archivos originales) o subir un archivo HTML a su servidor con el nombre que desee (demostrará que tiene acceso al servidor)

1. Cuando google te pase la etiqueta de verificación del tipo: google5234626gh246246246246.html
Sólo debes crear con tu bloc de notas el archivo con el  nombre que te generó automáticamente, ejemplo: google5234626gh246246246246.html (sin contenido dentro).
Posteriormente lo subes a la carpeta de tu sitio (dentro del directorio PUBLIC)
2. Agregar una meta etiqueta. esta se debe agregar entre  de las etiquetas <header></header> de nuetra página web

Enviar contenido al buscador Bing:
visitar el enlace e ingresar iniciando sesión (email contraseña de msn)
http://www.bing.com/webmaster/
dar clic en el boton add site y llenar los campos
Web address: url del sitio web
Sitemap address: ubicación del sitemap www.misitioweb.com/sitemap.xml
Webmaster e-mail: email de contacto

sitemapsBing‌

Sobre el uso de robots.txt

 

Hacer accesible a los robots de los buscadores por medio del archivo robots.txt, que es simplemente un archivo de texto como sugiere su extensión. Se crea usando un simple editor de texto como Notepad o WordPad.
Utilice el archivo robots.txt en su servidor web. Este archivo indica a los rastreadores qué directorios se pueden rastrear.

El siguiente archivo robots.txt bloquea el rastreo de contenido en todos los motores de búsqueda :

User-agent: *
Disallow: /

No hay ninguna ruta, después de “Disallow:” lo que significa que se permite el rastreo a todos.

User-agent: *
Disallow:

El User-Agent es el nombre del spider del buscador y Disallow es el nombre del archivo que no quieres que indexe el spider

User-Agent: (Spider Name)
Disallow: (File Name)

Hay que hacer un nuevo bloque de código para cada buscador, pero si quieres multiplicar la lista de archivos no permitidos puedes ponerlos uno debajo de otro.
Por ejemplo –

User-Agent: Googlebot
Disallow: ejemplopaginano accesiblearobots.html
Disallow: paginano accesiblearobots.html
Disallow: paginano accesiblearobots.html
Disallow: paginano accesiblearobots.html

Google es quien decide la descripción de un elemento para una determinada búsqueda y lo decide en función de la relevancia

Para probar el archivo robots.txt de un sitio, siga estos pasos:
1. En la página principal de Herramientas para webmasters de Google, haga clic en el sitio del que desee probar el archivo robots.txt.
2. En Información del sitio, haga clic en Acceso de rastreadores.
3. Si aún no se ha seleccionado, haga clic en la pestaña Probar robots.txt.
4. Copie el contenido del archivo robots.txt y péguelo en el primer cuadro.
5. En el cuadro URL, indique el sitio en el que quiera probar el archivo.
6. En la lista User-agents, seleccione los user-agents que desee.

Sobre los sitemaps.

lo que pasa es que el sitemap.xml es diferente al mapa del sitio, es decir :

El mapa del sitio ubica a los usuarios para que puedan acceder más fácilmente a cualquier sección o página del sitio, este es un documento HTML. El sitemap.xml es un archivo que se incluye dentro del servidor para que pueda ser leído por los buscadores y sepan cuanto contenido hay y cuanto ha cambiado, estos permiten proporcionar a los buscadores información sobre un sitio web,  es básicamente una lista de las páginas de un sitio web. La creación y el envío de un sitemap permite que los buscadores conozcan todas las páginas de un sitio, incluidas las URL que podrían no localizarse mediante los procesos de rastreo

¿Cómo crear un site map?

El generador de sitemaps de Google (versión beta) busca direcciones URL nuevas o modificadas a partir del tráfico de los servidores web, de los archivos de registro de estos servidores o de los archivos que se encuentran en ellos. Una vez que el generador de sitemaps de Google ha recopilado las URL, puede crear sitemaps web, sitemaps de Google Code Search y sitemaps móviles.

puedes descargarlo aquí:
http://code.google.com/p/sitemap-generators/downloads/list

Otras opciones:

http://www.xml-sitemaps.com/

Los sitemaps le resultarán especialmente útiles en los siguientes casos:
Su sitio incluye contenido dinámico.
Su sitio contiene páginas que el robot no pueda localizar fácilmente durante el proceso de rastreo como por ejemplo, las páginas que presentan AJAX o Flash enriquecido.
Su sitio es nuevo y hay pocos enlaces que dirijan a él, si los enlaces de su sitio no funcionan correctamente.
Su sitio dispone de un importante archivo de páginas de contenido que no están bien enlazadas entre ellas o que sencillamente no están enlazadas. Sin embargo es recomendable hacer un sitemap siempre que se publique cualquier sitio web.

Indexación del contenido

 

Hemos visto sitios web que permiten ser rastreados, pero luego bloquean a los motores de búsqueda para que no indexen su contenido. Esto generalmente se hace con una metaetiqueta “robot” añadiendo un “noindex”. Puedes comprobar si tu sitio web está utilizando esta metaetiqueta a través del código fuente de tu página de inicio (hay que tener en cuenta que esta metaetiqueta puede utilizarse a nivel de página).

A menudo esto se debe a un ajuste en el software del sitio web y se activó de manera accidental (o fue simplemente un olvido).

Directrices de diseño y contenido

  1. La redacción de los títulos:
    El título es el parámetro que identifica a una página en los resultados de los buscadores, en la carpeta de favoritos, en las hojas impresas, etc.
    <title>TÍTULO</title>
    El título debe contener entre sus primeras palabras los criterios para los que se esté optimizando la web. Resulta también interesante que incluya la marca que identifica al website o su dominio para que sea fácilmente localizable en una lista de resultados. El título resulta perfecto si se consigue integrar todos los criterios en una sola frase y si ésta además supone en sí misma una posible frase de búsqueda. Se recomienda que la longitud del título sea de un mínimo de 70 caracteres y un máximo de 120 caracteres, estos últimos no se consideran tan relevantes.
  2. Cree un sitio con una jerarquía y enlaces de texto claros: Se debe poder acceder a todas las páginas desde al menos un enlace de texto estático.
  3. Ofrezca a los usuarios un mapa del sitio con enlaces: Un sitemap html que conduzcan a las secciones importantes del mismo. Si el mapa contiene más de cien enlaces, puede dividirlo en varias páginas.
  4. Cree un sitio útil con mucha información y redacte páginas que describan el contenido con claridad y exactitud.
    Piense en las palabras que podrían introducir los usuarios para localizar sus páginas y asegúrese de que esas palabras estén incluidas en su sitio.
  5. Intente utilizar texto en lugar de imágenes para mostrar nombres, contenido o enlaces importantes. El rastreador de Google no reconoce el texto integrado en imágenes. Si debe utilizar imágenes para contenido textual, considere la posibilidad de utilizar el atributo “ALT” para incluir algunas palabras de texto descriptivo.
  6. Asegúrese de que los elementos  “alt” de su sitio sean descriptivos y precisos.
  7. Busque los enlaces dañados y corrija el código HTML.
    Si decide utilizar páginas dinámicas (es decir, si la URL contiene el carácter “?”), tenga en cuenta que no todas las arañas de los motores de búsqueda rastrean tanto páginas dinámicas como páginas estáticas. Se recomienda que los parámetros sean cortos y reducidos en número.
  8. Una página no debería contener más de cien enlaces.
  9. Incluir los metatags:
    Estos elementos de metainformación especifican la información general del documento, importante en la indexación. También permiten que un documento defina los campos en la cabecera HTTP cuando se manda desde el servidor, lo que permite cargar automáticamente otro documento después de un retraso especificado.
    Sintaxis:
    <meta content=cadena dir= ltr/rtl http-equv=cadena de cabecera de http lang=código de idioma name=nombre de metainformación sheme=tipo de esquema>Ejemplos
    <meta name=”GENERATOR” content=”nombre del editor de páginas”>
    Este indica el editor con el que se ha creado la página.

<meta http-equiv=”Content-Type” content=”text/html; charset=iso-8859-1″>
Este es otro de los meta tags que indica el tipo de codificación usada en la página.

<meta http-equiv=”refresh” content=”20;URL=./indice.htm” >
Para “refrescar” una página o redirigirla a otra, transcurrido un cierto tiempo:

<meta name=”Keywords” content=”criterios de búsqueda, las palabras, separadas, por comas” >

Obviamente este tag debe contener las palabras para la optimización; los buscadores sólo leen aproximadamente los 200 primeros caracteres de este tag. Resulta interesante colocar la palabra clave en Mayúscula y en minúscula para que todos los buscadores (incluso los que diferencian las mayúsculas de las minúsculas)

<meta name=”Description” content=”descripción de la página” >
Este tag lo usan los buscadores para dar una descripción del contenido de la página.

<meta  name=”robots” content=”index”>
Si los “Robots” deben tener en cuenta esta página o no:

El valor de content puede ser: all para que el robot tenga en cuenta esta página y pueda seguir los links contenidos en la misma (este es el valor predeterminado), noindex para que no la tenga en cuenta, none que es lo mismo que noindex, nofollow, index para que la tenga en cuenta, follow para que pueda seguir los links que haya en la página, nofollow lo contrario de follow.

<meta http-equiv=”expires” content=”fecha en formato GMT” >

La fecha en la que expira una página:

La fecha en la que dicha página expira y por tanto el navegador “refrescará” el contenido después de esa fecha. En el caso de que el valor de content sea -1, no se guardará en el caché, e teoría lo mismo que si fuese 0. Si se usan páginas ASP, se puede usar también:
<meta http-equiv=”expires” content=”-1″ >

Para que no se guarde la página en el caché:

<meta http-equiv=”Pragma” content=”no-cache” >

Esto le indica al navegador que no guarde la página en el caché.

<meta http-equiv=”Window-target” content=”_top” >
Evitar que una página se muestre dentro de un frame: En Content podemos usar: _top para indicar que se muestre en la página completa, no dentro de un frame,_blank para que se muestre en una nueva ventana.

Directrices específicas de calidad

  1. Evite utilizar texto o enlaces ocultos.
  2. Si en el contenido hay texto o enlaces ocultos, el sitio se puede considerar poco fiable ya que muestra a los motores de búsqueda y a los usuarios información diferente.
    Un número excesivo de palabras clave escondidas por ejemplo:
  3. Mediante texto blanco con fondo blanco, incluyendo texto detrás de una imagen, usando CSS para ocultar texto, configurando el tamaño de fuente a cero.
  4. No utilice técnicas de redireccionamiento engañoso o encubrimiento.
  5. Algunos ejemplos de encubrimiento:
    • Mostrar una página en HTML a los motores de búsqueda y una página con imágenes o Flash a los usuarios, mostrar un contenido a los motores de búsqueda distinto al mostrado a los usuarios
    • No envíe consultas automatizadas.
    • El envío de consultas automatizadas consume recursos e incluye el uso de cualquier software (como WebPosition Gold™ )
    • No cargue páginas con palabras clave irrelevantes.
    • Las páginas repletas de palabras claves constituyen una mala experiencia para el usuario y puede afectar el ranking de su sitio. Concéntrese en crear contenidos útiles con mucha información y que utilicen las palabras clave de manera apropiada y en contexto.
    • No cree varias páginas, subdominios o dominios que presenten básicamente contenido duplicado.
    • En algunos casos se duplica deliberadamente el contenido en varios dominios en un intento de manipular las clasificaciones de los motores de búsqueda o para obtener un mayor volumen de tráfico.
    • No cree páginas de comportamiento malicioso, como páginas de suplantación de identidad (phishing) o páginas que instalen virus, troyanos.
    • Evite las páginas “puerta” creadas exclusivamente para motores de búsqueda u otros medios extendidos.
  6. Proporcione contenido único y relevante que ofrezca a los usuarios una razón para visitar el sitio.
  7. Utilice redireccionamientos 301: si ha reestructurado su sitio, utilice los redireccionamientos 301 (“RedirectPermanent”) en el archivo .htaccess para redireccionar de forma inteligente tanto a los usuarios como a los robots y  arañas.
  8. La rapidez con que el navegador analiza el documento y lo pone a disposición del usuario para que interactúe con él es supremamente importante, para eso algunos tips:
    • Combinar en el menor número posible de imágenes mediante sprites.
    • Ofrezca recursos de una misma URL para poder reducir el número de contenidos duplicados.
    • En lo pposible elimine cadenas de redireccionamientos en los scripts.
    • Especificar un validador de caché, no se podrán actualizar de forma eficiente si no se especifica dicho validador. Especifique una cabecera “Last-Modified” o “ETag” para que se pueda validar la caché de los recursos.
    • Optimizan las imágenes, hay servicios online como http://www.smushit.com/ysmush.it/ , pero si tienes tu sitio web en WordPress te recomiendo: wp-smushit o ewww-image-optimizer.
    • Los  recursos que se pueden comprimir y almacenar en caché deben tener una cabecera “Vary” con el valor “Accept-Encoding”:
    • Minimizar los recursos JavaScript. jscompress, minifyjavascript, minifyjs.
    • Si se especifica un conjunto de caracteres en las cabeceras HTTP, el navegador puede mostrar las páginas más rápidamente.

     

  9. SOBRE LOS ESTILOS CSS Y OTROS
    • Para garantizar que los archivos CSS se descarguen en paralelo, incluya siempre los recursos CSS externos antes que los recursos JavaScript externos, Si se minimizan los recursos CSS se puede reducir su tamaño considerablemente y si se comprimen los recursos con gzip, se puede reducir el tamaño de transferencia.
    • Si se ofrecen imágenes en miniatura, es decir se evita escalar imagenes y en vez de eso las pones al tamaño que deben ir,  pueden ahorrar mucho tiempo en la descarga.
    • Incluir recursos CSS en el cuerpo del documento afecta negativamente al rendimiento de la representación.

     

Por: Jorge Londoño.

Bibliografía

http://www.elguille.info/HTMLscripts/HTML_meta.htm
Directrices para webmasters de google:
http://www.google.com/support/webmasters/bin/answer.py?hl=es&answer=35769
http://www.maestrosdelweb.com/editorial/optibasica/
HTML Manual de referencia Thomas A. Powell.2001, McGraw -Hill

Suscríbete!

Sin comentarios

Lo sentimos, el formulario de comentarios está cerrado en este momento.

A %d blogueros les gusta esto: