fbpx
logotipo Romeo & Juliet



Contacto

info@romeoandjuliet.es

+34 625040754

Gabriel y Galán 2 – Cáceres

Extremadura – Spain

¿qué es un backlink?

¿qué es un backlink?

¿Qué es un Backlink?

La palabra backlinks o enlace de regreso te la encontrarás muy a menudo cuando intentes optimizar tu web ya que estos son muy importantes para tu posicionamiento SEO y tienen mucha relevancia para Google y sabemos que el buscador más importante.

Pero… ¿Realmente sabes qué son los Backlinks?

El mundo del SEO en la actualidad no se entiende sin el término backlink ligado a él.

Y es que estos enlaces son una parte  fundamental, por no decir de las más importantes, dentro de cualquier estrategia de posicionamiento web.

Por backlink entendemos cualquier enlace que hay en otras páginas con dominio diferente al tuyo y que apuntan a una dirección de tu dominio.

Por ejemplo si tienes un blog sobre el mundo del motor y otro blog, web de ventas de coches, revista o periódico te menciona e incluye un enlace hacia cualquier parte de tu página, decimos que tu blog tiene un nuevo backlink.

Diferencia entre backlink y un referring domain

En muchas herramientas de SEO y artículos especializados  sobre posicionamiento web se pueden encontrar los términos ‘backlink’ y ‘referring domain’.  Pues bien, «referring dimain» no es otra cosa que el dominio de referencia.

Conviene que tengas claro en qué se diferencian para poder analizar correctamente el SEO de una web.

Si hemos dicho que entendemos backlink como un enlace entrante desde otra página que apunta hacia la tuya propia, puede darse la situación en la que una misma página incluya diferentes backlinks hacia tu web en distintos artículos.

Cada uno de esos enlaces es un backlink distinto, pero es un mismo referring domain, ya que, provienen de un mismo dominio.

Es decir, si en una misma página consigues seis enlaces apuntando a la tuya, diremos que tienes seis backlinks y un referring domain, ya que, este último término se refiere al lugar (dominio) del cual provienen los enlaces entrantes, independientemente del número de enlaces entrantes que haya en ese dominio.

Si tu página tiene dos referring domains querrá decir entonces que has conseguido backlinks desde dos dominios diferentes hacia tu web y el número de estos enlaces será como mínimo de dos, uno por dominio, aunque existe la posibilidad de que haya más de un backlink por dominio.

¿Qué son los backlinks?

¿Qué son los backlinks de calidad?

Te vamos a explicar lo que son los buenos backlinks o backlinks de calidad y los que no lo son tanto, y también cómo consiguir los links buenos y cómo evitar los malos backlinks que penaliza Google. O  ¿Cómo construir una buena red de backlinks sin pagar por ellos? Lee los siguientes artículos y descubre la importancia de los backlinks de calidad y tener una gran cantidad de ellos.

¿Qué es el Archivo robots.txt?

¿Qué es el Archivo robots.txt?

El archivo robots

Para que nuestro sitio web sea correctamente rastreado e indexado y, además, solo se indexe lo que nosotros queramos, tenemos que usar dos archivos que sirven para informar a los robots de los buscadores sobre la manera en que deben hacerlo:

el archivo robots (robots.txt) y el archivo de mapa del sitio o sitemap (sitemap.xml)

El primero sirve para informar acerca de lo que no queremos indexar y el segundo sirve para informar de todos los recursos que queremos que se rastreen e indexen.

Robots.txt

Google cuenta con GoogleBot, un robot informático conocido como web crawleraraña web. Este «programita» llega a nuestra web, lo primero que hace es buscar el archivo robots.txt para comprobar las restricciones. Este archivo se debe ubicar siempre en la raíz del sitio web.

Una forma sencilla de comprobar la existencia del archivo robots.txt de cualquier web y poder visualizarlo es poner en la barra de direcciones de nuestro navegador lo siguiente:

http://misitioweb.com/robots.txt (donde misitioweb.com debe ser sustituido por el nombre de dominio que queramos comprobar)

El principal objetivo del archivo robots.txt es indicar las posibles restricciones a la hora de acceder al sitio web por parte de todos los robots de búsqueda, así como informar de la localización del mapa del sitio. Mediante diferentes instrucciones, podemos:

  • Bloquear el acceso a alguno o a todos los robots.
  • Bloquear el acceso a archivos, directorios, imágenes o URLs del sitio, que no queramos que se rastreen.
  • Ayudar a que no se indexe contenido duplicado
  • Informar de la ubicación del archivo sitemap.xml para que rápidamente lo localicen y tengan acceso a todas las páginas del sitio sin necesidad de rastrear los enlaces al navegar. De esta forma, las páginas que no están conectadas con otras (por ejemplo, porque nos interesaba tenerlas independizadas del resto del sitio) también pueden ser indexadas.

El hecho de que el archivo robots.txt no exista en nuestro sitio web no quiere decir que no  vaya a ser indexado. De hecho, si no existe, todos los robots indexarán lo que puedan sin restricciones.

Un buen uso del archivo robots.txt nos permitirá realizar acciones como: 

  • Impedir que nuestro sitio web sea indexado por los buscadores cuando tenemos la web en pruebas o queremos darle un uso privado.
  • Impedir que se indexen determinados contenidos de la web que no son relevantes o que no queremos que aparezcan en los resultados de búsqueda.
  • Evitar una sobrecarga de accesos a nuestra web. En una web suele haber gran cantidad de archivos que no tienen utilidad para el usuario y no necesitan ser rastreados. El intento de acceso de los robots a estos recursos puede producir lentitud en la carga del sitio y además que pierdan tiempo en ellos y se vayan del sitio sin haber rastreado lo que de verdad nos interesa. Por ejemplo, no tiene sentido que el robot  acceda a los archivos de la zona de administración de una web.
  • Impedir la indexación de contenido duplicado, esto es muy importante, ya que es algo penalizado por los buscadores, especialmente por Google. El contenido duplicado es código que aparece en varias páginas, ya sea total o parcialmente. Por ejemplo, cuando tenemos un artículo y un listado de comentarios paginado, la página 2 no tiene sentido que se indexe, pues en ella la parte del contenido será igual que en la 1 y, por lo tanto, estaremos duplicando contenido. Lo que hace que nuestro SEO on-page no sea el adecuado.
Archivo Robots.txt - descripción

Creación del archivo Robots.txt

Como lo indica su extensión el archivo robots.txt es un fichero de texto plano (sin formato) que se puede crear con cualquier editor de texto (bloc de notas, Wordpad, Notepad++…). Tiene la extensión .txt Las principales instrucciones que podemos utilizar en el robots.txt son: 

User-agent:

Se utiliza para identificar el robot sobre el que vamos a aplicar las reglas indicadas a continuación. Es decir, podemos especificar reglas para cada robot, o bien reglas que se apliquen para todos a la vez o para el resto.

Disallow:

Se usa para identificar los recursos que queremos bloquear 

Allow:

Se usa para identificar recursos a los que permitimos el acceso como excepción a la regla Disallow.

Sitemap:

Sirve para indicar la ruta donde está localizado el mapa del sitio.

Robots.txt es un archivo que realmente solo necesitamos crearlo una vez, y no suele ser necesario actualizarlo. No obstante, si nos equivocamos, puede haber graves consecuencias como, por ejemplo, que no se indexe ninguna página. Por ello debe crearse y editarse con cautela. Se recomienda validarlo a través de la herramienta online Google Search Console, una vez que demos de alta en ella nuestro sitio web y verifiquemos que somos los propietarios.