Archive for the ‘SEO’ Category

Libro: Del 1.0 al 2.0: claves para entender el nuevo marketing

Domingo, marzo 29th, 2009
Portada libro del 1.0 al 2.0 Claves para entender el nuevo marketing.

Desde el blog de Rafa Jiménez, me entero del lanzamiento de un nuevo libro sobre “el nuevo marketing“, “Del 1.0 al 2.0 claves para entender el nuevo marketing”.

Cito textualmente la info del blog oficial:

““Del 1.0 al 2.0. Claves para entender el nuevo marketing” repasa los cambios que está experimentando el marketing online y proporciona las soluciones imprescindibles para aplicar este nuevo enfoque.

Su estructura permite la lectura de capítulos concretos para quienes quieran conocer un único aspecto: banners, emailings, SEO, SEM, Redes de afiliados, Social Media, Community manager, Marketing viral, gestión de la reputación online, analítica web…”


El libro consta de 17 capítulos.

1. Bienvenido al nuevo marketing. Marc Cortés
2. Ver más allá del banner. Javier Cerezo
3. Enviar emailings. José María Gil
4. Elegir las palabras que venden. Sergio Monge
5. Pensar como los buscadores. Eduard Garolera
6. Conocer las Redes de afiliados. Rafa Jiménez
7. Escuchar a los social media. Chema Martínez Priego

7.1 Blogs… ¿Pero no habían muerto? Marc Cortés
7.2. Microblogs… ¿Los sucesores de los blogs? Marc Cortés
7.3. Podcast y video online. Jordi Pérez
7.4. Redes sociales y comunidades. Javier Godoy
7.5. Widgets. Enrique Burgos

8. Ser un community manager. Chema Martínez Priego
9. Viralizar el mensaje. Juan Sanchez
10. Gestionar la reputación online. Ivan Pino
11. Comprender la analítica web. Javier Godoy
12. Tener creatividad. Jesús Revuelta y Xavi de la Cruz
13. >Llevar años navegando. Jordi Pérez
14. Poseer habilidades directivas. Javier Guardiola
15. Conseguir retorno 2.0. Juan Luis Polo
16. Por tu madre no hagas nada de esto. Richard Tejedor
17. Resumiendo el nuevo marketing. Eva Sanagustin

Os lo podéis descargar o comprarlo, siempre es mejor un libro que un PDF!

Meme: Como SEO, que te gusta y que odias.

Martes, marzo 24th, 2009

SEO Posicionamiento en Google

Por primera vez voy a participar en un “meme”, por petición de kico.es. Vamos al grano!

Cosas que me gustan del trabajo SEO:

  • Que es una ciencia que pocos saben y testeando puedes llegar a entender.
  • No necesitas estar en el trabajo, ni tener horarios.
  • Ver como las conversiones suben.
  • Encontrar las cosquillas a Google y días después lo solucionen.
  • Los cambios en el algoritmo de Google.
  • Hacer SEO en el Universal Search
  • La verdad es que el SEO es una de mis pasiones.

Que odio del SEO

  • Que durante la semana cambie el orden de las SERPs.
  • Dedicarle mucho tiempo.
  • Cuesta explicar a la gente cual es tu trabajo, para ello te tienes que hacer artilugios.
  • Tener que esperar X para ver buenos resultados, y para eso lo mejor es el SEM.
  • Ver miles de empresas en internet diciendo que te posicionan en el top 1, y encuadrado con color amarillo.

Le paso al meme a:

Google amplia la longitud de la descripción de los resultados en sus SERPs

Lunes, marzo 23rd, 2009
Longitud descripcion SERPs Google

Desde hace unos meses Google está ampliando la longitud de los “descriptions” en sus resultados para algunas búsquedas. Inicialmente Google solo mostraba unos 155-165 caracteres de los “descriptions” de cada web, unas dos líneas. Actualmente sigue siendo así, en la mayoría de resultados, pero hay excepciones. Sí realizas una búsqueda con muchas palabras clave, unas 5 keywords, la longitud del “description” puede llegar hasta los 300 caracteres, más de 4 líneas.

Ejemplos de búsquedas con descriptions más largos:

cambio vivienda de rubi por una de palafrugell

casa rambla badalona en primera linea de mar de 3 habitaciones con vistas al mar

Sa Punta pals alquiler casa 3 habitaciones piscina garaje

Entendemos como “description” el texto que esta debajo del título de un resultado de Google.

Descriptions Google

También se ha hablado en webmasterworld que Google ha hecho algún experimento en sus SERP’s introduciendo tres nuevos enlaces “S”, “M” y “L” para cambiar la Logintud de los descriptions.

–    S: No muestra los descriptions de los resultados.
–    M: Muestra la longitud de 155-165 caracteres.
–    L: Muestra la longitud de +/- 600 caracteres.

SML Serps Google

Errores “No se puede acceder a la red” en Webmaster Tools.

Lunes, marzo 16th, 2009
Network unreachable

Desde finales de Enero muchos sitios web europeos están recibiendo muchos errores de “Network Unreachable” (No se puede acceder a la red) o Timeouts en las herramientas para webmasters de Google.

Parece ser un error de Google ya que varios webmasters europeos se han encontrado con el mismo problema y con el mismo patrón.

Los errores que muestra webmaster tools:

  • No se ha obtenido respuesta.
  • No se puede acceder a la red
  • No se puede acceder a robots.txt.

La descripción de los errores:

Google ha recibido un error al intentar acceder a esta URL. Por ejemplo, puede ser que hayamos detectado un error DNS o de tiempo de espera. Tal vez su servidor estaba inactivo u ocupado cuando intentamos acceder a la página.

No se puede acceder a la red

Para comprobar si tienes este mismo error, entra en tu cuenta de Webmaster tools y accede al menú “Diagnóstico” y el submenu “Rastreo Web”.

https://www.google.com/webmasters/tools

Tiempo de espera elevado.

No obstante comprueba que el tiempo de respuesta de tu página este por debajo de los 3 segundos ya que el tiempo de espera de los boots de Google son unos 4 segundos. Sí tus páginas tardan en descargarse más de 4 segundos tienes un problema, ya que google bajará el nivel de rastreo en todo tu sitio, y hasta pasado unos meses no te volverá a rastrear con la misma frecuencia ni con la misma intensidad.

En el siguiente gráfico puedes ver lo que te puede ocurrir si superas el tiempo de descarga. La gráfica superior muestra el número de paginas rastreadas al día, y la gráfica inferior el tiempo medio de descarga de una pagina de tu sitio.

Rastreo web Google Boots

Ten en cuenta que los boots solo hace la petición del html y no incluyen las imágenes, css, js ni otros elementos. Esto es un problema ya que muchos de nosotros no tenemos medios para acelerar el proceso de la descarga de la página ya que influye la ubicación del servidor, los servidores de DNS y estos otros factores:

  • DNS Lookup: resuelve el Nombre de Dominio a una dirección IP
  • Inicial Connection
  • SSL : El protocolo SSL permite la autenticación de servidores, la codificación de datos y la integridad de los mensajes.
  • Redirection
  • Request Time
  • First Byte Download: El primer byte recibido después de generarse la página
  • Base Page Download: La descarga completa de la página.

Para emular el tiempo de descarga de un boot de Google, tendrás de hacer un request de tu página desde (MOUNTAIN VIEW, California), ya que la mayoría de boots de Google están en esta ubicación.

Para comprobar el tiempo de respuesta dispones varias herramientas gratuitas y de pago.

http://tools.pingdom.com/ (Herramienta online gratuita)
http://www.keynote.com/products/ (Herramienta de pago online)

Para los que accedéis en versión inglesa, estos son los errores que muestra:

  • Network unreachable
  • URL timeout
  • No response
  • robots.txt unreachable

Y la descripción en ingles del error:

Google encountered an error when trying to access this URL. We may have encountered a DNS error or timeout, for instance. Your server may have been down or busy when we tried to access the page.

Evitar contenido duplicado con los códigos de seguimiento de campañas utm de Analytics

Jueves, enero 22nd, 2009

Uno de los problemas para los SEO, es el contenido duplicado para diferentes urls. Esto es lo que sucede cuando queremos añadir a nuestra url el parametro utm de seguimiento de campañas de Analytics, ya que si es un enlace directo desde otra web, se indexarán dos urls, la que lleva parametros y la que no lleva.

Ejemplo:
http://edgargranados.es (sin código de campaña)
http://edgargranados.es?utm_source=twitter.com&utm_medium=SMO&utm_campaign=Post

Google indexará las dos urls con el mismo contenido. Para evitar esto podremos uitlizar la Google Analytics Tracking API.

 _setAllowAnchor() es la clase de la API de GA que utilizaremos.
Esta clase sirve para informar a Analytics, que los parametros de siguimiento no vendrán seguidos con un interrogante ? o un &, sino con #.

Ejemplo:
http://edgargranados.es/#utm_source=twitter.com&utm_medium=SMO&utm_campaign=Post

Con esto evitaremos que Google indexe los parametros de seguimiento, ya que considerará como un ancla dentro de la página. Para activar esta clase utilizaremos el siguiente código:

pageTracker._setAllowAnchor(true);

Nota: Para utilizar las Google Analytics Tracking API, es necesario tener integrado el nuevo código de Analytics, GA.js y no el antiguo urchin.js

robots.txt (Bush) vs robots.txt (Obama) de la web de la casa blanca

Miércoles, enero 21st, 2009

Curioso el link que ha publicado Anieto2k sobre el archivo robots.txt de la web de la casa blanca, antes y después de la entrada de Obama.

Utilizando WayBack Machine, máquina del tiempo, podremos ver el archivo robots.txt de Marzo de 2008.

robots.txt antes de entrar Obama:

User-agent: *
Disallow: /cgi-bin
Disallow: /search
Disallow: /query.html
Disallow: /omb/search
Disallow: /omb/query.html
Disallow: /expectmore/search
Disallow: /expectmore/query.html
Disallow: /results/search
Disallow: /results/query.html
Disallow: /earmarks/search
Disallow: /earmarks/query.html
Disallow: /help
Disallow: /360pics/text
Disallow: /911/911day/text
Disallow: /911/heroes/text

2400 líneas más..

robots.txt después de entrar Obama.

User-agent: *
Disallow: /includes/

Curioso, verdad?

Hyves ¿Cómo saber si estas penalizado por Google PageRank?

Miércoles, enero 21st, 2009
hyves pagerank

Para saber si nuestro dominio esta penalizado o baneado por Google, lo que debemos hacer es comprobar el subdominio hyves de nuestro dominio.

Sí nuestro dominio es edgargranados.es, debemos comprobar el subdominio hyves.edgargranados.es, aunque no exista, pero con la barra de google podremos saber el valor del pagerank. Sí el valor es un PR4, es que ha habido una penalización de Google Pagerank, si el valor es PR0 es que tu dominio esta baneado por Google y si tienes un PR7 estas ok.

Resumen:

PR 7 – dominio OK
PR 4 – penalización de Google PageRank
PR 0 – dominio baneado

Comprueba tu dominio con esta herramienta online.

La duda esta en si después de crear este subdominio y traspasará PageRank a los links salientes.

Por cierto, podéis ver que mi blog ha recibido una penalización de Google PageRank. mmmm… Seo Black Hat?

Actualización 1:

Google ha eliminado este bug o error y ya no es posible hacer la comprobación.

Actualización 2:

He comprobado que el sistema si que funciona en dominios de 3 carácteres o menos.

Ejempo hyves.as.com, hyves.hp.com

Actualización 3: 

Al mirar la cache de los subdominios hyves.dominio.com podemos ver la cache de hyves.net.

Ejemplo hyves.calle17.net

Generar sitemaps desde logs de servidor

Miércoles, enero 14th, 2009

sitemap Generador

Google acaba de sacar una versión mejorada de los sitemaps incluyendo el nuevo generador de sitemaps utilizando los logs de nuestro servidor.  Lo realmente genial de este nuevo creador de sitemaps es que al utilizar los logs puede saber la prioridad (mediante el tráfico), la última modificación y otros datos.

Con esto nos ahora tener que desarrollar aplicaciones para la generación de sitemaps, aunque ya existen varias aplicaciones para generar sitemaps automáticamente.

Actualización:

Esta aplicación se instala en nuestro servidor ya sea Linux o IIS y automáticamente genera los sitemaps y el indice de los sitemaps, si fuera necesario, incluso hace el ping a Google cada vez que se actualiza.

Algunas características de los sitemaps de Google.

– El límite de urls por sitemap es de 50.000 Urls
– El límite de tamaño de un sitemap es de 10Mb sin comprimir.
– Los sitemaps se pueden comprimir con gZip.
– Sí tienes más de 50.000 urls puedes crear varios sitemaps y enlazarlos desde un indice de sitemaps.
– Al crear o modificar los sitemaps, puedes avisar a google haciendo un ping con la url: www.google.com/webmasters/tools/ping?sitemap=sitemap_url ..

Más información sobre la creación y envío de Sitemaps.

Vía: http://www.mecagoenlos.com/Posicionamiento/generador-de-sitemaps-de.php
http://www.seofemenino.com/2009/01/14/generador-de-sitemap-de-google-mejorado/

Ignorar palabras claves de orgánico en Analytics

Lunes, enero 12th, 2009

Ignorar keywords de orgánico en google analytics

¿Cómo ignorar algunas keywords de orgánico y que se consideren tráfico directo en GA?

Para medir correctamente nuestro tráfico directo, tenemos que tener en cuenta algunas keywords de orgánico, ya que muchos usuarios se olvidan de la barra de direcciones de su explorador y utilizan el google para teclear las urls. Pongamos como ejemplo este blog edgargranados.es; las siguientes keywords de orgánico se podrían considerar directas ya que conocen la marca e incluso la url:

–    edgargranados
–    edgargranados.es
–    edgar granados
–    www.edgargranados.es
–    http://edgargranados.es
–    …

Estas keywords las tendríamos que considerar como tráfico directo y para ello utilizaremos “Google Analytics Tracking API”. Para utilizar esta API es necesario tener la última versión del código de seguimiento de Analytics “ga.js”, ya que no es posible implementarlo con el antiguo código “urchin.js”.

_addIgnoredOrganic(“”); es la clase que utilizaremos para ignorar nuestras keywords de orgánico. Esta clase tiene que estar ubicada dentro de nuestras páginas en el código de google Analytics, y justo de bajo del getTracker  (ej. UA-XXXXX-X). Podremos utilizar tantas veces la clase como keywords a ignorar.

Veámos el ejemplo:

var pageTracker = _gat._getTracker(“UA-XXXXXX-5”);
pageTracker._addIgnoredOrganic(“edgar granados”);
pageTracker._addIgnoredOrganic(“edgargranados”);
pageTracker._addIgnoredOrganic(“edgargranados.es”);

pageTracker._trackPageview();

Es así de sencillo.

¡Importante! Los cambios no tendrán efectos en menos de 48h o más.

El 68% de los usuarios hacen click en los resultados de la 1ª página de las SERPs

Lunes, enero 12th, 2009

Primera pagina SERP

Según un estudio de la consultora iProspect el 68% de los usuarios hace click en los resultados de la primera página de los SERPs, mientras que en la segunda página solo llega un 17%, la tercera un 7% y la suma de las restantes un 8%. Son datos que muestran un aumento continuo ya que en 2006 era un 62% y un 48% en 2002. Esta claro que los usuarios cada vez son más impacientes, con lo que tenemos que tener muy en cuenta la usabilidad en el desarrollo de nuestros sites. Este estudio esta realizado en los 3 buscadores más utilizados; Google, Yahoo y msn.

Las 3 primeras páginas se llevan el 92% de los clics.

Son muy pocos los usuarios que hacen clic en los resultados más alla de la 3ª página, en 2008 fueron el 8% de los usuarios, mientras que en 2004 fue de un 12% y en 2002 un 19%.

 
2008
2006
2004
2002
Primera página
68%
62%
60%
48%
Segunda página
17%
19%
20%
23%
Tercera página
7%
9%
8%
10%
a partir de la tercera
8%
10%
12%
19%

El 49% de los usuarios cambian de keywords en la primera página.
Un 49% de los usuarios que no encuentran lo que están buscando en la primera página, cambian el término de búsqueda.

Cómo hacer un segmento avanzado en GA para Social Media

Viernes, enero 9th, 2009

Social Media Marketing GA
Medir el Social Media Marketing es una tarea complicada ya que existen muchos factores a medir; engagement, branding, enlaces entrantes y muchos más factores.

En este post sólo me voy a centrar en analizar los enlaces entrantes de Redes Sociales mediante Google Analytics, para ello utilizaremos los nuevos segmentos avanzados de google Analytics. (más…)

Alertas Pagerank en tu email

Martes, diciembre 23rd, 2008

Alertas email pagerank
Ahora que se acerca el google dance de diciembre o enero, hay que estar informados de las actualizaciones del PageRank de nuestros sitios web. Para estar informado de los cambios, os recomiento el sitio web PageRankAlert.com. Es un servicio gratuito donde podrás añadir has 100 sitios webs y puedes configurar para que te lleguen al mail los cambios de pagerank de tus sitios web.

Además de recibir las alertas en tu email, podrás ver el histórico de los cambios de pagerank de tus paginas web y de otras webs públicas.
(más…)

¿La tasa de rebote afecta al SERP de Google?

Sábado, diciembre 13th, 2008

Posicionamiento tasa rebote
En el blog de SEOBlackHat publicaron hace unos días un post, bounce rate is a search engine ranking factor, afirmando de que Google tiene en cuenta el porcentaje de rebote de nuestro sitio.

(más…)

¿Cómo posicionar en inglés un dominio.es?

Jueves, diciembre 11th, 2008

Webmaster Tools dominio .es

No se puede.

El problema de posicionar un dominio.es es que Google lo asocia automáticamente con la orientación en España sin opción a cambio. Según las Herramientas para webmasters de Google (Webmasters tools) los dominios específicos de un país, como .es o .fr, ya están asociados a un país o una región.

Para poder asociar o desasociar un dominio de un país se deberá de configurar desde Webmaster tools, pero solo se podrá utilizar esta función en sitios con un dominio de nivel superior neutro, como .com o .org.
(más…)

Más de 15.000 postales generadas en myPostal.es

Jueves, diciembre 4th, 2008

Postal navideña
Hace unos 15 días que lanzamos las nuevas postales de navidad 2008-2009 y ya hemos llegado a la cifra de 15.000 postales generadas. Este número también contempla las postales generadas del año pasado, que fueron 7.000, con lo que este año ya llevamos 8.000 en sólo 15 días.

Por otro lado tenemos el número de visitas que ha tenido myPostal.es. El número de visitas ha crecido en tráfico directo, sitios web de referencia y desde motores de búsqueda. Actualmente los porcentajes son: directo (7,98%), webs (72,96%) y orgánico (19,05%). Las gráficas muestran un clara tendencia alcista.
Christmas card
(más…)