SEO Off-Page, ¿Todavía efectivo?

Con tanta noticia sobre el Penguin y un PANDA que no deja de actualizarse, parece que algunos están cuestionando sus “estrategias” de posicionamiento Off-Page

Seamos honestos: esas “estrategias” consistían principalmente en buscar enlaces recíprocos –o no-, donde fuera y enfocados en cantidad más que calidad, manipulando los Anchor-Text.

Y aunque todo parecía funcionar muy bien, está claro que ya no es así. Todo acabó. Algunos están viendo cómo sus sitios dejaron esas posiciones de privilegio para términos en particular, y su tráfico decayó drásticamente.

Tampoco es que los enlaces en sí son “malos”, pero creo que algunas técnicas básicas del SEO de la “vieja escuela” son las que toman cada día mayor importancia, o al menos deberían re-plantearse con mayor detenimiento. Tres de las más conocidas:

1. El Contenido

Uno de los pasos más importantes para mejorar la clasificación de tu sitio en los resultados de búsqueda de Google consiste en asegurarse de que el contenido esté repleto de información interesante (Lee más…)

2. El uso excesivo de Palabras Clave

Las páginas repletas de palabras claves constituyen una mala experiencia para el usuario y puede afectar el ranking de tu sitio (Lee más…)

3. Los Contenidos Duplicados

En los casos en que Google detecte que se muestra contenido duplicado con la intención de manipular las clasificaciones y engañar a los usuarios, aplicará los ajustes adecuados en la indexación y clasificación de los sitios involucrados (Lee Más…)

Si te fijas bien, esas técnicas -aunque tan antiguas como el mismo SEO- provienen directamente desde Google y se enfocan en aspectos “On-Site” más que “Off-Site”. Y si lees bien, las directrices para webmasters de Google lo que recomiendan es crear sitios web con contenido original que suponga un valor añadido para los usuarios.

Y creo que ahí ha estado siempre la clave: hacer sitios relevantes.

Y aunque el término en sí es muy amplio (relevancia), puedes aprender un poco más leyendo lo que la misma Wikipedia define como relevancia de un artículo:

La relevancia es distinta de la fama, la importancia o la popularidad, aunque éstas pueden correlacionarse verdaderamente con ella.

Esto aplicado al SEO, podría traducirse como que la relevancia no está basada en los enlaces, barrita verde o cantidad de seguidores de Twitter 😛 …si no enfocada en lo que represente para los usuarios, visitantes, lectores, etc.

Sabiendo esto, en vez de buscar enlaces quizás debas preocuparte por hacer de tu sitio algo que luzca “natural”, con autoridad sobre el tema que dominas, útil para tu mercado meta, etc.

O más bien; ¿Crees que las estrategias “Off-Site” sigan siendo efectivas?

(Fuente de la imagen)

¿Tienes un sitio (sobre) optimizado?

Hace tres años atrás, Matt Cutts -sí, el de la foto de arriba- se refirió al tema de la sobre-optimización de los sitios Web como algo más del lado “oscuro” (SPAM) que otra cosa y que Google no penalizaba esta técnica en particular (mira el video).

Sin embargo, parece que Google penalizará aquellos sitios sobre-optimizados. Al menos así lo dijo el mismo Matt Cutts la semana anterior (audio disponible en inglés acá).

El tema del “black-hat” en el mundillo SEO es muy conocido, y se ha dicho que es más ético que otra cosa. Ahora bien, sabiendo que Google penalizará aquellos sitios optimizados en “abundancia”;

¿Cuál será la línea delgada entre un sitio optimizado y otro sobre-optimizado?

Podríamos citar muchas técnicas que podrían hacer parecer tu sitio Web sobre-optimizado, pero tres de las más utilizadas son:

1. Keyword Stuffing (Uso excesivo de palabras clave)

¿Repites mucho las palabras clave en tu texto? El “uso excesivo de palabras clave” hace referencia a la práctica de llenar una página web con palabras clave con la intención de manipular el ranking de un sitio en los resultados de la búsqueda de Google. Esto incluye texto oculto. Puedes leer cómo el mismo Google lo explica en detalle…

2. Duplicate Content & Sites (Contenidos y Sitios duplicados)

¿Cuántos dominios tienes con sitios y contenidos muy similares entre sí? No hagas varias copias de una página Web con diferentes dominios (URL). Muchos sitios ofrecen versiones de solo texto o versiones “light” de páginas que presentan el mismo contenido que el de las páginas principales con tal de incrementar el tráfico.

3. Buying or Links Exchange (Compra o intercambio de enlaces)

¿Quién te enlaza? Ten en cuenta que Google pueden distinguir los enlaces “naturales” de los que no lo son. Los enlaces naturales a tu sitio se desarrollan como parte de la naturaleza dinámica de la Web cuando otros sitios lo consideran valioso y útil. Por lo cual; no es lo mismo a un intercambio de enlaces condicionado y mucho menos, a pagar por ellos.

Recuerda que si además de estos elementos equilibrados, tienes un sitio Web que genera “engagement” (o arte de conseguir que tus visitantes permanezcan en él) demostable por medio de tus datos analíticos, te ayudará a tomar decisiones importantes para mejorar variables tales como el porcentaje de rebote, fuentes de tráfico, etc. y harán a un Google Feliz 😛

Por otro lado, no olvides que cualquier proceso de optimización SEO abarca mucho más que Metadatos y Enlaces: incluye áreas como la creación de contenidos relevantes y su impacto para los visitantes, con el objetivo de “engancharlos”. Y esto será otra señal para Google incluso que muchos enlaces entrantes…

Y no creas que Google “odia” o piensa que todos los SEOs sobre-optimizan sus sitios Web. Al menos así lo dijo Matt Cutts hace poco tiempo. Mira el vídeo.

Todo parece apuntar a que Google evitará aquellos SEOs que abusan de su “conocimiento” y mañas “oscuras” para posicionarse por encima de sitios con mucho mejor contenido y “engagement” para los usuarios. Algo que un PANDA nos está recordando últimamente 😉

¿No crees?

Créditos de la imagen utilizada.

¿Uno o varios dominios para SEO?

Una pregunta: ¿Cuánto dominios tienes comprados y sin utilizar?

Bueno, quizás no seas el único. Hace algún tiempo, el utilizar varios dominios era “moda” y parecía tener resultados interesantes en cuanto al posicionamiento en buscadores SEO. Ya sea que quisieras rentabilizarlos con AdSense o para proyectos en particular, el tema de utilizar varios dominios fue un gran suceso.

No obstante, hoy en día deberías preguntarte si en realidad merece la pena mantenerlos, sobre todo aquellos con temáticas para productos o servicios similares “.com” “.net””.org” etc.

¿Por qué?

Respuesta corta: PANDA.

Para nadie es un secreto que este suceso marcó la historia del SEO –y lo continúa haciendo-, pues básicamente pretende que todos los sitios posicionados ofrezcan calidad de contenidos hacia los usuarios “casi exclusivos”, bajo un enfoque “local” al estilo GeoTargeting.

Sin embargo, aún con esto sobre el escenario, todavía no comprendo cómo algunas empresas parecen apostar al contrario y utilizan un solo dominio para ofrecer sus productos o servicios a mercados en un mismo idioma, pero de países diferentes -por ejemplo.

En este caso particular, puede que más bien el utilizar varios dominios  regionales (ccTLD) signifique una ventaja competitiva. ¿Por qué?

Solo por citar algunas:

  • Personalización a nivel gráfico
  • Utilización de tarifas o precios en moneda “Local”
  • Números de teléfono locales
  • Posibilidad de hosting con proveedor local (page speed)
  • Generación de enlaces desde sitios o directorios “locales”
  • Posicionamiento superior en buscadores regionales en vez del “.com”
  • Optimización basada en contenidos únicos por idioma o país
  • Google Local Places (donde pueda aplicarse)

Estas son algunas de las muchas ventajas al utilizar un solo dominio – por idioma o país- para promocionar tus productos o servicios en Internet.

Toma en cuenta que hoy en día, incluso el PANDA tiene la capacidad casi “humana” para reconocer tu sitio y determinar automáticamente si buscas posicionarte en Google España, Google Argentina o Google USA.

Obviamente que necesitarás optimizar todas y cada una de estas “personalizaciones” al comprar dominios regionales para obtener resultados… y en algunos casos simplemente “no aplique”.

Pero, si todavía no estás convencido: solo échale un vistazo a grandes marcas de venta de servicios en la región, como: MercadoLibre, Despegar, etc.  y haz una prueba 😉

¿Uno o Varios dominios para SEO? ¿Qué opinas? 

La Primera Impresión vs. Los Google Raters

Si pensabas que posicionarte en Google era “puro algoritmo”, quizás te interese saber que no es así… en realidad: nunca lo ha sido.

Desde hace mucho tiempo se especulaba que Google utiliza personas reales como evaluadores de páginas Web, paralelos a su muy conocido algoritmo que toma en cuenta más de 200 variables y realiza más de 500 cambios en un solo año.

En este interesante artículo (lectura recomendada en inglés), se describe al detalle cómo trabajan estas personas y quienes los contratan.

Ellos son conocidos como “Search Quality Raters” y tienen como objetivo evaluar resultados orgánicos, anuncios pagos e inclusive vídeos, dentro de algunas otras cosas. Otros detalles relevantes:

  • Google subcontrata estos evaluadores por medio de terceros.
  • La selección resulta un proceso lento y de mucho estudio.
  • El pago es de $12 a $15 USD,  basado en 10 a 20 horas semanales en promedio.
  • La mayoría de evaluadores toman este trabajo como un “medio-tiempo”, y se hacen contratos como máximo por un año – se deben esperar 3 meses para aplicar de nuevo.

Lo interesante de esto, es que el perfil de estos evaluadores es simple: usuarios “normales” de Google. No se trata de estudiosos del mercadeo en línea, o con experiencia en búsquedas de Google.

Sabiendo esto, ¿Qué se supone que hacen exactamente?

Como bien lo describe su puesto: evalúan sitios bajo dos tareas principales, según corresponda.

Una de ellas, es tomar alguna URL de un sitio Web y compararla con palabras claves en particular para determinar su relevancia. Al parecer, aún siendo un sitio SPAM, pueden “aceptar” que su URL tiene relevancia para la palabra clave.

El otro criterio es algo más subjetivo, pues de dos listas de resultados deberán decidir cuál les parece “mejor”… :(

Su performance se basa en la cantidad de trabajo que puedan hacer por hora (según el artículo, tienen un mínimo de 30 URL`s por hora).

Teniendo este dato como parámetro, un evaluador tendrá no más de 2 minutos para determinar cuál URL le parece mejor, y tiene mayor relevancia según la palabra clave asignada.

Es decir; esa primera impresión es vital para lograr una “buena calificación” de nuestro sitio Web!

Pero; ¿Cómo lograrlo?

Esa primera impresión lleva consigo varios aspectos. Tres de los que consideraría importantes son:

1. Snnipets

Lo conversamos alguna vez. Optimiza tus snippets. Esto parece sencillo de hacer, pero algunas veces se deja de lado por enfocarse en “cuántos enlaces logramos obtener este mes”.

2. Enfoque

No pretendas posicionar tu página de inicio para múltiples palabras clave. Recuerda desarrollar páginas de aterrizaje (Landing-Pages) las cuales permitan un mejor enfoque para diversas keywords.

3. URL

Las palabras clave dentro de las URL es clave, pero no abuses de ellas pues podrían perder el sentido y caerías en un SPAM absoluto. Tratar de minimizar las carpetas, guiones, entre otros – quizás sea funcional no solo para los evaluadores, sino tus visitantes.

Un buen consejo adicional –también mencionado en el artículo– es involucrar a conocidos o amigos cercanos para que nos den algunas impresiones cuando encuentran nuestro sitio para ciertas palabras clave… si cumplen –o no- las expectativas de sus búsquedas.

Recuerda: la lucha con PANDA demostró que el usuario importa más que nunca. Si agradamos a nuestros usuarios; obtendremos quizás mejor calificación de los evaluadores y tal vez; alguna mejoría en términos de posicionamiento … :)

¿Qué otro aspecto consideras importante para esta Primera-Impresión?

Dos enlaces complementarios de interés:

  1. Un post detallado de Javier Casares: Google Quality Rater: WebSpam
  2. Empleo de Google: Ads Quality Rater – Castellano

Google Panda llegó (para todos)

Lo que se especulaba hace varias semanas, parece que es una realidad hoy: el “fenómeno” PANDA afecta ahora a sitios en idiomas adicionales al inglés.

Esto fue confirmado en el blog oficial de Google el pasado viernes, y el mismo Matt Cutts lo confirmó – respondiéndome a una pregunta hecha hace algunos días atrás-, en este video publicado ayer:

PANDA afectaba solo a los sitios enlistados para consultas hechas en el idioma inglés indistintamente del país de donde se realizaran. Sin embargo, estaban “afinando” cuidadosamente la misma estrategia para los demás idiomas, algo que ya sucedió…

Si todavía no estás familiarizado con este nuevo algoritmo de Google, te recomiendo ver este otro video de SEOmoz, donde Rand explica en detalle cómo surge este nuevo algoritmo y forma de evaluar la calidad de los sitios Web compitiendo en las listas de resultados, así como este infográfico en español…

Algunas ideas generales del video son:

Esta nueva “máquina” (Machine Learning Algorithm) es capaz de agrupar a los sitios preferidos por los usuarios, por lo que no por medio de métricas y señales propias del buscador –incluyendo aspectos sociales-; haciendo que los primeros suban posiciones, mientras los segundos desciendan.

Esto sin duda cambia la rutina del SEO, el cual ha seguido ciertos lineamientos como el contenido y enlaces de calidad, y lo involucra en aspectos como la experiencia del usuario. Esto quizás haga que los SEO seamos llamados como “Web Strategist”, pues cualquier cosa que hagamos para nuestros sitios Web puede tener repercusiones en el posicionamiento.

Sitios Web con más -y mejores- enlaces, o contenidos originales quizás sean afectados por PANDA, es decir; quizás no sea “suficiente” para defenderse contra él.

En este artículo anterior compartimos algunas ideas relacionadas con la miopía del SEO y su relación con el PANDA.

Creo que ahora más que nunca debemos de estar al tanto de factores analíticos como el tiempo en el sitio, porcentaje de rebote, tráfico directo vs. Proveniente desde el buscador, etc.

Justo recibo un “primer paciente” con síntomas de PANDA, por lo que no puedo ejemplificar un caso real… aunque prometo hacerlo cuando vaya más avanzado en el análisis :)

Lo que está seguro es que Google PANDA está aquí y parece que llegó para quedarse. Veremos sin duda cambios drásticos tanto de posiciones que influirán directamente con nuestra visitación… y más!

Personalmente no estoy tan seguro si esto eliminará –del todo– los sitios SPAM de las SEPR´s, aunque está por verse…

En tu caso: ¿Cómo te preparas para el PANDA?

La Miopía del SEO y el PANDA

Yo uso gafas, tal vez tú no… pero no hablo de esa miopía, sino de otra que viene afectando al mundillo SEO últimamente 😉

La miopía SEO se refiere a aquellos quienes solo consideraron los 200 y más factores que Google toma en cuenta para posicionar sitios Web dentro de sus estrategias de posicionamiento.

Es decir; no visualizaron más allá y se olvidaron del usuario, quien al final sería ese posible comprador del producto o servicio.

Todo esto tiene que ver sin duda con el fenómeno PANDA, del cual algunos colegas nos han documentado aquí, aquí y aquí.

En mi resumen del SMX Advanced de Seattle, mencioné algunos puntos de la ponencia de Alan Bleiweiss, en la cual relacionaba el efecto PANDA con sucesos anteriores como el “May-Day” del año anterior (también mencionado en mi resumen del SMX 2010).

El tema es que como lo demuestra esta gráfica de su presentación, es posible que el tráfico -visitación- para muchos sitios haya comenzado a disminuir desde aquel día… sin que le hayan prestado mayor atención.

Tomando como base este hecho, quizás algunos SEO se hayan estado enfocando únicamente en el algoritmo (buscador,) más que en el humano (visitante), teniendo que pagar un alto precio ahora.

Por ejemplo, la elaboración de un Layout para un sitio Web enfocado desde los dos puntos de vista, podrían verse así:

1. Con miopía SEO pudiera resultar algo como esto:

2. Por otro lado, una estructura de sitio equilibrado –pensando en el humano & buscador- podría verse como esto:

Un sitio Web equilibrado podría resultar muy beneficioso, logrando -entre otros- :

  1. Mejores posiciones en los buscadores electrónicos
  2. Mejor tasa de conversión
  3. Una mejor experiencia de usuario

Y si pensamos en Schema.org para el 2012 como punta de lanza o factor para el posicionamiento en busdadores SEO, tendremos un reto en la utilización de estos nuevos estándares de uso de metadatos, para generar mayor información hacia los buscadores de cara a los humanos

En síntesis: Un SEO miope se quedará enlodado tratando de cumplir todo en función del buscador; mientras que un SEO equilibrado anticipará y evolucionará según los nuevos requerimientos y necesidades no solo del buscador sino, del visitante.

Por lo tanto, si has pensado en los algoritmos al mismo nivel que tu visitante de carne y hueso, es posible que ya tengas al menos un remedio para el PANDA 😛

¿No crees?