¿Deberías de invertir en dominios locales?

¿Qué (otro) dominio deberías de reservar para tu empresa? Depende…

Después de algunos años de apostar siempre por reservar dominios “.COM” para todo tipo de proyectos, decidimos realizar un análisis en los últimos meses donde encontramos que los dominios locales (ccTLD) están logrando cada vez más posiciones relevantes en los SERPs.

Digo “más” pues ahora es mucho más común verlos posicionados en los primeros resultados de búsqueda… Solo haz alguna prueba utilizando Google “local”; por ejemplo:

Google España: “alquiler de coches Madrid”

Google México: “alquiler de autos df”

Google Colombia: “maestría Colombia”

Desventajas: Toma en cuenta que el costo de estos dominios es muy superior a los “.COM” que quizá acostumbras reservar. Por otro lado, los trámites de reserva pueden resultar un poco fastidiosos, pues algunos sitios no permiten el pago en línea.

Posibles Ventajas: Las ventajas podrían ser muchas, aunque creo que serán mejores en un futuro no muy lejano – hablando en términos de posicionamiento orgánico en buscadores.

Requisito: Obviamente quizás el único requisito para esta inversión, sea que tu producto o servicio posea un target hacia un mercado “local”, específico.

En el sitio de LACTLD (Latin American and Caribbean ccTLDs Organization) puedes encontrar los sitios oficiales donde reservar estos dominios locales.

Podrías hacer como propósito de año nuevo ahorrar un poco de dinero e invertir un poco en esto 🙂

¿Qué opinas?

New Marketing 2012 en San Salvador

El próximo 14 y 15 de Noviembre, el Congreso Internacional de New Marketing 2012 tratará de llevar las mejores prácticas y tendencias emergentes en cuanto a la filosofía de New Marketing. Este evento de casi fin de año, proveerá los recursos y habilidades que las organizaciones, marcas y agencias identificadas necesitan para mantenerse relevantes en los mercados siempre-cambiantes donde operan.

“Lo que vemos en Social Media es una parte del 10% de las conversaciones totales sobre marcas, productos y servicios, que realmente ocurren entre las personas. Lo que mueve estas y las conversaciones offline es muchas veces poco perceptible, y es lo que busca exponer este evento.” Dijo Rolando Peralta, Líder del Congreso Internacional de New Marketing.

Sobre el Organizador

CommunitiesDNA, es una firma dedicada a la investigación, diseño, construcción, desarrollo y rescate de comunidades de clientes y usuarios, utilizando estrategias de word of mouth marketing. Fundada en 2003, la empresa ejecuta proyectos de estas especialidades para diversas organizaciones en diferentes partes del mundo, para ayudar a las marcas y causas a conectar más eficientemente con sus audiencias clave.

“Se trata de abrir la mente de los asistentes para que contemplen prácticas de Marketing cada vez más innovadoras” expresó Peralta, Chief Word of Mouth Director de CommunitiesDNA.

Encuentra más información en:

El Congreso contará con grandes expositores sobre todo del área de Social Media. De mi parte, estaré presentando una charla con un eje temático alrededor del SEO -pero en la era del Social Media. 🙂

¿Te gustaría ganarte una entrada al Congreso?* Solo deja un comentario a este artículo expresando tu deseo de asistir, utilizando una cuenta de correo válida para poder contactarte, en caso resultes [email protected]
*(La entrada incluye solo el boleto del Congreso. No incluye transporte ni hospedaje u otros gastos relacionados).

Múltiples Página de Aterrizaje: ¿Realmente Relevantes?

¿Acaso has notado algo “extraño” estas últimas semanas en los SERP´s?

 Aparte de las fluctuaciones “normales” que algunas posiciones pudieran tener, parece que Google está considerando relevante tener múltiples URL´s de un único dominio.

Lo más curioso de esto, es que estas páginas de aterrizaje de un mismo dominio muchas veces contienen contenidos tan similares, que podría parecer un caso típico de “contenido duplicado” 😛

Una búsqueda para “programas MBA”, arroja resultados como estos:

Completamente en otro nicho, una búsqueda para “hotel en gran vía”, también sucede algo similar:

Analizando un nicho en particular por medio de herramientas SEO, intenté determinar valores de cuatro variables para ver si estas coincidían. Sin embargo, los resultados obtenidos fueron tan amplios como estos:

  1. Page Authority: Desde 1 hasta 76
  2. Page Linking Root Domains: Desde 1 hasta 1,004
  3. Domain Authority: Desde 35 hasta 76
  4. Linking Root Domains: Desde 68 hasta 4,294

Esto simplemente me lleva a re-plantear aquello que mencionó Bill Slawski en su blog hace algunos meses atrás: ¿qué es lo que realmente significa RELEVANTE para los motores de búsqueda, especialmente hoy en día?

Sin duda estos han evolucionado a pasos agigantados en los últimos años, por lo que la definición de relevancia quizás sea tan amplia y dinámica que hoy no se puedan justificar variables constantes en ella como se hacía en el pasado.

De hecho, si te fijas en los ejemplos mostrados arriba, hoy parece que una de ellas es la cantidad de páginas de aterrizaje que puedas hacer con tu sitio web… aunque no estoy del todo seguro que esto sea relevante para los usuarios, y más bien me recuerda hace algunos años cuando estos se hacía con fines casi que “black-hat” 🙁

¿No crees?

El rol del (nuevo) SEO

El SEO que todavía se enfoca solamente en conseguir posiciones en Google, quizás está viviendo en el pasado. Aquellos años en que la optimización se hacía exclusivamente para las máquinas –robots.

Y es que cualquier SEO “Old-School” podrá recordar las múltiples formas de manipular ciertos elementos dentro –y fuera- del sitio para posicionarse dentro de los primeros resultados. Todo radicaba en código, enlaces, y demás técnicas enfocadas en hacer sitios más accesibles para máquinas… no así humanos.

No obstante, la historia ha cambiado radicalmente y hoy Google la tiene más clara que nunca: sitios Web centrados en los usuarios. Esto tiene un nombre: la experiencia del usuario (User Experience).

De hecho, a inicios de este año, Google dejó claro que haría un cambio en su algoritmo considerando este factor MUY importante para él, pues sabía que algunos se aprovechaban de la “optimización” para mostrar sitios basura (PANDA terminó de comprobarlo).

¿Qué es la experiencia del usuario?

La experiencia de usuario es el conjunto de factores y elementos relativos a la interacción del usuario, con un entorno o dispositivo concretos, cuyo resultado es la generación de una percepción positiva o negativa de dicho servicio, producto o dispositivo (Definición de Wikipedia).

De ahí que cualquiera que se haga llamar “Experto SEO“, deberá asumir roles adicionales importantes en la toma de decisiones basadas en el usuario final; algunos que Wikipedia los describe mejor:

La experiencia de usuario depende no sólo de los factores relativos al diseño (hardware, software, usabilidad, diseño de interacción, accesibilidad, diseño gráfico y visual, calidad de los contenidos, buscabilidad o encontrabilidad, utilidad, etc.) sino además de aspectos relativos a las emociones, sentimientos, construcción y transmisión de la marca, confiabilidad del producto, etc.

El trabajo no es sencillo, pues en vez de intentar manipular “máquinas”, ahora el trabajo deberá estar enfocado paralelamente en el desarrollo de nuevas estrategias para interactuar con personas

Y no es que el SEO haya cambiado. Creo más bien que el rol del SEO estará enfocado en otros aspectos adicionales a los cambios de un algoritmo matemático 🙂

¿No crees?

5 notas rápidas del SMX Advanced

Hace un par de semanas estuve de nuevo en el congreso SEO de Seattle; el SMX (Advanced).

Aunque intenté tomar algunas notas, esta vez  todo estaba tan enfocado en Penguin que al final mucho se concentró en hacer networking y compartir experiencias.

Sin embargo, comparto cinco notas diversas para reflexionar:

1. Está más que claro: el SEO no es lo mismo que hace algunos años atrás

De lejos quedaron aquellos días en que el SEO basaba su trabajo en unas cuantas cosas que hacer -como buscar enlaces, para luego ver cómo su sitio se posicionaba y se mantenía ahí sin mayores esfuerzos – al menos en una gran mayoría de los casos.

2. Los resultados personalizados: no habrá opción

Google sugerirá los resultados más “personalizados” posibles a cada usuario en particular. Esto estará basado en métricas tan variables, que incluso en una misma locación geográfica se verían SERPs completamente distintos, según el perfil de cada usuario en particular.

3. Google+ llegó: para quedarse

No es cierto que Google+ es otro “experimento” de esos de Google; esta vez llegó para quedarse, pues todo gira(rá) en torno a él. Si acaso lo dudas, es mejor que consideres tener tu página personal o empresarial dentro de esta “desconocida” plataforma social, aún cuando parezca que muchos no la utilicen. Su impacto en las SERP´s será más notorio de lo que se espera…

4. Penguin: no apto para pseudo SEO`s

SEO sin pecado: SEO feliz! 😛 Pues si “pecabas” aún en pequeña escala, tendrás tu castigo… tarde o temprano. El tema de enlaces se complicó, después de que algunos abusaran de ellos para mejorar sus posiciones en buscadores. Ahora no hay escape: tendrás que esperar las próximas actualizaciones de esta movida de Google.

5. SEO para móviles: Google marca sus reglas

Tal cual explicó y dejó en evidencia el mismo Pierre Far de Google, existen ciertas pautas a seguir cuando se piensa en optimizar la versión móvil de los sitios Web. De hecho, justo ese día se publicaron en el blog oficial de Google.

Me disculpo por la brevedad del artículo, pero he tenido muchos enlaces que eliminar que hacer estos días 🙂 Recomiendo estos resúmenes completos del primero y segundo día del evento de Barry Schwartz (en inglés)…

SEO Off-Page, ¿Todavía efectivo?

Con tanta noticia sobre el Penguin y un PANDA que no deja de actualizarse, parece que algunos están cuestionando sus “estrategias” de posicionamiento Off-Page

Seamos honestos: esas “estrategias” consistían principalmente en buscar enlaces recíprocos –o no-, donde fuera y enfocados en cantidad más que calidad, manipulando los Anchor-Text.

Y aunque todo parecía funcionar muy bien, está claro que ya no es así. Todo acabó. Algunos están viendo cómo sus sitios dejaron esas posiciones de privilegio para términos en particular, y su tráfico decayó drásticamente.

Tampoco es que los enlaces en sí son “malos”, pero creo que algunas técnicas básicas del SEO de la “vieja escuela” son las que toman cada día mayor importancia, o al menos deberían re-plantearse con mayor detenimiento. Tres de las más conocidas:

1. El Contenido

Uno de los pasos más importantes para mejorar la clasificación de tu sitio en los resultados de búsqueda de Google consiste en asegurarse de que el contenido esté repleto de información interesante (Lee más…)

2. El uso excesivo de Palabras Clave

Las páginas repletas de palabras claves constituyen una mala experiencia para el usuario y puede afectar el ranking de tu sitio (Lee más…)

3. Los Contenidos Duplicados

En los casos en que Google detecte que se muestra contenido duplicado con la intención de manipular las clasificaciones y engañar a los usuarios, aplicará los ajustes adecuados en la indexación y clasificación de los sitios involucrados (Lee Más…)

Si te fijas bien, esas técnicas -aunque tan antiguas como el mismo SEO- provienen directamente desde Google y se enfocan en aspectos “On-Site” más que “Off-Site”. Y si lees bien, las directrices para webmasters de Google lo que recomiendan es crear sitios web con contenido original que suponga un valor añadido para los usuarios.

Y creo que ahí ha estado siempre la clave: hacer sitios relevantes.

Y aunque el término en sí es muy amplio (relevancia), puedes aprender un poco más leyendo lo que la misma Wikipedia define como relevancia de un artículo:

La relevancia es distinta de la fama, la importancia o la popularidad, aunque éstas pueden correlacionarse verdaderamente con ella.

Esto aplicado al SEO, podría traducirse como que la relevancia no está basada en los enlaces, barrita verde o cantidad de seguidores de Twitter 😛 …si no enfocada en lo que represente para los usuarios, visitantes, lectores, etc.

Sabiendo esto, en vez de buscar enlaces quizás debas preocuparte por hacer de tu sitio algo que luzca “natural”, con autoridad sobre el tema que dominas, útil para tu mercado meta, etc.

O más bien; ¿Crees que las estrategias “Off-Site” sigan siendo efectivas?

(Fuente de la imagen)

El Knowledge Graph de Google

Interesantes las últimas noticias de Google, sobre su nueva forma de mostrar resultados… algo diferentes a los que hemos visto por años.

Se trata de “Knowledge Graph”, un término que algunos explican como “el cómo Google va a enlazar relaciones entre personas, lugares y “cosas”, intentando mejorar los resultados de búsqueda”… añadiendo información contextual complementaria a los usuarios justo al lado derecho de la lista orgánica.

Claro está, parece que solo algunas “cosas” están contempladas para mostrar esta información contextual adicional, tales como:

  • Actores, directores, películas
  • Museos y obras de arte
  • Países y ciudades
  • Grupos y álbumes musicales
  • Planetas, el Espacio
  • Equipos deportivos

De momento la función está habilitada solo en las versiones en inglés de Google, pero ha estado en laboratorio por lo menos durante dos años.

Mira este video donde lo explican claramente (inglés):

Al parecer va más allá que el Universal Search de hace 5 años atrás, pues en realidad enlaza todo un “universo de cosas” –supuestamente más de 500 millones de objetos.

Esto me recuerda la web “Semántica” del que mucho se ha dicho. Aquella web que permitiría casi leer la mente del usuario para brindar resultados más acordes a sus gustos y preferencias, ubicación geográfica, etc. (La adquisición de Freebase en 2010 tendrá algo que ver con esto, o no?).

Creo que Google nos deja más claro que la web no son solo enlaces (si es que alguno queda con vida después del pingüino asesino 😛 ), sino se trata de CONTENIDOS, CONTENIDOS, CONTENIDOS.

Ya no son “palabras clave”, ahora son frases relacionadas entre sí, que Google podrá reconocer y enlazar para mostrar resultados más acordes a las búsquedas.

¿Crees que esto sea el preámbulo de los resultados de Google en un futuro cercano?

Llegó un Pingüino (Asesino) a Google

Si soñabas con Pandas, ahora quizás tengas pesadillas pero con Pingüinos.

“Penguin” –Pingüino en castellano, es la más reciente actualización de Google, la cual puso en el tapete el tema de los enlaces, en particular aquellos de “bajo” valor y se caracteriza porque simplemente los liquida.

No hace mucho tiempo atrás, la gestión de conseguir enlaces para un SEO de la “vieja escuela” estaba dentro de sus primeras funciones –aunque siempre dije que no eran tan necesarios para obtener un buen posicionamiento, y mucho menos algo “mandatorio”.

En fin; en el afán de conseguir enlaces, parece que algunos se aprovechaban “de la nobleza” de Google para conseguir cantidad pero nunca calidad de links hacia sus sitios Web, olvidando que Google podía reconocer no solo cuántos, si no cuándo y de qué forma se adquirían todos y cada uno de ellos.

Por tal motivo, los enlaces “artificiales” – como siempre los he llamado- tuvieron “su día”; en especial:

Los enlaces pagos

Previamente castigados por Google, pero ahora con mucho mayor fuerza sobre todo aquellos con “Anchor-Text” similares. Quienes pagaban por enlaces, generalmente utilizaban frases clave muy específicas para posicionarse.

Enlaces desde comentarios basura

Sí, esos que frecuentemente se borran de un blog, pues no aportan nada y su “firma” siempre lleva enlace hacia sitios fuera de tópico, con URL´s algo complicadas y hasta en idiomas diferentes.

Millones de enlaces desde portales basura

Aquellos que no tienen el más mínimo grado de “confianza”, generalmente saturados de artículos también basura. Fáciles de encontrar; más de lo que piensas.

Como bien lo menciona este artículo, esto no es algo “nuevo”, pues Google siempre recomendó: calidad en vez de cantidad. De hecho, parece que todo no termina en el tema de enlaces, sino que abarca tópicos paralelamente complementarios como mostrar muchos anuncios dentro de tus páginas, con contenidos poco relevantes -bueno; PANDA per se.

En este sentido, aquellos enlaces “naturales” seguirán siendo mucho mayor resistentes a cualquiera actualización de Google: sean pingüinos, Koalas, mariposas, etc. (cualquiera que sea el nombre del próximo cambio de algoritmo) 😛

¿Qué tal te ha tratado este nuevo animal de la familia SEO?

¿Sabes cuántos, quienes y desde dónde te enlazan? Utiliza esta herramienta para tener una simple idea. Quizás te sorprendas…

(Imagen utilizada de aquí).

 

¿Tienes un sitio (sobre) optimizado?

Hace tres años atrás, Matt Cutts -sí, el de la foto de arriba- se refirió al tema de la sobre-optimización de los sitios Web como algo más del lado “oscuro” (SPAM) que otra cosa y que Google no penalizaba esta técnica en particular (mira el video).

Sin embargo, parece que Google penalizará aquellos sitios sobre-optimizados. Al menos así lo dijo el mismo Matt Cutts la semana anterior (audio disponible en inglés acá).

El tema del “black-hat” en el mundillo SEO es muy conocido, y se ha dicho que es más ético que otra cosa. Ahora bien, sabiendo que Google penalizará aquellos sitios optimizados en “abundancia”;

¿Cuál será la línea delgada entre un sitio optimizado y otro sobre-optimizado?

Podríamos citar muchas técnicas que podrían hacer parecer tu sitio Web sobre-optimizado, pero tres de las más utilizadas son:

1. Keyword Stuffing (Uso excesivo de palabras clave)

¿Repites mucho las palabras clave en tu texto? El “uso excesivo de palabras clave” hace referencia a la práctica de llenar una página web con palabras clave con la intención de manipular el ranking de un sitio en los resultados de la búsqueda de Google. Esto incluye texto oculto. Puedes leer cómo el mismo Google lo explica en detalle…

2. Duplicate Content & Sites (Contenidos y Sitios duplicados)

¿Cuántos dominios tienes con sitios y contenidos muy similares entre sí? No hagas varias copias de una página Web con diferentes dominios (URL). Muchos sitios ofrecen versiones de solo texto o versiones “light” de páginas que presentan el mismo contenido que el de las páginas principales con tal de incrementar el tráfico.

3. Buying or Links Exchange (Compra o intercambio de enlaces)

¿Quién te enlaza? Ten en cuenta que Google pueden distinguir los enlaces “naturales” de los que no lo son. Los enlaces naturales a tu sitio se desarrollan como parte de la naturaleza dinámica de la Web cuando otros sitios lo consideran valioso y útil. Por lo cual; no es lo mismo a un intercambio de enlaces condicionado y mucho menos, a pagar por ellos.

Recuerda que si además de estos elementos equilibrados, tienes un sitio Web que genera “engagement” (o arte de conseguir que tus visitantes permanezcan en él) demostable por medio de tus datos analíticos, te ayudará a tomar decisiones importantes para mejorar variables tales como el porcentaje de rebote, fuentes de tráfico, etc. y harán a un Google Feliz 😛

Por otro lado, no olvides que cualquier proceso de optimización SEO abarca mucho más que Metadatos y Enlaces: incluye áreas como la creación de contenidos relevantes y su impacto para los visitantes, con el objetivo de “engancharlos”. Y esto será otra señal para Google incluso que muchos enlaces entrantes…

Y no creas que Google “odia” o piensa que todos los SEOs sobre-optimizan sus sitios Web. Al menos así lo dijo Matt Cutts hace poco tiempo. Mira el vídeo.

Todo parece apuntar a que Google evitará aquellos SEOs que abusan de su “conocimiento” y mañas “oscuras” para posicionarse por encima de sitios con mucho mejor contenido y “engagement” para los usuarios. Algo que un PANDA nos está recordando últimamente 😉

¿No crees?

Créditos de la imagen utilizada.

SEO: 3 Razones para utilizar Schema

Hace algunos meses comentamos sobre el uso de Schema, y su posible “impacto” para el SEO.

Si bien el uso de este recurso todavía se limita a ciertas categorías en particular, parece tener un impacto positivo en comparación con los resultados tradicionales basados en los Meta-datos o contenidos del sitio Web.

A partir de este reciente artículo y los resultados iniciales obtenidos para un proyecto de recetas en particular, quisiera compartir tres breves conclusiones:

1. La forma de presentarse en las listas de resultados, resulta mucho más ordenada y llamativa para los usuarios. Por ejemplo: ¿Cuál resultado de estos crees que resalte más que todos?

2. Algunos resultados se posicionaron por encima de sus competidores más fuertes para este nicho en particular. Esto lo coloca en posición ventajosa sin duda alguna 🙂

3. Al permitir enlistar ordenadamente listas de ingredientes como variable independiente -entre otras; las combinaciones de palabras clave se multiplican, generando mayores posibilidades de posicionamiento mediante el long-tail.

Sin duda que con solo atraer la mirada de más usuarios potencializamos los clics hacia el sitio en particular, generando mayor tráfico de visitas y posibles ventas.

Y no es que debamos olvidarnos de optimizar los tradicionales y “veteranos” Meta-datos, pues siguen teniendo relevancia… De hecho, hasta podrías aparecer posicionado doblemente para ciertas búsquedas si lo haces paralelamente al utilizar las “etiquetas enriquecidas” 😛

¿Alguna experiencia relacionada que quieras compartir?