Google+ y sus efectos colaterales

Si todavía no estás familiarizado con Google+, quizás valga la pena que lo hagas.

En pocas palabras, podríamos decir que Google+ es la integración de todos los productos de Google, donde podrás interactuar con tus contactos (amigos) y los contenidos que ellos generan…

Sí, quizás algo muy similar a tu Facebook pero lejos de lo que intentó ser Buzz y Wave hace algún tiempo atrás. Algunos expertos han dejado sus impresiones acá, acá y acá.

Pero, ¿de qué se trata realmente?

En mi humilde opinión, podría decir que Google+ es sin duda otro intento -quizás desesperado- de Google por entrar al rollo “social” de moda en estos tiempos, pero al cual le inyectaron fuerza después de la disputa con TripAdvisor hace algunos años,  la culminación del contrato con Twitter –y los resultados en tiempo real – hace pocos días, entre otros sucesos…

Ellos -Google- sabían que necesitaban sus propias fuentes de contenidos para sus propios productos y servicios, en vez de tomarlas de sitios de terceros -como siempre lo habían hecho.

Con hechos tan claros, quizás ahora comprendas lo importante de conocer pero sobre todo participar en Google+, pues podrías estar perdiendo/ganando credibilidad & algunas visitas para el sitio Web de tu negocio… ¿No lo crees?

Un ejemplo rápido y sencillo:

¿Sabias que los Reviews –testimonios- mostrados desde lugares en el Mapa de Google, provienen de Google+?

Aquel “Place Page” se trasladó a “Maps” de Google+ en donde los testimoniales provienen de la misma plataforma (en vez de sitios como TripAdvisor, Yelp, etc.) y podrás leerlos sin necesidad de estar logueado con tu cuenta de Google, y hasta te permitirá emitir criterio una vez conectado a tu cuenta personal de Gmail.

Acá un espacio para que los usuarios dejen sus opiniones:

Creo -sin lugar a dudas- que el mismo Google estará maximizando el uso del contenido generado a través de Google+, conforme la cantidad de usuarios aumente… aún más.

Será solo cuestión de tiempo para ir descubriendo el poder de Google+ en los resultados de varios servicios del mismo Google… todos en su poder 🙁

¿Cuál es tu opinión? ¿Qué otros efectos tendrá Google+ en un futuro no muy lejano?

No sigas buscando un TOP10

Así es, algo sarcástico pero verdadero…

Una posición en el TOP10 suena “tentadora” y es común que muchas empresas ofrezcan esto mediante leyendas como: “Google Top 10 Garantizado”, “Top 10 o le devolvemos su dinero”, «Solo TOP10. Otra posición no es rentable para nadie», «TOP 10 de un SEO eficiente», entre muchas otras…

Pero la realidad podría ser muy diferente, pues algunas posiciones aún dentro de ese TOP10 generan poco o nada de clics en relación con las posiciones ubicadas más arriba.

De hecho, lo habíamos discutido hace algunos años atrás aquí sobre el que un TOP10 quizás no era tan “efectivo” para incrementar tráfico hacia nuestro sitio Web.

Según ese estudio, una posición #10 tenía una quinta parte de posibilidades de generar un clic, en comparación con otra ubicada en #3.

Si todavía no lo crees, me gustaría ilustrar este tema con un caso verídico, en donde a pesar de estar posicionado dentro del TOP10 en lugares como #5 & #6, no fue sino hasta que la posición llegó al #3, donde las visitas orgánicas simplemente se duplicaron de un mes a otro.

Mira la gráfica:

Este hecho incrementó por supuesto que el CTR, ya que la relación impresiones vs clics mejoró considerablemente 😉 (A pesar de los múltiples enlaces del Google mismo).

No creo que sea un caso “aislado” y si quieres comprobarlo; haz tú mismo la prueba! Todo está en obtener ese TOP3 en vez del TOP10…

¿Alguna experiencia con esto?

La Miopía del SEO y el PANDA

Yo uso gafas, tal vez tú no… pero no hablo de esa miopía, sino de otra que viene afectando al mundillo SEO últimamente 😉

La miopía SEO se refiere a aquellos quienes solo consideraron los 200 y más factores que Google toma en cuenta para posicionar sitios Web dentro de sus estrategias de posicionamiento.

Es decir; no visualizaron más allá y se olvidaron del usuario, quien al final sería ese posible comprador del producto o servicio.

Todo esto tiene que ver sin duda con el fenómeno PANDA, del cual algunos colegas nos han documentado aquí, aquí y aquí.

En mi resumen del SMX Advanced de Seattle, mencioné algunos puntos de la ponencia de Alan Bleiweiss, en la cual relacionaba el efecto PANDA con sucesos anteriores como el “May-Day” del año anterior (también mencionado en mi resumen del SMX 2010).

El tema es que como lo demuestra esta gráfica de su presentación, es posible que el tráfico -visitación- para muchos sitios haya comenzado a disminuir desde aquel día… sin que le hayan prestado mayor atención.

Tomando como base este hecho, quizás algunos SEO se hayan estado enfocando únicamente en el algoritmo (buscador,) más que en el humano (visitante), teniendo que pagar un alto precio ahora.

Por ejemplo, la elaboración de un Layout para un sitio Web enfocado desde los dos puntos de vista, podrían verse así:

1. Con miopía SEO pudiera resultar algo como esto:

2. Por otro lado, una estructura de sitio equilibrado –pensando en el humano & buscador- podría verse como esto:

Un sitio Web equilibrado podría resultar muy beneficioso, logrando -entre otros- :

  1. Mejores posiciones en los buscadores electrónicos
  2. Mejor tasa de conversión
  3. Una mejor experiencia de usuario

Y si pensamos en Schema.org para el 2012 como punta de lanza o factor para el posicionamiento en busdadores SEO, tendremos un reto en la utilización de estos nuevos estándares de uso de metadatos, para generar mayor información hacia los buscadores de cara a los humanos

En síntesis: Un SEO miope se quedará enlodado tratando de cumplir todo en función del buscador; mientras que un SEO equilibrado anticipará y evolucionará según los nuevos requerimientos y necesidades no solo del buscador sino, del visitante.

Por lo tanto, si has pensado en los algoritmos al mismo nivel que tu visitante de carne y hueso, es posible que ya tengas al menos un remedio para el PANDA 😛

¿No crees?

3 Datos Analíticos Básicos para SEO

Es común que algunas empresas deleguen ciertas funciones de mercadeo en una sola persona clave, la cual deberá estar lidiando con los problemas del mercadeo tradicional además del electrónico.

Esto lo digo porque muchos directores del departamento de mercadeo son los encargados de mirar herramientas como Google Analytics, en donde algunos –para no decir muchos- datos son prácticamente incomprensibles para ellos.

Y cuando se ejecuta un trabajo de optimización para buscadores SEO, es importante saber qué datos tomar como referencia, sobre todo para validar si la estrategia ha sido –o es- provechosa en relación «costo-beneficio».

Creo que tres datos básicos por reconocer en Google Analytics deberían ser:

1. Porcentaje de tráfico desde los Buscadores Electrónicos

Si no estás seguro de qué porcentaje del tráfico proviene desde los buscadores electrónicos orgánicamente, no podrás determinar si la estrategia de optimización ha dado algunos resultados positivos.

Pero; ¿qué porcentaje debería ser el indicado?

Depende. Si eres un sitio popular y tu marca es reconocida, quizás tu tráfico directo sea mayor, y no significa que tu estrategia va mal.

En este apartado, puedes determinar no solo el porcentaje general sino de cuáles buscadores estás recibiendo el tráfico. Es posible que encuentres nombres poco –o nada- conocidos, o bien, veas como Google sigue dominando el mercado de las búsquedas en Internet.

2. Palabras Clave (Keywords)

Si ya conoces el porcentaje de visitación proveniente desde los buscadores electrónicos, quizás deberías revisar por medio de cuáles palabras o frases llegan hasta tu sitio Web.

No te olvides del efecto “Cola-Larga” (Long-tail en inglés) el cual puede demostrarte que muchas personas utilizan múltiples combinaciones de palabras clave… para decir lo “mismo”.

Recuerda utilizar el filtro en la parte inferior, el cual permitirá mejores análisis –quizás debas excluir tu propio “nombre” para validar los datos más relevantes.

Haz clic sobre cada palabra/frase clave para determinar datos adicionales puntuales, los cuales te ayudarán a reconocer más la efectividad de cada una. Claramente podrías descubrir que esa frase clave no era tan “atractiva” como parecía :p

3. In-Page Analytcis

En el proceso de optimización es normal que se “alteren” algunos contenidos, o coloquen enlaces aquí o allá estratégicamente con el fin de mejorar el proceso natural de indexación y otros…

Pero, algunas veces no todos están de acuerdo con colocar esos “detalles” pues rompen el esquema visual, institucional o parece que no aportan valor para los visitantes.

Con este apartado, podemos determinar si en realidad los enlaces dentro del texto o menú de navegación están siendo utilizados y le han generado más tráfico hacia otras secciones del mismo sitio Web.

Por ejemplo: un sitio de un hotel solo mencionaba los tipos de habitaciones en su página principal descriptiva. Colocar unos enlaces hacia cada una de las páginas en particular, elevó la visitación hacia sus otras secciones, en particular un tipo de habitación:

Como ves, estos son apenas tres de múltiples datos provenientes desde Google Analytics, los cuales podemos interpretar como base para evaluar el progreso de la estrategia SEO.

También se pueden utilizar otras herramientas analíticas en caso no quieras darle más poder a Google 😛 O asistir a algún Seminario de Analítica Web 😉

¿Qué otro dato “básico” crees relevante saber interpretar para SEO?

Está claro: Google (continúa) dominando el mercado en LatAm

Según el último comunicado de prensa de comScore , la red de sitios Google –incluyendo YouTube- representan 9 de cada 10 búsquedas efectuadas en América Latina.

Los latinos efectuamos 18.500 Millones de Búsquedas en Marzo:

En Marzo 2011, los Latinoamericanos efectuaron un total de 18.500 millones de búsquedas, representando ello un aumento de 21% en relación al año anterior. Este crecimiento fue principalmente impulsado por un 14% de incremento en los visitantes -que utilizan búsquedas- únicos, así como también por un 6% de aumento en el número de búsquedas por visitante.

Hay que aclarar que en dicho estudio solo se incluyeron seis países de la región, cuando en realidad América Latina la conforman más de veinte.

Dentro de estos, algunos datos interesantes son:

Brasil generó el volumen más alto de solicitudes de búsqueda con cerca de 6 millones y también obtuvo la mayor tasa de crecimiento: 34%. México se ubicó como el segundo mercado de búsquedas de la región, con 3.171 millones de búsquedas realizadas (equivale a un aumento de 23%), seguido por Colombia con 2.866 millones de búsquedas (aumento de 28%).

¿Y dónde están los otros buscadores?

Con más de un 90% de participación de Google, solo queda menos del 10% el cual se reparte de la siguiente manera:

  • Facebook.com -525 millones de búsquedas (2,8% de participación)
  • Sitios Microsoft  – 513 millones de búsquedas (2,8% de participación)
  • Sitios de Yahoo – 198 millones de búsquedas (1,1% de participación)
  • Ask – 112 millones de búsquedas (0,6% de participación)
  • Terra –Telefónica -109 millones de búsquedas (0,6% de participación)

En pocas palabras: Google es líder indiscutible en términos de búsqueda en nuestra región; algo que no sorprende pues nuestro Google Analytics siempre nos lo recuerda 😛

Sin embargo, me parece importante recalcar que la participación de los sitios de Microsoft que incluye al buscador Bing, aparezca en “escena”. Y a pesar que el porcentaje de participación está muy por debajo de “Big Brother”, compite con Facebook y se convierte quizás en el segundo buscador más utilizado de la región.

Esto me recuerda mi presentación en el I Congreso SEO Profesional: No solo de Google vive el hombre!

Datos interesantes para analizar… ¿no crees?

Sí, las posiciones (todavía) oscilan mucho

A pesar de los múltiples  avances de Google –con cafeína– y otros, todavía es posible encontrar mucha inconsistencia en términos de posiciones en las listas de resultados.

Cuando luchamos por alcanzar algunas  posiciones relevantes en las listas de resultados, es normal que llevemos un control de las mismas para validar de alguna manera nuestro trabajo – ya sea que trabajemos en nuestros proyectos o de nuestros clientes.

En lo personal me gusta utilizar WebCEO, ya que permite visualizar el historial de una posición durante cierto tiempo, y de paso me pone alerta cuando algo sucede…

Dentro de estos datos puntuales, últimamente he notado oscilaciones repentinas constantes – mucho más frecuentes que hace algún tiempo atrás.

Veamos esta gráfica -Etapa 1:

Como pueden ver,  durante esta primera etapa de optimización se trató de mejorar una posición en particular (la línea roja representa la posición #10).

Como dato relevante, en al menos cinco oportunidades dicha posición decreció e incluso hasta “desapareció” de la lista de resultados… digamos que algo «normal» en cualquier proceso de posicionamiento.

Ahora bien, veamos esta otra gráfica -Etapa 2:


Para esta segunda etapa -donde se esperaban mejores resultados- lo menos que sucedió fue algún «equilibrio» en los resultados.  En vez de eso; múltiples “bajadas” más que repentinas, constantes en más de una docena de veces 🙁

*Como dato general: Las gráficas utilizadas se tratan del mismo proyecto, con tiempos promedio casi exactos en ambas etapas.

Si bien este podría ser solo un caso “aislado”, el asunto es que para dicho proyecto durante ambas etapas solo se llevaron a cabo las acciones normales de optimización – no hubo cambios drásticos de contenidos, re-diseños, etc.-  por lo que pareciera ser un asunto más de lado del buscador que otra cosa…

¿Qué opinas? ¿Te ha ocurrido algo similar?

¿Se podría aplicar una Certificación al SEO?

Primero que todo, definamos en qué consiste una Certificación… algo así como las Normas ISO:

ISO designa un conjunto de normas sobre calidad y gestión continua de calidad, establecidas por la Organización Internacional de Normalización (ISO). Se pueden aplicar en cualquier tipo de organización o actividad orientada a la producción de bienes o servicios… Su implantación, aunque supone un duro trabajo, ofrece numerosas ventajas para las empresas… vía Wikipedia.

Luego de muchos años de existir los servicios SEO, algunos se han cuestionado si es necesario estandarizar el servicio por medio de alguna certificación internacional regulada por un ente único. (No hablo de una garantía de posicionamiento – eso es otra discusión).

Si bien recuerdo, desde el año 2003 SEMPO se fundó como organización sin fines de lucro con el objetivo de crear una comunidad de profesionales dedicados al mercadeo en internet, aunque sin fungir como “mediador” entre sus miembros y la calidad de servicios que brinda cada uno.

Es decir; SEMPO no garantiza el trabajo de las firmas de empresas o particulares que lo componen.

Por otro lado, Bruce Clay tiene desde hace muchos atrás su Código de ética SEO, el cual pretende delimitar el accionar de un profesional SEO; aquello que es –o no- correcto éticamente; pero tampoco constituye un sello de “garantía” sobre los servicios que brindan las empresas y particulares que ofrecen servicios SEO.

Incluso algunas universidades españolas se han unido a la formación de profesionales en el tema del posicionamiento en buscadores ofreciendo programas de Maestrías. Y aunque unos hemos optado por estudiarlos; tampoco legaliza al profesional como tal.

Ante esto, podemos deducir que nuestra profesión no posee un estándar ni en sus procesos, mediciones o nivel de satisfacción al cliente… ni mucho menos, un ente regulador.

Y aunque cada proyecto es diferente, sería interesante pensar en implementar alguna “validación” por medio de un ente competente, el cual pueda -al menos- regular los procesos para hacerlos más eficientes e incrementar así las posibilidades en el logro de los objetivos, entre otros.

¿Crees que sea posible? ¿Qué opinas al respecto?

¿Por qué las empresas deciden contratar un SEO externo?

Hoy en día no hay duda que el tema del SEO tomó “fuerza”, y ha hecho que algunos se apresuren por contratar un “SEO” tiempo completo en sus empresas…

Es común ver anuncios publicados con titulares como:

  • «Busco Experto SEO»
  • «Busco Especialista en SEO»
  • «Experto SEO en posicionamiento en Google»
  • «Busco técnico experto SEO para mi empresa»

Sin embargo – y según los resultados (PDF) de una encuesta realizada- por SEMPO recientemente (a más de 900 compañías y agencias en más de 66 países) demostró que la tendencia parece ser más bien contratar un servicio de SEO externo; ya sea por medio de una empresa o bien, un consultor SEO independiente.

¿Las razones?

Las primeras tres razones para contratar un proveedor externo SEO en vez de tener uno en “casa” son:

  1. Personal poco capacitado para ejecutar SEO en la empresa
  2. El mucho tiempo que dedicar al SEO cuando hay otras cosas que hacer
  3. Carencia de herramientas y tecnologías apropiadas

Mira la gráfica:

*Resulta algo interesante que la quinta razón del porqué sucede esto se relaciona con el costo; pues consideran que es más “económico” contratar un servicio SEO externo que mantener a una persona en el puesto (?)

Basado en mi experiencia, creo que quizás la principal razón del porqué las empresas no tienen una persona “exclusiva” para hacer SEO dentro la empresa -aparte del presupuesto- es el desconocimiento generalizado sobre el tema, el cual directamente les dificulta mucho desde crear el puesto de trabajo, contratar a la persona indicada, así como controlar su progreso, entre otros.

Hacer SEO «In-house» implica responderse muchas preguntas como estas; al igual que contratar el servicio. La diferencia radica en las expectativas que se tengan al respecto…

Un personal poco capacitado en el tema y/o dedicado a múltiples funciones dentro de la empresa -diseño, diagramación, redes sociales, reuniones de mercadeo, etc.- podría «entorpecer» el tiempo que se requiere constantemente para estar al día con las últimas tendencias de este arte de posicionar sitios.

Por otro lado, la contratación de una empresa o consultor SEO no es una tarea sencilla. Esto podría ser algo complejo y se hará necesario cuestionarse también algunas preguntas como las que el mismo Google sugiere

Según tu experiencia, las empresas deben; ¿Contratar un SEO externo o hacerlo en «casa»?

Twitter influencia(rá) el SEO

Desde que Google y Bing anunciaron que mostrarían resultados en “tiempo real”- provenientes especialmente de Twitter, se especulaba que de alguna manera estos tendrían  influencia en los resultados orgánicos…

Dicho esto, la semana anterior ambos buscadores confirmaron que los enlaces compartidos mediante Twitter (y Facebook) tienen un impacto en el posicionamiento orgánico SEO.

Basado en la entrevista de Danny Sullivan, tres hechos interesantes:

De los RT

Bing lo tomará en cuenta primeramente por la “autoridad” de cada usuario, basándose en la cantidad de personas que lo siguen y sigue. Quizás esto tenga alguna relevancia para aparecer posicionado en las listas orgánicas para palabras claves. Esto queda claramente demostrado en Bing Social Search, donde los Twitteros más “populares” (o con mayor autoridad)  aparecen por encima de los “demás” para frases similares.

En el caso de Google: al igual que Bing, pero incluyendo eso como “señal” para las posiciones relacionadas con “Noticias” (De hecho tiene relación con la nueva opción de compartir).

De la Autoridad

Bing: intenta “conocer” quiénes son los personajes más “conocidos” de la Twittosfera, y basado en eso otorgan la autoridad a cada usuario. Esto aplica más que todo a cuentas de figuras públicas (artistas, políticos, etc.) o reporteros reconocidos en el medio.

Google: más que tan solo “intentar”, registran cada usuario y utilizan una medición de “calidad de autor”, ya que no pueden conocer a cada uno en la vida real.

De los Enlaces

Bing: calculará el “peso” del enlace dependiendo de la persona que lo Twittea.

Google: es una señal y se ve reflejada en los resultados de búsqueda del Google Realtime Search (No tiene nada que ver con la barrita verde (PageRank) del usuario, sino la “autoridad del autor”).

Pero; ¿Qué podríamos concluir?

Rand Fishkin lo expuso posteriormente muy claro en su blog:

  1. La cantidad de seguidores será algo importante, pues podría ser homólogo a la cantidad de enlaces apuntando hacia un sitio Web.
  2. La calidad de seguidores es aún más importante, pues reflejará en cierta forma la “autoridad” de cada Twittero.
  3. La buena relación entre Followers/Following es importante. Una cuenta aún con 100k Followers donde 99k son Following pero con poca interacción, podría dar como resultado un usuario de “poca autoridad” y una relación de 100k Followers + 5k Following.
  4. El enfoque para tópicos particulares se vuelve relevante, ya que una “autoridad” estará ligada a un tema en común, dejando quizás de lado temas secundarios o genéricos.
  5. Las fuentes de información de aquello que se Twittea podrán ser relacionadas inclusive con la URL de la cuenta de Twitter, en donde será más relevante que otros mencionen esa fuente que el mismo usuario.

Sin duda que estos son apenas los primeros indicios de esta influencia, y estaremos viendo algunos cambios desde Twitter para el posicionamiento orgánico poco a poco…

Lo mejor de todo es que mediante estos filtros se puedan evitar las cuentas SPAM de las que en algún momento comentamos

¿Qué opinión le mereces a este tema?
¿Crees que Twitter sea un canal para lograr posicionamiento orgánico?

Hablemos del tema hoy vía Streaming en Pio.la (20 hrs, UTC−06)

Impresiones Google RealTime Search

Después de varios meses de estar en suspenso y como una “predicción” del mismo Matt Cutts en diciembre anterior, la semana anterior se hizo oficial el buscador en tiempo “real” de Google!

Y aunque mi primera impresión el mismo día de su lanzamiento no fue buena

… luego todo volvió a la normalidad por medio de su propia URL http://www.google.com/realtime 😉

Según su única página de aterrizaje, lo “nuevo” para estas búsquedas en tiempo real es que:

  • Filtro de resultados: Señalan los resultados según el lugar, tiempo, y más
  • Ver conversaciones completas: Leer completos los hilos de las conversaciones para obtener contexto sobre cualquier tema

Y aunque en esta etapa todo parece ser más un “experimento” que otra cosa (mira la URL del enlace), las primeras impresiones sobre su uso y carencias son varias… comparto algunas de las razones expresadas por @rww:

Alertas de Actualizaciones

Los usuarios deberíamos poder suscribirnos a canales o feeds –por medio de RSS– de cambios a los resultados de búsqueda que nos “avise” cuando algo nuevo sucede (Algo así como las alertas de Google).

Fuentes Adicionales

Tiempo real no significa solo Twitter & Facebook. Existen muchos otros elementos en la Web en tiempo real que podrían ser tomados en cuenta.

Opción a seleccionar las Fuentes

¿Has hecho algunas búsquedas? Si así es, habrás notado que los resultados están dominados por Twitter (no me sorprende), por lo que sería interesante poder limitar las búsquedas a Twitter, Facebook de manera más sencilla (actualmente debes configurar las opciones en búsqueda avanzada y especificar el dominio como por ejemplo: “site:myspace.com” en caso quieras resultados filtrados para MySpace).

Filtros más estrictos al SPAM

Como bien lo habíamos comentado antes, aunque dichos resultados ahora son “momentáneos”, Google no es “perfecto” y quienes se dedican al SPAM son personas muy creativas quienes buscarán la manera de que sus resultados aparezcan la mayor cantidad posible de tiempo.

Habrá que esperar su evolución como producto en el mercado y comprobar si sucede lo mismo que Google Wave (muere en el intento) o más bien recibe un Buzz positivo así como el recién servicio de Chat de video y voz de Gmail

Tú; ¿Qué opinión le mereces al respecto?