¿Qué significa SERP?

SERP significa en inglés Search Engine Result Page o Página de Resultados de Búsqueda. No es ni más ni menos que la página resultante de una búsqueda realizada en un buscador como Google, Yahoo! o Bing.

Su utilización es para abreviar la palabra “página de resultados de búsqueda” o “resutados de búsqueda”. Se puede emplear, por ejemplo, de la siguiente manera:

  • Mi página aparece bien posicionada en los SERPs
  • Google hizo un cambio en la forma de mostrar los SERPs
  • Quiero medir el ranking en los SERPs de mi sitio ante palabras clave.

Google actualiza los sitelinks

Google anunció hoy que acaban de lanzar la versión pública de los sitelinks. El cambio pretende dar mayor claridad a los usuarios de páginas internas de un sitio que pueden ser relevantes para una búsqueda. Más allá del cambio estético, Google anunció que hay cambios de fondo para la selección de estos enlaces. Sin embargo en su esencia siguen siendo seleccionados de manera automática teniendo en cuenta la estructura de los sitios web.

Así se veían los sitelinks antes

Así se ven ahora

Nótese que los nuevos sitelinks muestran una URL en verde aparte de una descripción que antes no tenían. De esta manera se unifica la manera de mostrar resultados de búsqueda en los SERP´s independientemente si es un sitelink o no. El cambio también se verá reflejado en Google Webmaster Tools permitiéndonos manejar los sitelinks que no queremos que aparezcan.

Me pregunto como impactará esto en el tráfico de aquellos sitios que muestren sitelinks ya que como se aprecia, se “come” casi la totalidad de la página visible de resultados de búsqueda. ¿El segundo, tendrá chances?

El botón de Google+ y los robots

Interesante (y corto) artículo sobre como interactúan los robots de Google con el botón de Google+ que se inserta en un sitio web.

Para resumirlo y ponerlo en español, alguien pregunta que pasa con el crawler si hay una regla que le impide al robot acceder a la página, como por ejemplo, con el robots.txt. La respuesta es simple como la pregunta:

El botón +1 interactúa con el robots.txt y otras directrices de una manera interesante. Como el botón +1 sólo se puede implementar en páginas públicas, Google puede visitar dicha página cuando se hace click en el botón +1 para verificar que efectivamente es pública. Este chequeo ignora las directivas que existan en el robots.txt u en otras partes. Sin embargo esto no impacta en el comportamiento de los robots/crawlers que se utilizan para indexar los contenidos o en su comportamiento con el robots.txt.

Google actualiza Panda y lo lanza a nivel mundial

Hoy nos despertamos con la noticia de que Google actualiza su algoritmo “Panda” y lo hace extensible a todo el mundo excepto para los idiomas chino, japonés y coreano.

Mucho se ha hablado sobre “Panda” a esta altura sobre todo porque varios sitios se vieron impactados de manera negativa frente a la actualización que empezó en Febrero del 2011.

Recordemos que “Panda” es una actualización que realizó Google en su algoritmo para mejorar la calidad de sus resultados de búsqueda y en su lanzamiento decían que afectaba aproximadamente al 11% de las búsquedas en Google. Panda se enfocaba en darle menos relevancia a sitios que realizaban SPAM o tenían contenido poco relevante (duplicado tal vez?) para priorizar aquellos que tenían contenido auténtico.

El cambio de hoy genera un impacto sobre el 6%-7% de las búsquedas e impactará a todos los idiomas menos los mencionados anteriormente.

[Vía]

Google Webmaster Tools actualiza la herramienta “Fetch as Googlebot”

No se si se me escapó esto antes pero acabo de leer un post donde Google anuncia que actualizaron la herramienta “Fetch as Googlebot” en la cual se puede verificar si el robot de Google puede indexar una página que nosotros definamos. Si puede, nos presentará la opción de “enviar esa URL” para que la indexe.

Google Webmaster Tools, Fetch as Googlebot

Es una nueva forma de decirle a Google “hey! acá estoy, indexame”. Obviamente esto no implica que luego el sitio o la página rankee bien en los resultados de búsqueda, pero al menos es un primer paso puesto de manera sencilla al alcance de los webmasters.

[Vía]

 

Adobe Edge, una excusa más para no usar Flash

Todo aquél que haya escuchado algo sobre SEO y Flash sabrá sobre los problemas de accesibilidad de la información que esta herramienta genera. Sin embargo Adobe acaba de dar un paso adelante lanzando Adobe Edge, una herramienta para la generación de contenido en HTML5, el nuevo estándar de la web. La misma estará disponible de manera gratuita hasta que se lance la versión final.

Utilizar HTML5 en vez de Adobe Flash presenta ventajas más que interesantes y en varios aspectos, no sólo en términos de SEO.

  • Utilizás un estándar nuevo y que está empezando a instaurarse manteniéndote actualizado
  • Hacés que tu información sea accesible por parte de los motores de búsqueda
  • No sacrificás “animación” ya que HTML5 permite hacer prácticamente lo mismo que Adobe Flash
  • No dependés de un plugin para que tu sitio sea visible, aunque Flash tenga +90% de penetración
  • Tu sitio será visible en dispositivos que usen iOS, el sistema operativo del iPad, iPhone y iPod Touch lo que te permite…
  • Hacer SEO para tu sitio y tener una estrategia diferenciada para dispositivos móviles.

Es interesante ver que sucede con Adobe Edge ya que con el impulso de los dispositivos móviles (y sus limitaciones) y HTML5 creciendo como estándar está haciendo que Adobe Flash sea obsoleto. ¿Canibalización de Flash por Edge? Esperemos que si. Al menos ahora no hay excusas para hacer SEO 🙂

Curso de SEO en Agosto 2011

Acabo de confirmar el curso de SEO para el mes de Agosto. A diferencia de los cursos que venia dando hasta ahora, este empieza el 16 de Agosto a las 10AM. Tiene una duracion de 3 horas por clase y son 4 clases en total. El curso es ideal para aquellos diseñadores o programadores que estén buscando iniciarse en el mundo de SEO. se requieren conocimientos básicos de HTML.

Vamos a probar cuanta demanda tiene un curso por la mañana y si se completa seguramente sigamos ofreciéndolos. De lo contrario volvemos al horario de 19 a 22 hs.

Registro y más info

SEO para tapar resultados de búsqueda

Estando en el mundo del SEO hace ya 7 años me he encontrado con todo tipo de personajes. En particular me ha llamado la atención cuando en contadas ocasiones se me acercaron políticos o empresarios que preocupados ante el buen posicionamiento de notas que ponen en duda su reputación querían hacer SEO para “tapar” los resultados. En realidad acá el objetivo no es ni generar negocios ni tráfico, sino sólamente posicionar páginas para diluir esos resultados.

Hoy en día es bastante más fácil hacer este tipo de trabajos con el auge de las redes sociales. Basta con crear un par de perfiles en las principales, hacer algunas cosas más y sin demasiado esfuerzo seguramente empezarán a ver como se diluyen los resultados para búsquedas de los nombres de esas personas. Pero hace un par de años, cuando todavía no estaba el auge de las redes sociales era un desafío un poco más complicado.

Y aca se abre el debate sobre si este tipo de trabajo deberían aceptarse o no. ¿Es ético? ¿Debería cobrarse más? ¿Deberían aceptarse estos trabajos?

Márketing en buscadores, no posicionamiento en buscadores

Empiezo esta sección del sitio con una filosofía que tengo desde hace muchos años y que a pesar del paso del tiempo sigue generando malos entendidos.

Para hablar con propiedad, vamos a definir de antemano lo siguiente:

  • SEM o Search Engine Marketing es lo que define tanto a las campañas de enlaces patrocinados conocidas como PPC (Pago Por Click) como a las de SEO o Search Engine Optimization que nada tienen que ver con las anteriores (o no tanto como se cree).
  • Campañas de Enlaces Patrocinados o PPC es la disciplina que se encarga específicamente de ejecutar, monitorear y optimizar una campaña de pago por click. Estos son los resultados que aparecen a la derecha en los resultados de búsqueda o los avisos de la red contextual de Google.
  • SEO o Search Engine Optimization es la disciplina que se encarga de optimizar un sitio web para generar negocios mediante un mejor posicionamiento en los resultados de búsqueda ante palabras clave relevantes al negocio.

Evento SEO GoLive Internet! en la UP

Go Live Internet UP

La Universidad de Palermo, junto con otros referentes del mundo SEO en la Argentina, me invitaron a participar de un panel para hablar sobre cuestiones relacionadas al mundo delMarketing Digital en Argentina.

Una de las charlas que más me llamó la atención fué la de Nicolás Collebechi de Clarín, donde nos explicó técnicas para sembrar cookies de Programas de Afiliados y así ganar algunos pesos extra. No se si era el lugar adecuado para andar exponiendo técnicas que no están bien vistas y que en muchos casos van en contra de los Términos y Condiciones de los Programas de Afiliados (trabajé en el Programa de Afiliados de deRemate.com y no se permitía hacer esto). Fué interesante igual escuchar algo que uno no viene preparado a escuchar en este tipo de eventos porque “esas cosas no se dicen”.

Dentro de los temas que abordó, también comentó sobre el uso de fallas en ciertos sitios que permiten inyectar código y así ganar un par de links entrantes hacia un sitio web. Técnicas que a nivel SEO tampoco son bien vistas. Imagínense haciendo esto para un cliente…

Hubiera estado bueno que mostrara cuando Clarín tenía ese mismo problema.

Creo que este tipo de eventos le hacen bien a la industria porque les sirven a la gente para abrir los ojos y darse cuenta que existen un montón de opciones para promocionarse en internet que no se están contemplando. Y no hablo de las opciones non-sanctas.