El título resume mi interpretación de los Google Sitemaps, que llevan tiempo siendo comentados en sitios como el propio blog de Google, Dirson, Atalaya y muchos otros. Es algo tan sencillo como ver que los buscadores se habían quedado demasiado lentos para los tiempos que corren. La comparación era clara, yo la comentaba en mis clases habitualmente, y otros lo decían además en otro tipo de foros:
«It makes total sense to push new links to users quickly. We don’t want to wait on the engine to deliver results – we want to get content into the engine faster. Whenever it’s possible, we opt to push content rather than have it pulled. That gives us a more interactive experience with Google.»
Marshall Simmonds, VP Enterprise Search Marketing, NYT
Cada vez que una página publica algo nuevo, la araña del buscador de turno puede tardar varios días en pasar por ahí, indexarlo y que aparezca en búsquedas. Sin embargo, otros actores, como Technorati lo hacían al instante, en cuanto recibía el ping emitido por el autor de la página, y los agregadores de feedsmostraban una información a sus usuarios que, en el común de los casos, era imposible encontrar en los motores de búsqueda hasta varios días más tarde. Ese desfase estaba retirando valor a los buscadores, que quedaban relegados a la búsqueda de cosas «de más de tres días de antigüedad».
A eso responde el lanzamiento de Google Sitemaps. Si no quieres cambiar tu sistema, pero tienes capacidad y un «caramelo» como el PageRank para hacer que el mundo cambie alrededor de ti, ¿por qué no vas a hacerlo? Google pretende que cada webmaster, a partir de ahora, organice sus páginas e informe a Google de sus contenidos y su frecuencia de actualización, indicar al robot cada cuánto debe pasarse por allí y qué es lo nuevo que debe indexar. ¿Por qué van a hacerlo los webmasters? Simplemente, porque todos ellos Google supone un porcentaje elevado y significativo de sus visitas, el PageRank es una especie de termómetro de cómo lo están haciendo, y harán «casi» cualquier cosa que Google les pida. Entiendo perfectamente el punto de vista crítico de JJ, pero creo que el hoy inmarcesible poder de Google hará que los webmasters indexen lo que haya que indexar, den de alta lo que haya que dar de alta, e incorporen en su trabajo la rutina de alimentar el Sitemap si tienen que hacerlo. Y si les piden que lo hagan haciendo el pino o con los brazos en cruz y tecleando con la nariz, también.
¿Mejorará con ello el tiempo de respuesta? Indudablemente. ¿Es la solución definitiva? No, a no ser que lo llevemos al infinito, en cuyo caso es idéntico al ping de Technorati. De hecho, es «una especie de ping«, sin la inmediatez del ping, pero intentando aproximarse a ella. Es una nueva herramienta, proporciona oportunidades a los expertos en optimización (SEO), y crea también huecos para que los spammers afilen sus garras, como también lo hizo el procedimiento ping en el caso de Technorati (Joi Ito confesó que el ping spam era con mucho la principal preocupación de Technorati hace unos meses).
¿Tiene lógica para Google? Toda la del mundo, porque es una forma mejor y más rápida de organizar la información para sus usuarios. ¿Cómo reaccionarán sus competidores? Considerando el poder de Google y que además ha decidido liberar el código de esta herramienta con licencia Creative Commons Atribución Compartir Igual, la difusión promete ser rápida. Y como en todo, el efecto red es fundamental, el que consiga más webmasters informando a su motor de búsqueda de qué debe indexar y cuando ofrecerá un servicio y una propuesta de valor a sus usuarios más interesante. Me muero por ver la dinámica de esta competencia.
¿Por qué no una solución directa de ping, hecha a la Technorati? Sospecho que con los spammers en mente. Es más dificil controlar un sinnúmero de pings lloviendo desde todas partes del mundo, que un instrumento como este, que puede ser susceptible de pasar a la mítica lista negra de Google aquellos sitios que lo perviertan o hagan un uso inapropiado de él. Pero no lo sé. Lo que sí veo es que, una vez más, aparece algo que cambia las reglas del ecosistema, que lo lanza alguien tiene la posibilidad de hacerlo, y que a partir de ahora, como decimos en los colegios en España… maric*n el último…
Una cosa que no tengo clara es con qué frecuencia se va a bajar el sitemap ese Google. Si lo hace con bastante frecuencia, digamos una vez al día, podía ser como el ping, al fin y al cabo: recoge todos los URLs nuevos, sin la inconveniencia. Pero si lo recoge cada 15 días, como hasta ahora (bueno, más o menos, algunas páginas con más frecuencia), los nuevos URLs van a tardar bastante en aparecer, ¿no?
Tampoco tengo muy claro como va a convivir el escenario «nuevo» con el «viejo». ¿Ya no va a seguir enlaces para descubrir páginas nuevas, por ejemplo?
Gracias, en todo caso, por el enlace.
A mi me parece estupendo, la verdad: si te interesa que Google te indexe (para que derive tráfico a tu web), pon algo de tu parte. Si no te interesa, no lo hagas.
De esta forma, Sitemaps será una especie de «Google interesado»: sólo indexará contenidos cuyos creadores tengan interés (demostrado porque dedican tiempo a ello) en difundirlos. El webmaster activo en vez del pasivo.
Menos democrático, quizás. Otro que cae el caballo…
¿Y qué pasa con otros buscadores? ¿Se desarrollará un sitemap compatible para que sea utilizado por múltiples motores (Yahoo!, MSN, etc.)?
¿Incluirá Google el sitemap por defecto en los blogs de Blogspot?
Para mí es un nuevo reconocimiento del fracaso de Google (y de todos los buscadores) en dotar de una mínima inteligencia a sus algoritmos: «Yo no sé qué más hacer, os toca a vosotros». Y, como siempre últimamente, quien tenga cosas interesantísimas que decir en su web pero carezca de conocimientos SEO se verá perjudicado. Ya se sabe: «no diseñes tu sitio pensando en los buscadores, hazlo pensando en tus visitantes». Y una m….!
Mejor diseñar pensando en los buscadores que asumen un estándar que no en los usuarios porque entonces se cae en el riesgo de hacerlo todo demasiado llamativo, por ejemplo. Por no mencionar los temas de accesibilidad.
Si tienes cosas muy interesantes que decir, tendrás muchos enlaces apuntando a ti.
Además, seguro que a los blogs los tratan de otra forma, no tardarán en salir herramientas (semi)automáticas.
Actualmente google está bajando el sitemap.xml cada 24 horas más o menos. Eso en fase de experimento, no sobre el buscador real donde no se está usando todavía. La verdadera potencia del invento es que Google pueda encontrar páginas que no tiene en su mapa por diversas razones, ponérselo más fácil, etc. También indicarle como webmasters qué páginas de tu site son más importantes que otars.
Pero en el futuro efectivamente poder hacer pings será realmente algo poderoso para un Google en tiempo real,como ahora es Technorati o Feedster en la blogosfera.
Y perdón, pero se me olvidaba otra cosa: «Y si les piden que lo hagan haciendo el pino o con los brazos en cruz y tecleando con la nariz, también.» Sólo hasta que otro buscador dé similares o mejores resultados sin obligarte a hacer malabarismos. Si tratas mal a tus «clientes» es cuestión de tiempo que otro más listo se los lleve.
Enrique, no sé si lo he entendido mal, pero creo que esa es la por ti criticada estrategia de Microsoft: ya que soy abrumadoramente mayoritario, puedo «obligar» (no obliga, pero de hecho…) a quien me use a hacer lo que mejor me venga a mí, que se fastidie si no le gusta o le da trabajo. No entiendo por qué en este caso sí es buena idea.
A nosotros nos está visitando el mapa cada 12 horas :). No sustituye a las visitas de la araña, pero las complementa. La araña nos visita muchas veces al día, pero no se lleva ni mucho menos todas las páginas.
Discrepo con lo que dice AA de «Mejor diseñar pensando en los buscadores…» pero ya, al margen de lo que diga AA, discrepo bastante con toda esta filosofia de que para triunfar, hay que estar «bien posicionado en los buscadores»…
Yo, para bien o para mal, creé un servicio en Internet hace no tanto tiempo (1999). Por aquel entonces, eso de «posicionamiento» practicamente ni existia como palabra. Las paginas y servicios web triunfaban – o fracasaban – por meritos propios, no por aparecer antes o despues en el dichoso Google.
Hoy puedo decir que mis paginas reciben una cantidad enorme de visitas diarias, hay una cantidad increible de usuarios registrados, y aumenta de forma espectacular día a día. ¿Le debo a los buscadores gran parte de este «éxito»? No. Por supuesto que contribuyen, quizas un 3-5%, pero son los propios usuarios los que han conseguido que mi servicio sea popular y que esté donde está hoy.
El que monta un sitio para que lo encuentren los buscadores es como el que decide hacer algo «diferente» por el hecho de ser diferente, no porque lo que haga realmente merezca la pena.
Imagino que si Flickr, por poner un ejemplo, ha triunfado se deberá sobre todo a su estrategia de posincionamiento en buscadores ¿verdad? Pues eso…
Sé lo que quieres decir, Pasajero, pero yo creo que la cosa depende mucho del tipo de web que tengas.
Webs como Flickr, o cualquier tipo de blog, son webs que una vez que son descubiertas por un usuario, este accede de manera más o menos regular (en el segundo caso sólo si le gusta el blog, claro). Así es «fácil» ir ganando audiencia.
Pero hay muchos otros sitios que responden a «necesidades puntuales». Buscas algo en Google sobre un tema muy concreto, no sé, reparación casera de grifos, por ejemplo, y lo haces porque no es algo genérico del que existe «la web fetén que todo el mundo conoce». No tienes ni idea de cuál es el mejor sitio. Nadie tiene enlaces a sitios así en sus webs. Buscas y ¿qué encuentras?. No la mejor, sino la mejor para Google, la cual suele coincidir con la del tio que sabe más de SEO y tal vez no de reparación de grifos.
Y si por fortuna encuentras una web donde se explica clarísimamente cómo se arregla un grifo, seguro que no vas a ir a todos tus amigos a decirles que esa web es magnífica, y si se lo dices probablemente les entre por un oído y les salga por el otro. Así que esa web está vendida a lo que quiera Google. Y eso me parece injusto si Google premia más al que tenga conocimientos SEO que a un buen contenido.
En fin, es un ejemplo, no sé si he conseguido explicar lo que quería decir…
Serlio, te has explicado bien y no te quito razón en nada de lo que has dicho. Gracias por darme una perspectiva que no tenía.
quisiera que mi web este en google
¿porque aparece en otro buscador?