Loko Ivan Google Update Algorithm. ¿Estaría bien?

Google lleva tiempo luchando contra el Spam, las páginas puerta (como la de mi ‘amigo’ el de Reparacion de Tejados de Pizarra), las páginas hackeadas, de phising, etc. Y para que los usuarios mejoren los resultados de búsqueda lanzó dos herramientas para Google Chrome, en tiempos de Matt Cutts.

Web Spam Report

La primera de ellas es un sencillo acceso directo a la ventana de Spam Report de Google Search Console, sin necesidad de dejar la página que estas viendo en ese momento.

El funcionamiento es el mismo, indicas el motivo del Spam Report, pones la webs, haces un resumen de 300 caracteres de lo que has visto que es un incumplimiento de las directrices de Google para Webmasters y lo envías.

El envío del Spam Report es anónimo para quien lo recibe, y no se le notifica que ha sido reportado, simplemente el equipo de calidad de búsqueda de Google revisará (o no) la web y valorará si hay (o no) motivo para penalizarlo.

Si se envía sin añadir un email de contacto, no garantizan que se revise la web, pero si se hace poniendo un email, que además tenga asociado un grupo de webs ‘buenas’ en GSC, indican que entonces sí la revisan siempre, pero no dicen cuanto pueden tardar.

Personal Blocklist (by Google)

El otro addon para Chrome, también desarrollado por Google cuando Matt Cutts trabajaba allí, es un poco más radical (para tí) pero menos efectivo para eliminar el resultado de Google (para los demás). Básicamente se trata de añadir la web a un listado de tu cuenta de Google (debes estar logueado) para que nunca más veas ningún otro resultado de esa web en tus búsquedas.

Es bastante radical porque jamas volveras a ver esa web en Google Search, y ojos que no ven, visita que no realizas. Esto puede usarse también para filtrar sitios que simplemente no te gustan. Por ejemplo, si eres del Villarreal no quieres entrar a la web del Burriana CF ni por error, así que la añades a la lista de exclusión. O si eres de Linux no quieres tocar, ni de lejos, una web de CPM o de OS2 (yo usé ambos hace la tira de tiempo).

Yo mismo tengo bloqueados algunos medios digitales donde es dificil leer algo entre toda la publicidad que presentan, popups, megaventanas, etc.

NOTA: Si piensas enviar miles de Spam Reports para ‘penalizar un sitio web’ ten en cuenta dos cosas: primero que debe ser natural, es decir, la gente no se pone de golpe a reportar un sitio todos a la vez; y segundo, si el sitio no es penalizable no será penalizado, porque la revisión del mismo la hace un miembro del equipo de calidad, y si no lo ve claro del todo no la penalizará.

Un algoritmo para cambiarlo todo

El título del post hace referencia a un sistema para eliminar el contenido basura en Google, no es para hacer SEO, además de provocar otros muchos resultados deseados y no deseados. Este algoritmo podría llevar por nombre Loko Ivan Google Update. (Si Google llama Panda al suyo, yo puedo llamar al mio como quiera) y si Matt Cutts lee esto puede tomar ideas.

Pongamos en contexto los resultados de Google

En un mundo ideal, sin SPAM, los resultados de los buscadores son buenos. Digamos que hay una gran dificultad en valorar cual de los primeros 25-30 resultados puede ser mejor. Si tenemos en cuenta que la basura inunda la red lo normal es acabar en la página 2 o refinando más la búsqueda, buscando de nuevo utilizando otros términos o simplemente más palabras en la consulta.

Así que partimos de que si no fuera por el SPAM los resultados serian mucho mejores, y que sería dificil valorar cual es mejor entre los mejores, entre los 30 primeros.Hay que tener en cuenta que cuando Google te muestra el TOP10 de 30.000 resultados posibles, ya está haciendo un gran trabajo, pero a la hora de escoger bien entre el TOP30 ya lo tiene más complicado, porque como he dicho antes, en teoría, todos son buenos, muy buenos, comparados con los otros 30.000 resultados que posicionan peor.

Arriba la pluralidad

 

A la gente le gustaría encontrar resultados útiles y la dictadura del SPAM impide un uso satisfactorio de los buscadores. La pluralidad, la libertad de elección, la diversidad de resultados, todo esto junto se toma como positivo para el usuario, pues no es bueno que sean unos pocos los que reciben todas las visitas (si tenemos en cuenta en el paso 1 que los primeros sean básicamente igual de buenos).

Esto no quiere decir que el algoritmo Loko Ivan vaya a ser bueno para el SEO, al contrario, es un golpe bastante duro a los que premian el SEO sobre otro tipo de acciones (branding, publicidad online, acciones offline, televisión, etc.).

Pero se trata de una propuesta para ‘mover’ el TOP10-30 un poquiito más, bajo la premisa anterior de que entre esos 10, 20 o 30 resultado sno hay mucha diferencia real para el usuario que busca en Google.

Acabar con la fuente del problema

El SPAM en buscadores existe porque hay un modelo de negocio online basado en la publicidad, las impresiones y las visitas a un sitio, independientemente de los objetivos del usuario, pues cada visita provoca beneficios. Llevado a un extremo, se hace SPAM para captar datos o hacer de intermediario virtual entre el usuario y el producto, monetizar por afiliación, etc.

Si acabas con la fuente de ingresos, acabas con el SPAM. La fuente de ingresos viene del número de visitas, ya que si no gano más de 30 €/mes con un sitio web, dificilmente voy a seguir trabajando el SPAM, lo abandonaré y me dedicaré a otra cosa. Si paso de 300.000 visitas a 30.000 visitas/mes, si los ingresos por publicidad se reducen a un 10% ¿seguiré con este sistema de negocio? Lo dudo.

 

Para quien diga que Google perdería sus ingresos de AdWords y no le interesa, se equivoca, ya que las visitas se van a seguir produciendo igual, pues el usuarios sigue buscando igual y sigue entrando en páginas igual, pero no siempre a los que ahora están arriba (el algoritmo Loko Ivan cambia esto) sino de una forma mucho más repartida, más distribuida entre el TOP30 que antes, donde casi siempre iba a los 3 o 4 primeros.

El algoritmo Loko Ivan

Así que partimos de estas premisas:

1.- Los resultados que da Google son buenos, y son mejores si quitamos el SPAM,

2.- la pluralidad es buena porque entre los 30 primeros resultados (todos buenos según el punto 1) hay más riqueza de contenido,

3.- si no ganan suficiente dinero con la web, no se seguirá invirtiendo en crear contenido SPAM y se reducirá el nº de estas webs,

4.- los sitios web con un modelo de negocio basado en ventas, y no en impresiones, tendrán que utilizar otros canales (AdWords) que es raro que no usen ya

5.- los sitios web con un mdelo de negocio basado en contenidos útiles (medios online), al rankear por miles de términos, verán mejoras en ciertas KW similares a las caídas en otras KW, y en general compensarán unas con otras.

Loko Ivan Google Update: Los resultados orgánicos del TOP30 salen
ordenados aleatoriamente en cada búsqueda.

Esto tiene sus consecuencias y varios ajustes para evitar que los resultados sean peores que los actuales.

El branding cuenta

La búsqueda de marcas o productos devolverá en el TOP3 a la empresa o propietaria del producto. Esto garantiza un margen de visitas suficientemente bueno para quien, en teoría, debería salir siempre en el TOP3. Se trata de las busquedas navegacionales, en las que pones ‘marca’ en Google para ir al diario Marca simplemente por la pereza de no escribir la URL en la barra de direcciones.

A medida que mejora la calidad de las webs es más común que las empresas cuiden el contenido de sus sitios y, además, un gran volumen de visitas orgánicas se hacen por branded keywords. Con Google MyBusiness, al aparecer el bloque de la derecha de la empresa, se puede hacer muy facilmente que la URL de la web sea, además, la TOP1 de resultados orgánicos.

Si la empresa no tiene web, volviendo al punto 1, cualquier resultado de un portal vertical me dará la información que busco, así que no tengo porque ir siempre al que ahora sale primero, pues los 20-30 primeros son prácticamente igual de buenos, ya que la mayoría son directorios o portales verticales con la información de la empresa o producto.

Google aglutina

Cada día Google aporta más contenido agregado, tanto de verticales (integrados en Google Maps), como de las propias webs (Google Shopping, y hace tiempo que tiene Google Libros).

Los RSS y los datos estructurados permiten mostrar los Rich Snippet con la información que busco directamente en Google, no siendo necesario entrar en la web de destino. Esto podemos verlo ya al hacer búsquedas del Tiempo, resultados deportivos, recetas, etc.

El SEO se adapta

Para alegría de muchos SEO el cliente dejará de fijarse en el ranking, pasando a valorarse los rankings en paquetes de posiciones: TOP30, TOP50, etc. Al ser más aleatorios se trabajará más el snippet, el contenido, el branding y la analítica web, prestando más atención a las visitas que llegan ahora, reducidas a un 10%, pero igual o mejores desde el punto de vista de la conversión (si no vives de la publicidad, claro).

Un contenido más cuidado, de mayor calidad, es lo que persigue Google con sus cambios de algoritmo, así que Loko Ivan Update mejoraría sustancialmente la calidad de la web, a costa de reducir los ingresos a spammers y contenidos de poca calidad, bueno en general se reducirian los ingresos de todos a un 10% pero se corregiría con un aumento en el precio de los banners en los sitios de contenido relevante.

Reirse es bueno

Nos reiríamos un rato si se aplica el Loko Ivan Update. Las agencias dejarian de cobrar por reportar rankings (no todas lo hacen, pero muchas, muchísimas siguen vendiendo el SEO a precio mensual y con resultados garantizados). Los contenidos retomarían su valor. Los enlaces seguirán valiendo mucho, pero solo para pasar a entrar en el TOP30, exáctamente igual que ocurre ahora..

Lamentablemente los impactos online se pagan a un 1-2% de los impactos off-line, pues comparado con impresiones en prensa, radio, televisión y cualquier otro medio el precio de la publicidad online es muy muy bajo.

Los medios podrian dar un valor serio a sus espacios online igual que hacen con sus páginas impresas o sus segundos en emisión de radio o televisión. Los bloggers lo mismo, excepto aquellos que no creen contenido relevante que no ganarían para vivir de esto (o apenas).

¿Es denasuada lokura o le pegamos una patada a Google y pasamos a buscar información preguntando en twitter a los amigos?

¿Tú cómo lo ves?

7 thoughts on “Loko Ivan Google Update Algorithm. ¿Estaría bien?

  • Todo esto esta muy bien, pero falla en la base. Si actualmente pasar a la página 2 de los resultados de búsquedas es prácticamente anecdótico en la mayoría de las búsquedas; como pretendes que el usuario medio de internet, ese que no es para nada un experto informático, se adapte al nuevo algoritmo de google asi como asi?

    Creo que la gente somos animales de costumbres. Todo suena muy bonito, pero creo que no es muy real…

  • El usuario no se ha de adaptar a nada, porque el usuario busca y clica, no se para a pensar tanto en si lo que ve es mejor o peor que lo que había antes.

    Docenas de alumnos no son capaces de distinguir entre Enlaces patrocinados y resultados orgánicos, la mayoría no se ha percatado de Google Instant, así que para el usuario no hay ninguna adaptación.

    La única diferencia es que ahora saldrán resultados más variables, pero si nos ceñimos al punto 1 (los 20-30 primeros son igual de buenos) no tiene porque ser malo esto.

  • De todos modos, cualquiera que crea que el SEO tiene como objetivo aparecer más arriba en los buscadores, no sabe nada de nada. La finalidad del SEO es reportar la mayor cantidad de visitas DE CALIDAD a una web mediante el tráfico atraído por buscadores. Si el SEO se vende actualmente como una simple mejora de posición en el resultado de búsqueda de google, es un error. Un error que como tú bien has comentado, la mayor parte de la gente no sabe. De ahí el humo que se vende con el SEO.

    Con tu algoritmo, que respeto pero no comparto, el humo podría venderse de igual modo, solo que en vez de asegurar una posición fija, te asegurarían salir en la primera página de resultados el 33% de las veces. Y encima, sería más fácil de hacer, ya que si actualmente quiero aparecer en la primera, me lo tengo que currar. Aparecer en la tercera, lo puede hacer cualquiera.

    Con tu algoritmo, se daría más pie al humo. Creo yo.
    Un saludo

  • La idea me gusta, pero ¿hasta qué punto interesaría entonces estar posicionado en un octavo puesto, por ejemplo?

    Si hacemos caso al algoritmo que propones un usuario medio se sentirá satifecho con el contenido obtenido en el primer resultado. Puede seguir queriendo obtener más información y buscará en el segundo resultado. Si aún así quiere más es muy probable que mire el tercero… dudo que llegue ya al cuarto si la información que está obteniendo es de calidad.

    A medida que escribo esto me doy cuenta que yo mismo cuando busco información en la red mido mucho las palabras por las que busco, lanzo 4 pestañas de resultados y si no me gusta la solución pruebo a cambiar las palabras de búsqueda antes que seguir bajando. No sé si recurriría a una quinta pestaña si la información de las cuatro primeras páginas que visito es de calidad y responde a mi consulta.

    Gracias por el post, me da que pensar

  • A eso vamos, los resultados que se muestran siguen siendo 10, como ahora, pero no siempre los mismos sino seleccionados al azar de entre los 30 primeros actuales.

    El resultado 8 ahora recibe un minimo de clics, pero podría estar primero en 1/30 de las búsquedas, lo cual es muchísimos mejor que lo que consigue ahora. Los de la página 2 ni te cuento, pero los TOP3 pasarán de tener el 42% de clics (ver triangulo de google) a 45%/30 y la gente se lo pensará mucho para gastar su tiempo por ese porcentaje.

  • El fin de semana ha sido tan extraordinario que volver a un Lunes me ha soliviantado… y ya hace tiempo que estoy guerrillero. Y el post del miércoles ni te cuento… ya verás, ya.

  • Todavía hay espacio para el spam basado en la publicidad. Si llegar al top 30 es relativamente fácil (depende del mercado, claro), en lugar de centrar mis esfuerzos en un solo sitio, los divido en varios.

    Algunos BlackHat Seo usan la expresión "dominate" cuando tienen más de la mitad de los resultados de la primera página. No importa si usan varios sitios/dominios distintos, son dueños de casi la totalidad de los clics relacionados con algunas búsquedas.

    Tal como algunos perderían visitas, otros las ganarían. Definitivamente es incentivo a crear más sitios web y por tanto MÁS spam.

Comments are closed.