Google trata de limpiar de webspam su buscador con el algoritmo Penguin

Publicado en Internetcon fecha 9 - junio - 2013

 

El pasado 22 de mayo de 2013, Google aplicó la cuarta actualización de su algoritmo Penguin para el motor de búsqueda, desarrollado con el objetivo de retirar de los resultados más visibles aquellos sitios web cuyos webmasters habían inflado su popularidad con técnicas poco éticas dentro del SEO (search engine optimization, optimización para motores de búsqueda). En el blog para webmasters de Google, además del panel de herramientas para webmasters asociado a la cuenta Google, se encuentran las principales recomendaciones para aumentar la accesibilidad al sitio y mejorar la calidad de la web. Sin entrar en directrices técnicas muy específicas: tener archivos sitemap.xml y robots.txt bien ordenados, organización limpia en el menú, contenido editorial bueno y original, poco peso de cada página para una carga más rápida en el navegador web, entre las recomendaciones más básicas para tener una web bien construida y recomendable, pensada para los internautas.

Lograr organizar la información en el buscador para que, tras los anunciantes, el ranking de resultados estuviera formado sólo por los sitios con los artículos más relevantes, ha sido el caballo de batalla de Google desde hace años, por lo que las últimas actualizaciones del algoritmo del buscador, Panda y Penguin, quitarán el tráfico a las webs que se consideren fraudulentas o desarrolladas con mala fe.

Matt Cutts, destacado ingeniero de Google, realizó un video con las previsiones en los próximos meses tras la última actualización del algoritmo del buscador. Si lees textos en lengua inglesa, es muy útil revisar las aclaraciones que ofrece en los comentarios.

Google Penguin algoritmo buscador

Se supone que estas buenas prácticas que Google recomienda, denominadas “white hat” permiten que el sitio web sea más visitado por los internautas y más enlazado por otras webs, logrando que sea más relevante para los rankings de Google, apareciendo así entre los diez primeros puestos para una búsqueda con palabras relacionadas. Para muchos empresarios en internet, esto es demasiado lento, poco efectivo, o bien insuficiente para competir, por lo que emplean malas prácticas denominadas “black hat” o “webspam” por Google, para diferenciarlo de “email spam”. Generalmente estas estrategias se basan en poner repetidas veces una palabra clave en un artículo hasta la saturación, para que los robots que indexan la información coloquen la página entre los primeros resultados para esa palabra o expresión. Pero lo más extendido es la construcción artificiosa de enlaces. Google ya había penalizado la compra/venta de enlaces para aumentar la puntuación Pagerank, completamente inútil por otra parte con respecto al tráfico de la web, también había penalizado las granjas de enlaces o los listados excesivamente largos de intercambio entre webs.

Lo que Google ha penalizado recientemente con los últimos cambios en el algoritmo del motor de búsqueda, son las enormes redes de minipáginas o blogs realizados para enlazar a un sitio y así subir su ranking. Generalmente un webmaster europeo o norteamericano pagaba -en condiciones legalmente irregulares- a varios internautas en países de América Latina y en países del Sudeste Asiático para generar pequeños artículos en plataformas gratuitas de weblogs, enlazando a su sitio. En cuestión de meses o por un único pago, el webmaster del “primer mundo” podía lograr miles de links en estas redes, pasando más inadvertido que comprando enlaces o palabras clave a través de las empresas de marketing intermediarias entre webmasters y sensiblemente más barato que pagando un servicio profesional de manera legal. Otras estrategias se basaban en comprar blogs dejados, sin actualizaciones en mucho tiempo, para comprarlos a precio bajo y conseguir webs ya establecidas como enlazadores.

Google penalizará este tipo de “linkbuilding” o construcción de links, evaluando mejor la calidad de los enlaces entrantes y poniendo este tipo enlaces por debajo de los obtenidos por directorios, tablones, foros, como también aquellos situados al pie de página. Si bien los favoritos sociales no tendrán mucho peso, Google barrerá para casa y los links desde Google+ sí tendrán en cambio mayor importancia que aquellos que se consigan en bookmarks, meneadores de noticias y otras redes sociales.

En el artículo de Google del pasado mes de abril de 2013, Another step to reward high quality se insiste en que estas prácticas serán sucesivamente penalizadas para recuperar en los resultados de búsqueda aquellos sitios web que juegan limpio desde hace años al realizar webs con contenidos informativos útiles para el visitante, pensados por editores entendidos en los temas.

Pagando campañas adwords para el buscador de Google, es posible para un anunciante establecerse entre los 3 primeros puestos, destacando como resultado de búsqueda. Sin embargo, algunos empresarios también tratan de realizar campañas con empresas de marketing para estar entre los puestos restantes dentro de la primera lista de resultados. Otros webmasters dañan notablemente la información accesible al lograr los primeros puestos con páginas que acumulan contenidos mediocres con popularidad de enlaces artificiosa, con el único propósito de recibir visitantes que no lean los artículos, sino que entren directamente en una publicidad confundida con el texto editorial y se marchen de la web sin hacer uso de ella, por chocante que esto resulte como aportación al usuario.

Lamentablemente durante años los buenos tipos se han quejado tras observar cómo otros sitios podían copiar algún buen artículo que ellos habían originado y quedar por encima en los rankings para una búsqueda pese a copiar contenido, lo que Google considera una mala práctica. Aaron Wall, seo profesional, ha criticado en varios artículos cómo el funcionamiento del buscador de Google y las posibilidades dentro de su programa de publicidad han favorecido las estrategias “black hat” de los editores. En How Google creates black hats y Can you trust Google? When Best Practices Lead to Miserable Failures, llama la atención sobre cómo un editor decepcionado por la permisividad hacia sus competidores o acuciado por la falta de ingresos al no tener tráfico suficiente desde el buscador puede ser alentado a realizar malas prácticas para sobrevivir económicamente, tales como entrar en compra/venta de enlaces o desarrollar sitios web con contenidos duplicados sobre un mismo tema. Además resulta chocante cómo algunos de los editores más importantes en cuanto a ingresos en el programa de publicidad de Google y que habían sido incluso presentados como casos de éxito fueron penalizados en el buscador.

En un artículo de mayo de 2011, More guidance on building high quality, Google incluía un listado de cuestiones para comprender la impresión que debe dar un sitio de confianza:

– ¿Creerías en la información presente en el artículo?
– ¿El artículo parece escrito por un experto en el tema o en cambio es muy superficial?
– ¿Tiene el sitio web artículos duplicados, redundantes en los mismos temas con pequeñas variaciones de palabras?
– ¿Te sentirías tranquilo si tuvieras que dar la información de tu tarjeta bancaria a esta web?
– ¿Tiene el artículo errores gramaticales, ortográficos o de redacción?
– ¿Los temas parecen redactados según el interés genuino de los lectores o bien para encontrar lo más efectivo en buscadores online?
– ¿El contenido de la web es original, tiene alguna investigación o análisis original?
– ¿Hay alguna mejora en calidad con respecto a lo que ofrecen otros sitios web similares?
– ¿En las noticias se presentan diferentes posiciones o puntos de vista?
– ¿La web está reconocida como una autoridad en el tema?
– ¿Los contenidos parecen delegados a terceros en larga escala o tomados de una red de sitios?
– ¿El artículo está bien editado o parece escrito deprisa?
– Si se tratara de un sitio de salud, ¿confiarías en la información de esta web?
– ¿Querrías compartir esta web en una red social o con un amigo?
– ¿Esperarías que este artículo se publicara en una revista impresa, un libro o una enciclopedia?
– ¿Habría quejas de usuarios por este sitio web?

Junto con las últimas actualizaciones del algoritmo del buscador de Google, se desarrollaron dos herramientas de feedback, una para webmasters, otra para usuarios. Los webmasters pueden utilizar Disavow links, una herramienta desarrollada en octubre de 2012 para descontar o quitar credibilidad a los enlaces recibidos, con el propósito de eliminar los enlaces “no-naturales” que apuntan a su página o directamente descontar todo un dominio con muchos enlaces de baja calidad. Tras introducir la dirección url, se puede generar un archivo de tamaño máximo 2 mb, donde salen listados los dominios con links hacia el sitio analizado, incluyendo un informe relacionado con los enlaces sobre los que no se tiene control, y para los que se anota si el otro webmaster ha sido contactado para remover esos links. En el blog de Google hay una explicación con preguntas y respuestas sobre Disavow links.

Los internautas tienen disponible desde febrero de 2011 una extensión llamada Personal Blocklist para el navegador Chrome para bloquear sitios web de sus resultados de búsqueda, si no confían en la página o no ofrece nada relevante para una consulta habitual. Para los usuarios es sencillo colaborar bloqueando decenas de sitios de modo que Google detecte errores en los rankings, mientras que para los webmasters puede ser agotador revisar listados con miles de enlaces en sitios que no administran, para desautorizarlos. A partir de la actualización Penguin del algoritmo, se creó un formulario para cazar más sitios webspam, dentro de la limpieza que Google quiere mantener en el buscador, penalizando el seo black hat de los webmasters artificiosos y respaldando la información de buena calidad.

publicidad



Puedes compartir la entrada en algunas redes sociales:

 

Si te parece interesante la entrada, puedes considerar suscribirte de forma totalmente gratuita, por feed o por email, para recibir nuevos contenidos cuando sean publicados. Puedes consultar debajo otras entradas relacionadas.

Escribir comentario




;-) :wikipedia: :tears: :supermario: :shutupandtakemymoney: :sad: :rubor: :rolleyes: :rock: :razz: :pacman: :omg: :odd: :nice: :nibble: :mrgreen: :lol: :linux: :linkzelda: :like: :here: :google: :github: :firefox: :evil: :enojado: :devianart: :chrome: :bomberman: :bender: :apple: :android: :ajedrez: :-S :-O :-D :-8