¿De qué forma los cambios en los algoritmos de Google están afectando las clasificaciones de su.



posicionamiento web

Como Google es uno de los buscadores más utilizados, es bastante obvio que, para mantener su relevancia para los clientes del servicio que procuran en la red, y para mantenerse informados acerca de los diseñadores web sin escrúpulos, los ingenieros de Google afectarán los cambios en sus algoritmos. algunas veces. Puesto que estos algoritmos determinan el ranking de diferentes sitios web, los cambios en estos algoritmos definitivamente serán la clave detrás de cómo se ven perjudicados estos rankings.

 Ahora, el principal objetivo de la optimización de motores de búsqueda es rediseñar su sitio para que atraiga la atención de los buscadores populares (como Google, Bing, Yahoo, etc.) y obtener una clasificación más alta de ellos, captando más interés de los clientes y generando más ingresos. para el sitio web en cuestión.

 Hay ciertos "hacer" y "no hacer" para los posicionamiento en buscadores conforme los ingenieros de Google, colectivamente abarcados por los algoritmos de Google y su sitio puede obtener respectivamente (por un aumento en los rankings) o bien penalizado (en forma de un desplegable en el ranking), por el equipo de Google para estos "hacer" y "no hacer". De nuevo, estos parámetros positivos y negativos prosiguen mudando con el tiempo. Por poner un ejemplo, en días precedentes, Google no pudo advertir el empleo repetitivo y sin sentido de las palabras clave, con lo que los diseñadores web sin escrúpulos manipularon las páginas del motor de búsqueda llenando sus sitios web con una avalancha de palabras clave. A resultas de no advertirse esta falla, estos diseñadores se escaparon estupendamente, y sus sitios web obtuvieron las mejores clasificaciones de Google. Mas, una vez criticados por entregar una clasificación más alta a los sitios web que no lo merecen, los ingenieros de Google crearon algoritmos más complejos, de modo que hoy día, las arañas de Google son muy capaces de advertir el relleno de palabras clave. En consecuencia, hoy en día, el relleno de palabras clave está penalizado y estos sitios, en vez de obtener una clasificación más alta, ven una caída en comparación con otros sitios web genuinos que poseen contenido significativo y relevante. De igual manera, anteriormente, Google no pudo advertir las técnicas posicionamiento web de Black Hat, por poner un ejemplo. Texto invisible, enlaces a sitios no confiables o de correo no deseado, etc., mas todos estos se advierten hoy en día y, en consecuencia, los rankings de sitios web se ven perjudicados por estos.

 En promedio, los algoritmos de Google se cambian en torno a 500 a 600 veces al año; y cada poquitos meses, las actualizaciones de Google se implementan, lo que ayuda a las personas a tener una idea de cuál va a ser el efecto de estos cambios de algoritmo en las SERP. Conocer las datas de las actualizaciones de Google puede asistirles a examinar los cambios en las clasificaciones y el tráfico del sitio web. De ahora en adelante, ha habido 2 géneros de actualizaciones: las actualizaciones de Panda y las actualizaciones de Penguin.

 Google Panda se lanzó en el mes de febrero de dos mil once. Los sitios web se calificaron según su calidad, "incluido el diseño, la fiabilidad, la velocidad y si los espectadores volverían o no a ellos". Como resultado, las clasificaciones de los sitios web de baja calidad (como los que tienen poco contenido y los que están cargados con una gran cantidad de anuncios) se redujeron, mientras que la de los sitios de alta calidad, como los sitios de noticias y los sitios de redes sociales, se disparó. parte superior de las SERPs.

 Por otro lado, la investigación mostró que los "raspadores o bien infractores de derechos de autor consiguen mejores clasificaciones", con lo que Google estaba en el extremo receptor de las críticas del espectador. En el mes de marzo de 2012, se actualizó Panda y se introdujo una "penalización por exceso de optimización", lo que provocó que los rastreadores web sean más responsables y también inteligentes que antes. Ahora, los sitios que parecían ser demasiado atractivos para los rastreadores, fueron penalizados, no obstante, legítimamente se logró el posicionamiento web.

 En el mes de septiembre de dos mil doce, se lanzó la próxima actualización de Panda (que afecta a alrededor del 0,7 por cien de las consultas). Y el último se lanzó el 22 de enero de 2013, afectando a prácticamente el 1.2 por ciento de todas y cada una de las consultas en inglés.

 Las actualizaciones de Penguin en orden temporal son:

 La actualización de Penguin 1 tenía como objetivo conseguir un mejor control sobre los sitios que enviaban correo no deseado a sus resultados a través de la adquisición de links u obteniéndolos por medio de redes de enlaces diseñadas para prosperar el ranking de Google. En este punto del tiempo, los sitios que habían eliminado enlaces deficientes o bien hecho sacrificios para eliminar el spam, recobraron sus clasificaciones. Un sinnúmero de sitios, que escaparon antes, fueron penalizados esta vez, y sus clasificaciones se redujeron.

 Penguin once y Penguin tres no añadieron mucho a Penguin 1. Solo hubo pequeños cambios. Pero, Penguin4, más popular como Penguin 2.0, ha traído cambios importantes en la forma en que los algoritmos de Google están afectando el ranking de sitios. Si bien la naturaleza precisa de los cambios no estaba clara, Penguin cuatro probablemente fue desarrollado para combatir mejor el spam. Matt Cutts, jefe del equipo antispam en Google, anunció que "el alcance de Penguin varía según el idioma, por servirnos de un ejemplo, los idiomas con más webspam van a tener un mayor impacto".

 En resumen, la lista de sitios que pierden visibilidad de busca, conforme la compañía Search Metrics, incluye: sitios de juegos, sitios de pornografía, grandes marcas como Salvation Army, CheapOAir y ETS. Esto no señala grandes pérdidas de tráfico; Es posible que prosigan teniendo una alta visibilidad para las palabras clave que no se advierten. Mas, es importante tener en consideración que, las listas proporcionadas por Search Metrics y un par de otras compañías de software posicionamiento SEO son en su mayoría precisas.

 Ahora el hecho es que, incluso los webmasters de manera frecuente no son conscientes de lo que está afectando a la clasificación de sus sitios web. Solo los ingenieros de Google tienen conocimiento de lo que está afectando las clasificaciones en el escenario actual y continúan actualizando a los usuarios de Internet sobre los cambios en los algoritmos de Google. Pero incluso ellos no podrán mantener lo que será el futuro del posicionamiento web y de qué forma cambiarán las técnicas de optimización y los factores de clasificación. ¡Que solo el tiempo lo dirá!

 Sin embargo, la herramienta Google Penalty Checker, desarrollada por Fruition, ayuda a los posicionamiento en buscadores a descubrir qué género de impacto (por servirnos de un ejemplo, positivo o negativo) tuvo una actualización en particular en el sitio web, esto es, si aumentó (positivo) o redujo (negativo) las clasificaciones del sitio sobre los SERPs. La herramienta puede ser empleada de manera fácil por un novato en SEO y es gratis por un período de tiempo limitado.

Si quieres saber más acerca posicionamiento web en Naucalpan te recomiendo que des click en el link.