Noticias
Google penalizará las webs de baja calidad y agregadores masivos
El gigante de Internet anuncia un importante cambio en su algoritmo de búsquedas con el objetivo de mejorar los resultados y el posicionamiento de las webs de alta calidad, penalizando los sitios de baja calidad o que se limitan a copiar contenido de otras.
Google informa en su blog oficial de una actualización del algoritmo utilizado en su buscador “diseñada para reducir el ranking de los sitios de baja calidad así como aquellos que copian contenidos de otras webs».
«En general, hay algunas páginas que creo que sería justo identificarlas como ‘correo no deseado’, en el sentido de que la calidad es tan baja que la gente se queja». Al tiempo, pretenden “recompensar a los sitios de alta calidad que incluyan contenido original, investigación, reportajes en profundidad o análisis reflexivo”, indican desde Google.
“Este nuevo ranking creemos que es un paso en la dirección correcta para ayudar a los usuarios a encontrar mayor calidad en nuestros resultados de búsqueda… Llevamos más de un año pensando en esta cuestión y trabajando en ella los últimos meses”, destacan.
De momento la actualización del algoritmo que afectará al 12 por ciento de las búsquedas se ha implementado para Estados Unidos aunque se extenderá próximamente al resto de mercados. Un cambio que parece destinado principalmente a penalizar el posicionamiento de agregadores masivos de contenido con miles de textos diarios diseñados exclusivamente para copar el ranking de los buscadores.
-
RecursosHace 2 días
Orbital Vision: innovación para el negocio
-
EventosHace 6 días
Esri o cómo los sistemas SIG nos ayudan a comprender el mundo
-
NoticiasHace 6 días
OpenStack: todo listo para dar servicio a las empresas que dejan atrás a VMware
-
NoticiasHace 6 días
Fujitsu y Supermicro trabajan en el desarrollo de CPUs para servidores basadas en ARM