Google Forecloses On Content Farms With «Farmer» Algorithm Update es un artículo del siempre recomendable Search Engine Land donde se explica cómo el cambio de algoritmo que ha hecho Google hoy afectará al ~12 por ciento de los resultados de búsqueda, de forma muy visible en las posiciones #1 a #3. Matt Cutts de Google ha dicho que especialmente mejorarán las páginas de contenido original y empeorarán las que copian contenido a los demás.
#11:
Entonces todas las páginas webs de periódicos que hacen copypastes de agencias serán peor posicionadas?
#16:
Supongo que las webs de "bájate el programa por 1€" irán al lugar donde les corresponde, no?
#17:
En su particular guerra contra el contenido basura Google lanzó recientemente el Personal Blocklist para Chrome, que funciona de miedo. Y aunque todavía no está usando los resultados proporcionados por la comunidad, dicen que el 84 por ciento de los sitios que la gente está «marcando como basura» han sido automáticamente filtrados en esta revisión del algoritmo general de búsquedas.
Ya veo a muchos SEO inescrupulosos contratando un millón de monos para marcar como basura los contenidos de la competencia.
#2:
Rectifico mi anterior comentario es Relacionada
#16 no lo creo, una de las cosas importantes al posicionar es el numero de enlaces y su texto a una pagina y mientras la gente les siga poniendo enlaces para descargar utorrent emule etc en lugar de a su web original seguira igual
Espero que lo implanten pronto aquí por lo que dice #6 , la verdad es que según que cosas busques, se está haciendo laborioso encontrar resultados aprovechables. Me recuerda a hace unos años con el porno, había una página de tablaturas para guitarra que se llamaba ATAME (ahora se llama la cuerda), imagínate lo que te salía en la búsqueda...:-D ahora ya no pasan esas cosas... si no quieres.
En su particular guerra contra el contenido basura Google lanzó recientemente el Personal Blocklist para Chrome, que funciona de miedo. Y aunque todavía no está usando los resultados proporcionados por la comunidad, dicen que el 84 por ciento de los sitios que la gente está «marcando como basura» han sido automáticamente filtrados en esta revisión del algoritmo general de búsquedas.
Ya veo a muchos SEO inescrupulosos contratando un millón de monos para marcar como basura los contenidos de la competencia.
#17, #21, creo que no habeis interpretado correctamente ese párrafo.
Dice que de lo que la gente marco como "basura", el 84% ya habia sido identificado como "basura" por el buscador. No es que filtren lo que usuarios marcan como basura.
#1: Te he votado negativo para que no se vea lo de dupe y la gente se líe a tirar negativos. En el siguiente te lo compenso. Es que como sea el comentario con más karma, aparece el comentario en la portada, y hay gente que no se lo piensa dos veces antes de votar negativo.
#9 Rápidos de la leche, sólo han tardado un año y medio en solucionar el problema, que es lo que lleva la gente quejándose de lo mucho que han empeorado los resultados
#15 Pues qué quieres que te diga... Si yo busco "" seguido de "" lo que quiero es que me salgan sitios como Taringa o similares que me permitan bajarla.
Lo que me revienta es que, para ese típo de búsquedas, siempre aparezcan sitios basura que te llevan de link en link y, al final, tienes que pagar para llegar a... no se sabe dónde.
#23 Que estarán donde les toca estar, debajo del contenido original. Lo que no puede ser es que busques una noticia y te salga antes mename que el blog original.
#24 eso google lo ha prometido hace muchos años. Incluso dijo que asi era. Hasta que le gente de los blogs le vino con los datos en la mano. Los agregadores salen antes que el contenido original y si el agregador es importante eso pasa siempre. Esto es y sera asi siempre. Al menos en google, por que no saben hacerlo de otra forma. Google no sabe cual es el contenido original y cual la copia. Pueden decir misa que no lo saben y los agregadores salen y saldran en google antes que el contenido original, por que son rastreados por google con mucha mas frecuencia por que tienen mas links entrantes. Y google encuentra antes la copia que el original y se piensa que el original es la copia y la copia el original. Que no venga google con historias. Esto no cambiara a no ser que metan a 10000 tios que lo controlen manualmente y eso no lo van a hacer.
#26 te recuerdo que los agregadores enlazan al contenido original.
En el caso de un plagio (por ejemplo, si un periódico plagia a un blogger) sí que no es posible saberlo, si las cosas se dan como tu dices. Pero en un agregador es tan sencillo como seguir el enlace y buscar el texto (se puede hacer usando los h1 y tal, creo que menéame por ejemplo está bien estructurado para eso).
#30 Te recuerdo que el contenido original no se lo lee nadie aunque salga un link en un agregador. O no te has dado cuenta que en meneame por ejemplo todo el mundo comenta sin haber leido la noticia?. Si la noticia esta en el agregador el 80% de la gente no ira a leerla a la fuente.
Google lo hace mal en algo importante, saber quien es la fuente, y no sabe arreglarlo. No hay escusa que valga.
#33#34 no me habéis entendido. Quiero decir que, si el agregador tiene un link al contenido original, Google puede comprobarlo y reconocerlo (si el contenido es el mismo, y en uno hay un link apuntando al otro, especialmente si está dentro de un h1 como en el caso de menéame).
Lo que quiero decir no es que esté bien como está, sino que hay herramientas para detectarlo y que el primer resultado sea el original, que según #26 / #33 es imposible.
#30 aqui lo importante no es lo educado que se sea, poniendo un link al original, sino quien gana la pasta de la publicidad. Y el dinero lo gana el agregador, no el original. Este es el problema. El mas grande problema que puede haber en internet.
#24 Creo que así debería ser, a pesar de que ... #34 ... yo tengo un agregador manual (que mantiene los links originales y sin publicidad)... aunque no sé por cuanto tiempo...
#24: Lo que no puede ser es que busques una noticia y te salga antes mename que el blog original.
Lo que no puede ser es que páginas de descargas ilegales estén siempre las primeras para cualquier tipo de búsqueda, páginas de lyrics sin contenido alguno también, Softonic y portales del estilo en lugar de sitios oficiales, sin hablar de las granjas de búsquedas para problemas técnicos que van con la moda de las webs que 'analizan' la fiabilidad de DLLs y programas...
Esto debería haberse hecho hace un par de años y, desde luego, tenerlo como una rutina, cada varios meses refinar el algoritmo.
A meneame lo desindexan entonces no?
Google se desindexa a si mismo tambien o como va la cosa?. Por que contenido original google tiene mas bien poquito, tirando a cero patatero basicamente.
Los que hacen un buen trabajo desde el principio y piensa en los usuarios no tiene que contratar ni monos y tampoco becarios.
Si google hace algunos cambios en su algoritmo lo hace pensando en el usuario y ofrecerle unos buenos resultados. Y si los SEOs o cualquier otro webmaster hacen su trabajo pensando en el usuario al final saldrá ganando. Por lo menos estas es mi estrategia y desde hace ya algunos años me funciona bastante bien.
#38 Internet esta llena, llenisima, de buenas paginas que posicionan horriblemente en google y de paginas que no valen nada estan en las primeras posiciones de google. De esto hay a patadas.
Eso de hacer las cosas pensando en usuario y tal esta muy bien, pero... NO SIRVE PARA NADA!!!
Si quieres que tu pagina tenga visitas, hazla pensando en google. Cuanta mas mierda, que al usuario le molesta, pero a google le gusta mejor. El usuario si quieres visitas no pinta nada, importa que a google le guste.
Google que si esta pensando para el usuario posicionaria en la ultima pagina de google. Haz una pagina sin texto y con solo un imput y un boton pensando en el usuario y veras como posiciona el google. Google que esta pensado para el usuario ni estaria indexado en google.
Creo que salen bastantes menos foros cuando buscas... a mi eso me parece mal, me gustaban mas las opiniones de los foros que una página que se hagan unas PYMEs sobre los mejores restaurantes de la zona...
Comentarios
En Microsiervos están que no duermen.
Entonces todas las páginas webs de periódicos que hacen copypastes de agencias serán peor posicionadas?
Rectifico mi anterior comentario es Relacionada
Supongo que las webs de "bájate el programa por 1€" irán al lugar donde les corresponde, no?
#16 no lo creo, una de las cosas importantes al posicionar es el numero de enlaces y su texto a una pagina y mientras la gente les siga poniendo enlaces para descargar utorrent emule etc en lugar de a su web original seguira igual
Ojo, sólo afecta a USA de momento. No hay fechas de implantación en otras regiones, aunque todo apunta a que será en las próximas semanas.
Espero que lo implanten pronto aquí por lo que dice #6 , la verdad es que según que cosas busques, se está haciendo laborioso encontrar resultados aprovechables. Me recuerda a hace unos años con el porno, había una página de tablaturas para guitarra que se llamaba ATAME (ahora se llama la cuerda), imagínate lo que te salía en la búsqueda...:-D ahora ya no pasan esas cosas... si no quieres.
Matt Cutts de Google ha dicho que especialmente mejorarán las páginas de contenido original y empeorarán las que copian contenido a los demás.
A ver si es verdad, porque últimamente tiene más peligro Google que los servidores pirata del eMule.
En su particular guerra contra el contenido basura Google lanzó recientemente el Personal Blocklist para Chrome, que funciona de miedo. Y aunque todavía no está usando los resultados proporcionados por la comunidad, dicen que el 84 por ciento de los sitios que la gente está «marcando como basura» han sido automáticamente filtrados en esta revisión del algoritmo general de búsquedas.
Ya veo a muchos SEO inescrupulosos contratando un millón de monos para marcar como basura los contenidos de la competencia.
#17 Si, en vez de monos becarios a 400 el mes si acaso.
#21 Tienes razón, los becarios son mas baratos
#17, #21, creo que no habeis interpretado correctamente ese párrafo.
Dice que de lo que la gente marco como "basura", el 84% ya habia sido identificado como "basura" por el buscador. No es que filtren lo que usuarios marcan como basura.
Vamos, o eso entiendo yo
Relacionada casi contestación: ¿Está google fracasando como buscador?
¿Está google fracasando como buscador?
web.ontuts.com#1: Te he votado negativo para que no se vea lo de dupe y la gente se líe a tirar negativos. En el siguiente te lo compenso. Es que como sea el comentario con más karma, aparece el comentario en la portada, y hay gente que no se lo piensa dos veces antes de votar negativo.
Relaccionada: ¿Está google fracasando como buscador?
¿Está google fracasando como buscador?
web.ontuts.comEDITO: #12, te adelantaste.
Diría que dupe: Búsquedas de más calidad en Google [EN]
Búsquedas de más calidad en Google [EN]
googleblog.blogspot.comHan sido rápidos en reaccionar, enhorabuena, que tomen nota el resto de las empresas.
#9 Rápidos de la leche, sólo han tardado un año y medio en solucionar el problema, que es lo que lleva la gente quejándose de lo mucho que han empeorado los resultados
#39 Lo que comentas no tiene pies ni cabeza.
Lo siento, taringa.
#15 Pues qué quieres que te diga... Si yo busco "" seguido de "" lo que quiero es que me salgan sitios como Taringa o similares que me permitan bajarla.
Lo que me revienta es que, para ese típo de búsquedas, siempre aparezcan sitios basura que te llevan de link en link y, al final, tienes que pagar para llegar a... no se sabe dónde.
#23 Que estarán donde les toca estar, debajo del contenido original. Lo que no puede ser es que busques una noticia y te salga antes mename que el blog original.
#24 eso google lo ha prometido hace muchos años. Incluso dijo que asi era. Hasta que le gente de los blogs le vino con los datos en la mano. Los agregadores salen antes que el contenido original y si el agregador es importante eso pasa siempre. Esto es y sera asi siempre. Al menos en google, por que no saben hacerlo de otra forma. Google no sabe cual es el contenido original y cual la copia. Pueden decir misa que no lo saben y los agregadores salen y saldran en google antes que el contenido original, por que son rastreados por google con mucha mas frecuencia por que tienen mas links entrantes. Y google encuentra antes la copia que el original y se piensa que el original es la copia y la copia el original. Que no venga google con historias. Esto no cambiara a no ser que metan a 10000 tios que lo controlen manualmente y eso no lo van a hacer.
#26 te recuerdo que los agregadores enlazan al contenido original.
En el caso de un plagio (por ejemplo, si un periódico plagia a un blogger) sí que no es posible saberlo, si las cosas se dan como tu dices. Pero en un agregador es tan sencillo como seguir el enlace y buscar el texto (se puede hacer usando los h1 y tal, creo que menéame por ejemplo está bien estructurado para eso).
#30 Te recuerdo que el contenido original no se lo lee nadie aunque salga un link en un agregador. O no te has dado cuenta que en meneame por ejemplo todo el mundo comenta sin haber leido la noticia?. Si la noticia esta en el agregador el 80% de la gente no ira a leerla a la fuente.
Google lo hace mal en algo importante, saber quien es la fuente, y no sabe arreglarlo. No hay escusa que valga.
#33 #34 no me habéis entendido. Quiero decir que, si el agregador tiene un link al contenido original, Google puede comprobarlo y reconocerlo (si el contenido es el mismo, y en uno hay un link apuntando al otro, especialmente si está dentro de un h1 como en el caso de menéame).
Lo que quiero decir no es que esté bien como está, sino que hay herramientas para detectarlo y que el primer resultado sea el original, que según #26 / #33 es imposible.
#30 aqui lo importante no es lo educado que se sea, poniendo un link al original, sino quien gana la pasta de la publicidad. Y el dinero lo gana el agregador, no el original. Este es el problema. El mas grande problema que puede haber en internet.
#24 Creo que así debería ser, a pesar de que ...
#34 ... yo tengo un agregador manual (que mantiene los links originales y sin publicidad)... aunque no sé por cuanto tiempo...
#24: Lo que no puede ser es que busques una noticia y te salga antes mename que el blog original.
Lo que no puede ser es que páginas de descargas ilegales estén siempre las primeras para cualquier tipo de búsqueda, páginas de lyrics sin contenido alguno también, Softonic y portales del estilo en lugar de sitios oficiales, sin hablar de las granjas de búsquedas para problemas técnicos que van con la moda de las webs que 'analizan' la fiabilidad de DLLs y programas...
Esto debería haberse hecho hace un par de años y, desde luego, tenerlo como una rutina, cada varios meses refinar el algoritmo.
A meneame lo desindexan entonces no?
Google se desindexa a si mismo tambien o como va la cosa?. Por que contenido original google tiene mas bien poquito, tirando a cero patatero basicamente.
#19 Eso, ¿qué pasará con los agregadores de contenidos?
Esperemos que sea verdad, porque no es raro que ahora aparezcan los Wordlingo o las webs que copian los párrafos de Wikipedia.
Los que hacen un buen trabajo desde el principio y piensa en los usuarios no tiene que contratar ni monos y tampoco becarios.
Si google hace algunos cambios en su algoritmo lo hace pensando en el usuario y ofrecerle unos buenos resultados. Y si los SEOs o cualquier otro webmaster hacen su trabajo pensando en el usuario al final saldrá ganando. Por lo menos estas es mi estrategia y desde hace ya algunos años me funciona bastante bien.
#38 Internet esta llena, llenisima, de buenas paginas que posicionan horriblemente en google y de paginas que no valen nada estan en las primeras posiciones de google. De esto hay a patadas.
Eso de hacer las cosas pensando en usuario y tal esta muy bien, pero... NO SIRVE PARA NADA!!!
Si quieres que tu pagina tenga visitas, hazla pensando en google. Cuanta mas mierda, que al usuario le molesta, pero a google le gusta mejor. El usuario si quieres visitas no pinta nada, importa que a google le guste.
Google que si esta pensando para el usuario posicionaria en la ultima pagina de google. Haz una pagina sin texto y con solo un imput y un boton pensando en el usuario y veras como posiciona el google. Google que esta pensado para el usuario ni estaria indexado en google.
a ver nuestras paginitas que tal salen! que nervios jajajjaaaa!!!!
Creo que salen bastantes menos foros cuando buscas... a mi eso me parece mal, me gustaban mas las opiniones de los foros que una página que se hagan unas PYMEs sobre los mejores restaurantes de la zona...
Es una muestra de que la entropía den internet está aumentando
He buscado "armario" y me han salido como resultado sillas.
Algo ha ido rematadamente mal
Ya sé que será una broma, pero no entiendo lo de que la abuela fume o no, me falta esa referencia...
Es que hay sitios que incorporan las palabras más buscadas a su propio contenido para figurar, veremos qué tal les va.
Meneo sólo por el titular
Hecho el algoritmo, hecha la trampa
La abuela fuma, la abuela fuma.
Soy el único que desde hace unos meses los resultados de google de vagos o taringa se los capa ???
si eso es cierto, los blogs caerán en picado...