Hace 9 años | Por --427046-- a crowdference.org
Publicado hace 9 años por --427046-- a crowdference.org

Estoy seguro de que todas las empresas y usuarios de internet aceptarían, diseñarían y respetarían una extensión del protocolo robots.txt que indicase cuales son los contenidos por cuyos enlaces hay que pagar, a quién y cuánto.

Comentarios

D

Pregunta de@serioussam a AEDE. Si os interesa debatirlo, en el nótame también se está hablando de ello: @1940631

Rompe-y-RaSGAE

#0 Te cambié el titular para que sea comprensible, sin variar el sentido.

D

#3 OK

#2 yo es que no soy informático ni nada (y he dormido 3 horas), pero lo que me gustaría (no sé si puede hacerse) es:

si usas PayPerLink estás obligado a Disallow todo por defecto, y a Allow explícitamente las partes públicas. Si un robot no quiere tener en cuenta la especificación, que su comportamiento por defecto sea no entrar.

Es decir, lo que quiero evitar es que se espere que PayPerLink lo entiendan/obedezcan los robots a los que no les da la gana (por una razón u otra, imagino que ideológica mayormente) tener la especificación, y entren "por accidente"; y que el peso de la esa responsabilidad recaiga sobre el sitio que usa PayPerLink en su robots.txt

D

#4
Claro que puede hacerse, aunque como siempre depende de la buena voluntad de los robots.

Sería lo lógico que ellos pusieran un disallow a todo para evitar que los robots que no entienden el payPerLink indexen y enlacen contenido que no debe ser enlazado gratis.

PD.
dios, casi dan arcadas de pensar en que alguien pretenda pagar para enlazar...

D

#5 en el fondo, si está ya reservado el http error 402, esto no es tan descabellado.

Sé que en el caso de robots.txt es cosa de buena voluntad, por eso lo de disallow a todo previo. Para evitar la situación:

-Hey, que has entrado en mi link de pago.
-Ya, pero es que yo no he podido/querido actualizar mi robot.
-Ese es tu problema.

Sino que sea:
-Hey, que has entrado en mi link de pago.
-Ya pero es que yo no he podido/querido actualizar mi robot.
-Tienes razón, culpa mía por escribir un robots.txt que no es "compatible hacia atrás".

D

#17
Si lo que no te gusta es que sea el fichero robots, se puede crear otro fichero...

chorizos.txt

Yo ya sé que es absurdo querer cobrar por ser enlazado, eso aquí al menos está fuera de discusión porque creo que estamos todos de acuerdo.

El sentido de mi propuesta es que con una solución tecnológica para que sólo haya que pagar por unos enlaces concretos a unas personas concretas, en lugar hacer una ley para que que todo dios tenga que pagar a CEDRO por los enlaces de todo dios.

Se trata de poner sobre la mesa el argumento de que no es necesaria una ley que mata moscas a cañonazos, ya que lo que quieren (lo que dicen querer) se puede hacer perfectamente.

Entonces, a ver con que cara nos dicen que lo que realmente quieren es cobrar ellos por el enlace que pepito haga del blog de manolín.

D

#18 ya existe el fichero. Es .httaccess y el propio dueño del servidor es el que se encarga de controlar quien entra y de cobrar.
Quien quiere abusar y no le importa valerse de la ley para ello, le da igual las soluciones tecnológicas, el sentido común y la justicia. Lo hace y ya está. Lo estamos viendo.
Lo que quieren hacer es lo que a lo mejor no entendemos igual. Ellos quieren que sus amigos cobren un pastón y usan para eso como excusa que en internet se generan contenidos. No quieren retribuir, no quieren pagar de forma justa por los contenidos, no quieren que cada uno cobre el suyo, no quieren que internet deje de ser lo que es,... solo quieren expoliar.

D

#19

Yo no puedo hacer un crawler para leer el .htaccess de nadie y saber así que urls son de pago y cuales no


.httaccess es una cosa de apache, node por ejemplo no tiene .httaccess

Yo ya sé lo que quieren, pero también sé lo que dicen que quieren, y es ahí donde les podemos dar.

Situación:
"queremos hacer una ley para cobrar por los enlaces porque google es malo y se forra a nuestra costa (así que nos inventamos un derecho irrenunciable para que cedro cobre por todos los enlaces de todo el puto mundo)"

Respuesta hasta la fecha:
"no es necesario modificar ninguna ley porque podéis impedir que los robots indexen el contenido"
Lo cual no encaja a la perfección con el problema que dicen tener.

Respuesta que propongo:
"no es necesario que hagáis ninguna ley, se puede cobrar exactamente por cada enlace de tal y cual forma"

D

Tal vez podamos zanjar todo este asunto del canon aede con una chorrada como la siguiente:

ejemplo del robots.txt del pais.com con el nuevo protocolo

User-Agent: *
Disallow: /buscador/
Disallow: /m/buscador/
Disallow: /pruebas/
Disallow: /publicidad/
Disallow: /notificarelacionadas
Disallow: /pxlctl.gif
Disallow: /pxlctl2.gif
Disallow: /*.swf$
PayPerLink: /
PayPerLink-endpoint: api.elpais.com/buy-link.php


Cualquier medio podría definir cuales contenidos hay que pagar por enlazar. Se que suena absurdo, ellos mismos se comerán una mierda si lo hacen, pero al menos si pueden hacerlo no tienen ninguna excusa para inventarse derechos irrenunciables con los que financiarse cobrandole a google o a meneame por enlazar contenidos creative commons...

D

#2 Me parece una locura meterlo en el robots.txt
¿Me tengo que hacer un snippet sólo para eso? Que les den por culo a AEDE.
El simple hecho de este planteamiento me parece darles la razón cuando no la tienen.
Yo propongo otro método: no indexar en Google, etc. a estos medios.

D

#6
Tu no tienes que modificar en nada tu robots si no quieres cobrar por ser enlazado.

Esto sólo afectaría a los agregadores y a los medios que quieran cobrar por ser enlazados.

Para evitar eso de que google no indexe a los medios que cobran por ser enlazados se inventaron el derecho irrenunciable. TODOS cobraremos por ser enlazados, aunque lo gestione CEDRO y se lo repartan entre sus cuatro amigos.

D

#8 ¿Cómo que sólo a los agregadores? ¿cómo que no tengo que modificar nada si tengo una web? Afecta a cualquier web donde la gente pueda expresarse dejando opiniones, foros, etc. miles de webs, todas ellas haciendo snipets que comprueben que lo que enlaza alguien no esté en el robots del host de dicho enlace ¡muy práctico! A parte que si alguien me copia y pega un trozo de una noticia no hay modo de saber que pertenece a un medio AEDE

A parte que hoy el robots.txt puede decir una cosa y a la hora otra y lo que parecía estar permitido enlazar, a la hora no estarlo. En resumen: inviable.

D

#9

Si no quieres pagar en ningún caso, no necesitas hacer nada.
Tu dejas a tus usuarios enlazar con normalidad y cuando hagan click en el enlace ya les llevará a una página de error si el medio no quiere visitas desde enlaces que no hayan pagado.

Sólo si te molesta que lleguen a esas páginas de error necesitarías comprobar si son enlaces payperlink para o bien pagar, o bien impedir que enlacen.

En ese caso no es necesario que todos programen la misma rueda, aparecerían librerías que cualquiera podría utilizar.

Yo mismo me ofrezco a hacer librerías para comprobar las urls desde el lado del cliente en jquery y angular.

D

#10 Entonces ¿para qué queremos un robots.txt adaptado?
Bastaría con que los medios tuvieran un listado de host que pagan y los que no y limitasen en acceso.

D

#2 si hay un problema, lo suyo es solucionar el problema, no crear otro mayor.

D

#13 ¿publicidad gratuita?
El crawler ve que es un payperlink, decide no indexarlo y listo.

#14 no veo cual es ese problema mayor.

D

#15 el problema mayor es que desde el principio de los tiempos de internet se le dijo a todo el mundo: mira, ahí tienes una red, pones lo que quieres que vea todo el mundo.
Y ahora en España y solo en España ocurre que:
- hay personas que dicen: yo pongo lo que quiero.
- hay un gobierno que dice: hay muchas cosas útiles en la red, decimos que hay que pagar por ellas y hay que pagar a CEDRO y el derecho a cobrar es irrenunciable, es decir, que lo de pagar es obligatorio quiera el autor o no.

Es un impuesto de tipo medieval, que se otorga a un señor feudal una asociación por decreto real del gobierno y sin que haya razón para ello y sin atender a los derechos de los legítimos dueños. Es volver al pasado unos 500 años. Yo al menos lo veo un problema. No me aprece justo que yo haga un blog, quien lo enlace tanga que pagar y quien cobre sea alguien desconocido cuyo gran mérito es tener contactos con una panda de ladrones un gobierno.

El fichero robots, hasta ahora era un servicio que los buscadores daban de manera optativa a los que tienen un sitio web. Tú pretendes hacerlo ley. No tiene sentido ¿ por qué tienen los buscadores que amoldarse a eso, porque unos incapaces para los negocios han conseguido que el gobierno les cree una ley medieval ? A los buscadores no les va ni les viene. Quien quiera cobrar por sus contenidos, tiene medios para hacerlo desde el principio de los tiempos de internet: protegiendo su página de todos menos de los que le paguen. Lo que propones es que ellos hagan página sde pago, que todo el mundo se organice para pagarles y ellos no mover ni un dedo. Eso lo quiero yo para mi: este mensaje lo declaro de pago, todos los que lo leéis, pasad a pagarme 5 euros. Fíjate que "empresario" más moderno e innovador soy.

D

Si, hombre, los buscadores obligados por ley a hacerle publicidad a los enlaces de pago de los medios de aede.

En España somos subnormales con estos temas y nos importa la libre competencia una mierda, así que este es el lugar idearlo para proponerlo.

Nova6K0

Yo ya tengo mi ROBOTS en el AdBlock Plus...

Salu2

D

Porque permite:

saber que contenidos puedes enlazar libremente y que contenidos no puedes enlazar libremente, y permite también pagar exactamtente la cantidad concreta por el link concreto a la persona concreta, lo cual es mucho mejor que pagar todos por todo a cuatro listos.

El objetivo es impedir que se legislen canones y derechos irrenunciables sobre cosas tan absurdas como ser enlazado.