Hace 2 años | Por nomeves a techcrunch.com
Publicado hace 2 años por nomeves a techcrunch.com

Buenas noticias para archiveros, académicos, investigadores y periodistas: El scrapeo de datos de acceso público es legal, según la sentencia de un tribunal de apelación de Estados Unidos. La histórica sentencia del Noveno Circuito de Apelaciones de EE.UU. es la última de una larga batalla legal emprendida por LinkedIn con el fin de impedir que una empresa competidora extraiga información personal de los perfiles públicos de los usuarios.

Comentarios

x

Prohibir el scrapping es como ponerle puertas al campo. No tienen ningún sentido que se pueda acceder de manera manual pero no automática.

Sofa_Knight

#3 sí y no. Si yo veo un contenido en una web que me interesa archivar, y el scrapping está bloqueado, esa tarea de forma manual puede ser demasiado larga y tediosa. Lo suyo es que se permita el scrapping, que en estos casos se suele bloquear porque supone un gran consumo de recursos para el servidor durante el proceso.
Pero si ese scrapping es una recopilación de datos personales, la cosa cambia. La ley de protección de datos ya tiene artículos específicos por cómo se debe gestionar una recopilación automática, pero no sólo es eso; no es lo mismo que yo vaya a buscar datos personales de una persona concreta con un fin concreto que hacerlo de forma masiva y automatizada, aunque esos datos sean públicos. La finalidad muy raramente será la misma por la que esos datos son públicos.

Raul_Lomi

#4 pregunto desde el desconocimiento. Si es algo público no debe estar accesible/descargable? No me vale eso del gran consumo de recursos, compras una app de 0,79€ y descargas gigas y actualizaciones continuas, y ganan dinero con los 0,79€ no creo que pongan pasta para que yo juegue. Y resulta que de la cantidad de impuestos que pago no se destinan algunos eurillos para tener acceso a la información?
No interesa tener todo accesible. Es como tener un biblioteca con los libros amontonados en vertical, no vaya a ser que alguien coja el que hemos colocado debajo del todo

Sofa_Knight

#5 no es sólo lo que ocupen los archivos. Es que en una descarga masiva automática, haces una petición por cada pequeño archivo además de los grandes. El servidor tiene que ir recibiendo todas esas peticiones, que no son un sólo acceso, es una comunicación entre tu navegador o el programa que realiza las descargas y el servidor que van de ida y vuelta varias veces. Un software automático hace esto aún más rápido y seguido. Ahora imagínate montones de solicitudes masivas a la vez. Eso es un problema.

mecha

Es legar en EEUU, no necesariamente en todo el mundo. Luego queda por ver que uso se puede hacer de esos datos.

ccguy

#1 si quien lo hace está en Estados Unidos lo que digan otros da igual.

Por otro lado sin scraping no habría buscadores.