La rueda de la muerte parece no dejar de girar últimamente. No eres tú. Las páginas web en verdad tardan más en cargar. El sitio promedio actual pesa 2.1 MB –dos veces más que el sitio promedio de hace tres años, de acuerdo con información de HTTP Archive.
#8:
Estuve unos 15 días dale que te pego para cambiar la animación flash de 1,2 mb de mi web a un svg de 16 kb. Lo pongo aquí con cierto orgullo a ver si alguien me felicita, porque seríais los únicos a los que aún les importa optimizar y esas cosas.
Hasta los huevos estoy de entrar en una página a leer 4 líneas de texto y tener que ir apartando vídeos, imágenes y demás molestias. Para algunas cosas, tener 100 Mb de conexión ahora es como los 2 Mb de hace unos años.
#2:
#1 No es duplicada de esa, no tienen nada que ver.
Lo único en común es que hablan de internet y velocidad.
En este meneo se habla del tamaño de las páginas, en el que nos indicas se habla de una incidencia.
Con esto activado ya te carga al doble de velocidad las paginas de media.
Y lo digo sin exagerar.
Flashblock para evitar las que cargan con esta mierda y listo.
Y un bloqueador de publicidad tambien ayuda, pero como dije con la primera ya llega para ver la diferencia.
#6:
#1 ¿Podrías leer la noticia antes de votar duplicada? La otra hablaba de un hecho puntual culpa de un ISP, esta habla de las razones del aumento del tamaño de los sitios web
#21:
El problema no es tanto el ancho de banda que tengáis (ayuda, pero no es la solución), sino la optimización del servidor para procesar las peticiones lo más rápido posible.
Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc, por tanto si hay muchos archivos javascript, css, imágenes, etc, para descargar, la carga de la página puede tardar eones (más si son muy pesados). Para resolver este problema hay varias técnicas de optimización:
- Activar la compresión gzip de apache o el servidor web que se use.
- Añadir fechas de caché a los archivos estáticos (imágenes, vídeos, etc.) de tal forma que no sea necesario descargarlos cada vez que se accede a la web.
- Instalar un sistema de caché de php (eAccelerator, APC).
- Instalar un sistema de caché de html. Si utilizáis wordpress, pues alguno de sus plugins.
- Unificar y minificar los archivos javascript y css para reducir su tamaño y cantidad de peticiones al servidor.
- Crear subdominios para la peticiones de contenido estático. Así nos saltamos la limitación de dos peticiones por pc del protocolo http. A más subdominios, más peticiones simultáneas.
- Optimizar las imágenes de la web. Información de la cámara, fecha de creación, etc., son cosas que no nos hacen falta.
- Cambiar a un hosting con discos duros SSD.
etc.
#73:
#63#67 A las empresas les interesa rastrear tu actividad de Internet para poder así ofrecerte anuncios a medida o conocer que tipología de clientes se mueve por un sitio de la web u otro.
Esas herramientas ralentizan la navegación.
El "do not track" (no me sigas) fue una propuesta que recibió apoyo de todas las partes (defensores de la privacidad y empresas de publicidad) con el objetivo que aquellos usuarios que no quisieran ser rastreados pudieran mostrar así su voluntad y fuera respetada. En los acuerdos se estableció que debía ser el usuario quien tomase la decisión y no el proveedor del navegador u otro intermediario.
Las empresas de publicidad respetan el "do not track" voluntariamente. Si se activase por defecto en todos los navegadores esas empresas estarían legitimadas a ignorar esa petición y a saltarse las protecciones para volver a seguir a los usuarios ya que parte de su negocio reside en ello.
De hecho el Internet Explorer 10 activó el "do not track" con la opción de "configuración rápida" y fue muy criticada por ello, precisamente por que ponía en riesgo la continuidad al respeto de esa voluntad por parte de las empresas de publicidad.
Con todo promocionar esa opción para que la web vaya más rápida no parece lo más adecuado, el principal motivo, el único motivo, debería ser la privacidad.
#30:
Últimamente Internet va tan lento que al ver un vídeo porno, la señorita no acaba de abrirle la puerta al fontanero y yo ya he acabado.
#9:
Si algo considero para las webs que visito normalmente es que no tengan mil chorradas innecesarias de fotos, plugins, scripts.. que multiplican el peso que debería tener...
Especialmente si estás con el móvil. Me recuerda mucho a "los tiempos del flash". Mucho fiú, fiú, rayos láser, cosas moviéndose, fiú, fiú... Para realmente nada
#36:
#6 Éste qué va a leer la noticia, si no se preocupa más que de ser el primero en comentar absolutamente todos los meneos para ir sacando algo de karma.
#33:
#8 Yo soy ultrafan de los navegadores tipo Elinks, modo texto.
No ves una mierda de todo lo que tiene la página, pero el texto central, a lo que entras, lo puedes ver y carga rapidísimamente, porque no carga toda esa basura.
Por supuesto, http://someonewhocares.org/hosts/
#3:
#1 Ya vuelves a las andadas, es la segunda vez en menos de dos horas que haces lo mismo.
#42:
Despues de la Ley de Moore, llega la Ley del Gordaco Michael Moore:
"Las lorzas de tu pagina web se duplicarán cada 2 años"
#11:
#5#7 pues eso mismo, que el efecto de la pesadez sea la lentitud no indica que el problema sea la lentitud, sino la pesadez.
Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio. Así que insisto (y se habla de ello en el artículo) Internet no es que vaya lento, es que los contenidos cada vez son más pesados
#38:
#8 Te doy permiso para hacer spam. Pon el enlace
Estuve unos 15 días dale que te pego para cambiar la animación flash de 1,2 mb de mi web a un svg de 16 kb. Lo pongo aquí con cierto orgullo a ver si alguien me felicita, porque seríais los únicos a los que aún les importa optimizar y esas cosas.
Hasta los huevos estoy de entrar en una página a leer 4 líneas de texto y tener que ir apartando vídeos, imágenes y demás molestias. Para algunas cosas, tener 100 Mb de conexión ahora es como los 2 Mb de hace unos años.
Si algo considero para las webs que visito normalmente es que no tengan mil chorradas innecesarias de fotos, plugins, scripts.. que multiplican el peso que debería tener...
Especialmente si estás con el móvil. Me recuerda mucho a "los tiempos del flash". Mucho fiú, fiú, rayos láser, cosas moviéndose, fiú, fiú... Para realmente nada
#8 Yo soy ultrafan de los navegadores tipo Elinks, modo texto.
No ves una mierda de todo lo que tiene la página, pero el texto central, a lo que entras, lo puedes ver y carga rapidísimamente, porque no carga toda esa basura.
Por supuesto, http://someonewhocares.org/hosts/
#43 El tema del archivo host está para tenerlo en cuenta, aunque bloquear todo de forma másiva tampoco se si me interesa, se pierde el control de lo que en un momento dado sí que quieres mostrar, no?
#51 a mí me ha salvado al menos dos veces de ver los shocking sites estos tan famosos (que deben de ser horribles). Una vez en facebook apareció a un sitio de estos. Pero justo parecía como si la web no existiese. Y busco en google el nombre del sitio y era un shocking site.
Luego, se nota mucha diferencia con ghostscript y con adblock porque tienen que bloquear menos cosas.
#8 En el mundillo "enterprise" donde me muevo la velocidad importa y mucho. Y no sólo a título personal, como a ti o a mí. Está científicamente comprobado que cuando más tarde en cargar la página más improbable es que el usuario lea, compre o haga lo que tenga que hacer. Si tarda más de 5 segundos en cargar por supuesto que se largan.
PS: ¡Felicidades! (tap-tap, palmadita en la espalda)
#49 «Si tarda más de 5 segundos en cargar por supuesto que se largan.»
¿cómo explicas entonces que haya vídeos de youtube que tardan varios segundos en cargar con más de 1 visita?
¿Una persona es capaz de estar esperando días en la cola para comprar cualquier producto de mierda y sin embargo es incapaz de esperar 5 seg a que cargue 1 web?
Quizá haiga un especie de ecuación………
La paciencia del cliente es igual al tiempo de espera partido de la felicidad que espera sentir o la calidad del producto que espera conseguir.
#83 Tus suposiciones son correctas -- evidentemente si lo que esperas es muy gratificante, y sobre todo si es gratis, se espera más tiempo.
Imagínate que vas buscando un modelo concreto de zapatillas. Escribes la búsqueda en Google y ves 5 resultados relevantes: el modelo y el color que te gustan, y todas tienen el mismo precio, 35€.
Ahora imagínate que pulsas el primer enlace y ves una pantalla blanca durante 5 segundos. Al sexto segundo seguro que has vuelto a Google a pinchar el siguiente enlace.
Google ha hecho estudios al respecto, y hay varios artículos interesantes al respecto:
#83 Donde yo trabajo (entorno web de pago) más de 4 segundos levanta alerta e incidencia por mala experiencia de usuario.
La percepción de velocidad de un usuario que paga por un contenido es aún más "delicada" y hay equipos que trabajan exclusivamente en esas mejoras.
Parece una locura, pero como pone #87 al 6º segundo tienes gente llamando porque "la web va lenta".
#83 Se refiere a 5 segundos con la pagina en blanco, no a el video que ponga Cargando. Es algo de sobras conocido y muy estudiado. En webs que he auditado aumentaron las ventas en un 28,5% el mes siguiente solo por mejorar el sistemas de caches que daban algo más de velocidad de respuesta, sin cambiar estrategia comercial y en una temporalidad invariable. (vamos que no era en diciembre y por navidad se vende más, juraría que fue en marzo, sin ser una web con rebajas).
#49 Recuerdo que, en un cursillo (300 horas) de páginas web que hice allá por el 2003, el profesor le daba mucha importancia al tema de la optimización. Comprimir imágenes, reducir todo lo posible el código, usar CSS externo (por aquel entonces aún era habitual integrarlo en el mismo archivo html de la página), limpiar los archivos Flash antes de compilarlos, etc... Solía decir que un usuario cerraría la página si tardaba más de 14 segundos en cargar usando módem o 3 segundos si tenía banda ancha; eso nos limitaba a un tamaño máximo (siendo generosos) de 300 ó 500Kb por página, incluyendo imágenes y cualquier otro contenido. Es cierto que la velocidad de las redes ha mejorado en este tiempo, pero también que se navegaba más rápido entonces con conexiones de 2MB/s que ahora con 20MB/s.
Parte de la culpa la tiene el cambio de óptica de lo que debe ser un webmaster: antes era ante todo un programador; ahora lo más importante es el diseño gráfico. O, al menos, ésa es mi impresión.
#64 Sí, era algo raro usar flash hace 8 años... El flash venía con la plantilla a partir de la cual construí la web (empecé de cero y no sabía html). No tuve tiempo de ponerme con esa parte hasta que empezó a ser un problema para los móviles.
#8: Yo tengo una aplicacioncilla web con un JavaScript para cálculos, y lo optimicé a la mitad de tamaño. Tal vez haga una segunda optimización quitando comentarios y saltos de línea, aunque de momento el servidor no anda muy cargado.
Aunque me asalta una duda: ¿Cuando se transmite un JavaScript se comprime? ¿Se comprime mucho en comparación a RAR?
#95 Para javascript que escribas tu hay optimizadores online que quitan comentarios, reducen los nombres de las variables, busca por google "javascript minifier". Aparte puedes enviarlo comprimido por gzip y la mayoria de los navegadores también se los traga. Si vas a utilizar librerias externas mejor enlazar las versiones minimizadas que ponen en CDN públicos, asi te quitas de complicaciones.
Si no haces nada creo que se envian como textos, aunque me suena de algunos navegadores moviles como Opera te hacian algun tipo de compresión, supongo que utilizando un proxy-cache.
El problema no es tanto el ancho de banda que tengáis (ayuda, pero no es la solución), sino la optimización del servidor para procesar las peticiones lo más rápido posible.
Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc, por tanto si hay muchos archivos javascript, css, imágenes, etc, para descargar, la carga de la página puede tardar eones (más si son muy pesados). Para resolver este problema hay varias técnicas de optimización:
- Activar la compresión gzip de apache o el servidor web que se use.
- Añadir fechas de caché a los archivos estáticos (imágenes, vídeos, etc.) de tal forma que no sea necesario descargarlos cada vez que se accede a la web.
- Instalar un sistema de caché de php (eAccelerator, APC).
- Instalar un sistema de caché de html. Si utilizáis wordpress, pues alguno de sus plugins.
- Unificar y minificar los archivos javascript y css para reducir su tamaño y cantidad de peticiones al servidor.
- Crear subdominios para la peticiones de contenido estático. Así nos saltamos la limitación de dos peticiones por pc del protocolo http. A más subdominios, más peticiones simultáneas.
- Optimizar las imágenes de la web. Información de la cámara, fecha de creación, etc., son cosas que no nos hacen falta.
- Cambiar a un hosting con discos duros SSD.
etc.
#21 Yo tengo una web de moda, y es un dolor tratar de optimizarla. Los redactores tienen que subir imágenes, y normalmente hay poco margen para optimizarlas. En cuanto las suben pasan por conversor, y luego se suben a cloudfront. También he minificado prácticamente todo lo posible, cacheo php, html y la madre superiora... pero la verdad es que la carga sigue siendo un poco pesada. Lo de los subdominios no se me había ocurrido, pero igualmente las imágenes se cargan desde cloudfront (con el dominio de cloudfront) con lo cual no creo que haya gran diferencia.
#39 al ser un CDN debería valer. Supongo que las imágenes las reduces al tamaño que van a ser visualizadas en el navegador y no más grandes. Es tontería que el usuario descargue una imagen de 800x600 cuando se va a visualizar en un cuadro de 300x300 (por ejemplo). En caso de que necesites imágenes más grandes lo mejor es separarlas en dos: una miniatura y otra con dimensiones más grandes. También puedes probar activando gzip en apache, eliminar los datos exif, reducir la calidad de la imagen, tal vez pasarlas de jpeg a png, etc.
#21> Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc
Eso te lo has sacado de la manga. El servidor (los servidores) suelen tener entre 10 y 20 procesos para servir peticiones. Suelen, porque es por supuesto configurable, ya según la memoria y CPU que tengas disponible puedes subirlos o bajarlos. Eso sin contar con que la mayoría de web grandes no cuentan con un servidor, sino con muchos, y a menudo repartidos geográficamente (los famosos CDN).
Los navegadores tambien limitan el numero de conexiones por dominio (es por eso que se suelen tener varios dominios aunque solo tengas un servidor: www.ejemplo.com, media.ejemplo.com, assets.ejemplo.com y así sucesivamente). Esto depende del navegador, suelen tener entre 8 y 10 conexiones por servidor, aunque esto tambien lo puedes cambiar en about:config y similares).
TL;DR: Depende de la configuración de los servidores y del navegador. Pero suelen ser unas ~10.
#5#7 pues eso mismo, que el efecto de la pesadez sea la lentitud no indica que el problema sea la lentitud, sino la pesadez.
Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio. Así que insisto (y se habla de ello en el artículo) Internet no es que vaya lento, es que los contenidos cada vez son más pesados
Para la mayoría de gente la cantidad de ancho de banda consumido no es lo más importante ya que han proliferado las tarifas planas. Por ello el tamaño no importa sino la velocidad. Y por eso ese es el problema.
#13 Cierto, pero como dice #12 la mayoría tenemos tarifa plana y los proveedores de Internet reparten un ancho de banda fijo entre todos los conectados, cuanto más necesite yo menos hay para tí
#10 Varnish. Y ya puedes ser todo lo script kiddie que quieras que tus mamotretos de webs programadas como el culo le parecerán el colmo de la eficiencia a los usuarios.
A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. Sin sistemas de caché la gente se cagaría en dios usando internet y para cualquier cosa que tuviera más de 100 usuarios simultáneos ya tendrías que tirar de C++ o Java.
#27 Si al 50% es el doble, el 44% es casi el doble, asi que tu impresion es buena.
Si la reduccion fuera del 100% entonces es que ya no habria tiempos de carga.
#23 Una pregunta: Si tan buena es ésta feature (menor tiempo de carga y más protección) como es que no viene habilitada por defecto? Puede dar algún problema con alguna página? La noticia de #24 dice que disminuye las cookies.
#63 Si mal no recuerdo evita el tracking por cookies y otros medios de terceras dominios, yo no tuve problemas todavía y llevo varios meses.
¿Por que no viene por defecto? ni idea. Quizás por que simplemente evita algo que un web quiere hacer y para bloquearte algo es de recibo pedir tu consentimiento o que lo hagas tu por iniciativa propia.
Bloquear cosas sin decírtelo aunque sea por tu bien igual no estaría bien visto. El "por tu bien" es relativo siempre.
#63#67 A las empresas les interesa rastrear tu actividad de Internet para poder así ofrecerte anuncios a medida o conocer que tipología de clientes se mueve por un sitio de la web u otro.
Esas herramientas ralentizan la navegación.
El "do not track" (no me sigas) fue una propuesta que recibió apoyo de todas las partes (defensores de la privacidad y empresas de publicidad) con el objetivo que aquellos usuarios que no quisieran ser rastreados pudieran mostrar así su voluntad y fuera respetada. En los acuerdos se estableció que debía ser el usuario quien tomase la decisión y no el proveedor del navegador u otro intermediario.
Las empresas de publicidad respetan el "do not track" voluntariamente. Si se activase por defecto en todos los navegadores esas empresas estarían legitimadas a ignorar esa petición y a saltarse las protecciones para volver a seguir a los usuarios ya que parte de su negocio reside en ello.
De hecho el Internet Explorer 10 activó el "do not track" con la opción de "configuración rápida" y fue muy criticada por ello, precisamente por que ponía en riesgo la continuidad al respeto de esa voluntad por parte de las empresas de publicidad.
Con todo promocionar esa opción para que la web vaya más rápida no parece lo más adecuado, el principal motivo, el único motivo, debería ser la privacidad.
"La protección de rastreo te permite tomar el control de tu privacidad. Aunque Firefox proporciona la funcionalidad No rastrear, que le indica a los sitios web que no monitorizen tu actividad web, las compañías no están obligadas a hacerle caso. La Protección de rastreo de Firefox te devuelve de nuevo el control de tu privacidad, bloqueando activamente los dominios y sitios web que son conocidos por rastrear a sus visitantes."
Sigo dando a entender que son dos cosas distintas. El Do Not Track es lo que tú comentas: la versión voluntaria. La protección de rastreo, yo entiendo que lo fuerza, quieran las empresas o no.
#23 Acabo de probarlo y ¡funciona! En varias páginas que visito habitualmente y que suelen tardar bastante en cargar he notado una mejora impresionante.
¡Gracias por el truco!
#4 A ver, que el sitio web tenga más elementos y más "pesados" almacenados en el servidor no tiene por qué influir directamente en el tiempo de carga, ya que el código que se ejecuta en el lado del servidor no se entrega al cliente y normalmente no suele ser demasiado complejo. Influye cuando el número de imágenes o vídeos a cargar por página aumenta o cuando el código ejecutándose desde el servidor requiere de mucho tiempo de computación, y no creo que el algoritmo para decidir qué versión de una imagen o un vídeo darle al cliente sea excesivamente complejo. Lo que probablemente influye más es el número de procesos en ejecución para llevar el tracking y las estadísticas, que implican un flujo más o menos contínuo de datos y una serie de conexiones abiertas y el número de personas que simultáneamente hacen uso del servicio.
#37 Cada vez hay más mierda que se ejecuta en cliente. Eso es mierda que se tiene que mandar al navegador, y mierda que se tiene que ejecutar probablemente antes de que se visualice la aplicación.
Si quitamos los productos que contienen Streaming, música y contenidos en directo, y aquellos que meten mierda hasta hartarse para sacar cuatro perras, si un desarrollador se esfuerza, hay mogollón de herramientas para aligerar el peso de una web, aligerando desde las imágenes (Firebug por ejemplo) hasta el peso de los efectos con los estilos, cargas desde diversas máquinas etc... Si además cortamos el scraping que hacen desde algunas empresas de minería de datos, para que nuestra web no sirva peticiones a robots de mierda, nos encontraremos webs muy ligeras y eficaces,
#71 El problema es que para el usuario el destino es leer la noticia, ver el saldo de su cuenta o reservar un vuelo. Si dichas actividades le cuestan más tiempo (por el abuso de videos o la razón que sea), el resultado final es que el sistema va más lento. Aunque sea culpa de que unas partes pesan demasiado pese a otras ir más rápido...
#71 A parte de que el aumento medio en el peso de las páginas web va casi a la par que la adopción de Wordpress para blogs de actualidad y todo tipo de páginas profesionales. Qué casualidad.
Por no mencionar que el crear webs adaptativas no justifica el aumento de peso si se hace con mimo y cuidado, utilizando media queries.
Y ahora que lo pienso, una cosa que no se menciona es la integración de redes sociales en muchos sitios web, ya que la velocidad de respuesta de las API públicas de esas redes sociales puede ralentizar la carga del sitio.
#88 El problema es que las empresas, supongo que porque no tienen un duro, quieren ahorrarse todo lo posible en la presencia en Internet y no te queda otra que tirar de Wordpress, Joomlas o similares y plantillas sin retocar ni optimizar nada.
Hace tiempo que hacer webs a medida sale muchísimo más caro que usar como base soft libre y optimizar a partir de ahí, pero estamos llegando a unos límites que ya no se quieren ni gastar lo que te cuesta bajar el soft de Internet y comprar las plantillas
#70 Por eso se da la paradoja de que muchas páginas carguen antes con una conexión de fibra ed 6MB/s que con una ADSL de 20MB/s (que sea en torno a 12 ó 16MB/s reales). Una página o cualquier otro archivo grande descargará antes en una conexión rápida, pero una página dividida en decenas de archivos pequeños se verá más penalizada por el tiempo de respuesta que por la velocidad de descarga.
Yo lo noté mucho cuando en casa pasamos de fibra (6MB/s) a ADSL (20MB/s, en torno a 15MB/s reales).
#32 No necesariamente. El adblock lo que hace es ocultar las coas pero no necesariamente evita su descarga. Algunos sitios verifican que la publicidad ha sido descargada. Lo que no pueden saber es si adblock la ha ocultado en la pantalla.
Todavía recuerdo cuando tardaba 15 minutos o más en entrar al chat de Terra porque el flash ocupaba casi 300kb.
Hoy en día, como usuario de internet, no instalo flash y uso Ghostery para ahorrarme la basura que mete la gente. Como desarrollador web, intento los recursos de mis webs estén lo más optimizados posible y los pongo solo si es necesario para el correcto funcionamiento de la web, nada de bloatware ni florituras. De esto último se olvidan muchos y te dejan la plantilla de WP o Bootstrap tal cual la han comprado aunque la web no use más del 20% de lo que ofrece.
A mí me hace gracia la tendencia que hay de sobrecargar el front end de las aplicaciones web, de manera hiper complicada e innecesaria. Me pone negro. Pero como los programadores tienen que sentirse realizados, y en vez de hacer aplicaciones para que funcionen hacen aplicaciones para demostrarse algo a sí mismos y a los demás, pues...
no es solo el ancho de banda, algunas paginas te ponen el procesador a trabajar a tope, y total para mostrar texto y alguna que otra animacion, eso no deberia pasar del 2% en cualquier ordenador moderno
Entrar desde el móvil a leer algunas noticias de periódicos digitales es insufrible. Principalmente por algo que no citan, curiosamente, en el artículo. La cantidad de publicidad. Un banner cada dos pequeños párrafos es excesivo.
#22 Y algún periódico que te carga y reproduce un banner de vídeo nada mas entrar... Mira que no soy contrario a la publicidad, pero algunas cosas son excesivas, y además bloquean la lectura de la página.
Una pregunta que lanzo a los desarrolladores web. ¿Esas páginas ahora tan de moda que no tienen menus algunos y que va cargando por un scrollvertical es también una patada en los cojones a la optimización?
Google ha generalizado la optimizacion de la velocidad de carga. En mi caso de los 15-20 portales qe trngo ninguno carga en mas de 3,5 segundos, alguno de ellos tarda menos de 1 segundo. Todo a base de optimizar las webs, los servidores, pagar sistemas premium de DNS (no me da el hobby para CDNs).Como consultor en mi curre me peleo igualmente para que mejore este
Parametro y creo que vamos a mejor en lugar de a peor.
Me la voy a jugar preguntándo algo que igual es un poco off topic. No se suponía que Youtube empezaba a usar html5 en lugar de flash? Si html5 puede hacer lo mismo, por qué se sigue usando flash? Al margen de todo eso, por que Adobe Flash ha de actualizarse cada dos días? Qué necesidad técnica real hay para eso? Gracias de antebrazo
#74 El reproductor HTML5 debería ser más eficiente y ocupar menos espacio que el reproductor Flash... y digo debería porque cada empresa usa su propio reproductor. No obstante, lo que realmente peso es el propio vídeo, que debe ser más o menos igual (depende del formato de compresión, la resolución, etc...).
Flash se actualiza cada poco tiempo principalmente por tres motivos: porque está plagado de agujeros de seguridad que deben taparse lo antes posible, porque cada vez que se instala aumentan las probabilidades de que dejes pasar el adware típico que trae de serie y porque a Adobe le da la gana. Si no quieres, no lo actualices y punto; tampoco es que te vaya a explotar el ordenador por eso.
Perdone las dizculpas.
Yo creo que es debido a la publicidad y a los nuevos frameworks javascript "mobile first" que están de moda como angularjs, modernizr, bootstrap, jquery, responsive, nicescroll... y ochocientas más.
#77#3 ¿Seguro que no es un bot?. Porque, en caso contrario creo que hay que conseguir en teléfono de su madre, para que lo saque arrastras de casa, aunque sea para hacer botellón.
#1 ¿Podrías leer la noticia antes de votar duplicada? La otra hablaba de un hecho puntual culpa de un ISP, esta habla de las razones del aumento del tamaño de los sitios web
#6 Éste qué va a leer la noticia, si no se preocupa más que de ser el primero en comentar absolutamente todos los meneos para ir sacando algo de karma.
Comentarios
Estuve unos 15 días dale que te pego para cambiar la animación flash de 1,2 mb de mi web a un svg de 16 kb. Lo pongo aquí con cierto orgullo a ver si alguien me felicita, porque seríais los únicos a los que aún les importa optimizar y esas cosas.
Hasta los huevos estoy de entrar en una página a leer 4 líneas de texto y tener que ir apartando vídeos, imágenes y demás molestias. Para algunas cosas, tener 100 Mb de conexión ahora es como los 2 Mb de hace unos años.
Si algo considero para las webs que visito normalmente es que no tengan mil chorradas innecesarias de fotos, plugins, scripts.. que multiplican el peso que debería tener...
Especialmente si estás con el móvil. Me recuerda mucho a "los tiempos del flash". Mucho fiú, fiú, rayos láser, cosas moviéndose, fiú, fiú... Para realmente nada
#8 No te había visto. Felicidades!
#8 Yo soy ultrafan de los navegadores tipo Elinks, modo texto.
No ves una mierda de todo lo que tiene la página, pero el texto central, a lo que entras, lo puedes ver y carga rapidísimamente, porque no carga toda esa basura.
Por supuesto, http://someonewhocares.org/hosts/
#34 #32 y /etc/hosts y ghostscript más aún
mira → #33
#43 El tema del archivo host está para tenerlo en cuenta, aunque bloquear todo de forma másiva tampoco se si me interesa, se pierde el control de lo que en un momento dado sí que quieres mostrar, no?
#51 servidores de publi de putis...y poco mas.
Si tienes hijos, la primera barrera es esa (para mi, vamos)
#51 a mí me ha salvado al menos dos veces de ver los shocking sites estos tan famosos (que deben de ser horribles). Una vez en facebook apareció a un sitio de estos. Pero justo parecía como si la web no existiese. Y busco en google el nombre del sitio y era un shocking site.
Luego, se nota mucha diferencia con ghostscript y con adblock porque tienen que bloquear menos cosas.
#33 creo que imagemagick o ffmpeg convierten flash a SVG directametne.
#33 Polipo + pdsnd en Linux. Reduces la caché a 0 del navegador, y vuela.
http://crunchbang.org/forums/viewtopic.php?id=11881
#8 Te doy permiso para hacer spam. Pon el enlace
#8 En el mundillo "enterprise" donde me muevo la velocidad importa y mucho. Y no sólo a título personal, como a ti o a mí. Está científicamente comprobado que cuando más tarde en cargar la página más improbable es que el usuario lea, compre o haga lo que tenga que hacer. Si tarda más de 5 segundos en cargar por supuesto que se largan.
PS: ¡Felicidades! (tap-tap, palmadita en la espalda)
#49 «Si tarda más de 5 segundos en cargar por supuesto que se largan.»
¿cómo explicas entonces que haya vídeos de youtube que tardan varios segundos en cargar con más de 1 visita?
¿Una persona es capaz de estar esperando días en la cola para comprar cualquier producto de mierda y sin embargo es incapaz de esperar 5 seg a que cargue 1 web?
Quizá haiga un especie de ecuación………
La paciencia del cliente es igual al tiempo de espera partido de la felicidad que espera sentir o la calidad del producto que espera conseguir.
#83 Tus suposiciones son correctas -- evidentemente si lo que esperas es muy gratificante, y sobre todo si es gratis, se espera más tiempo.
Imagínate que vas buscando un modelo concreto de zapatillas. Escribes la búsqueda en Google y ves 5 resultados relevantes: el modelo y el color que te gustan, y todas tienen el mismo precio, 35€.
Ahora imagínate que pulsas el primer enlace y ves una pantalla blanca durante 5 segundos. Al sexto segundo seguro que has vuelto a Google a pinchar el siguiente enlace.
Google ha hecho estudios al respecto, y hay varios artículos interesantes al respecto:
http://googleresearch.blogspot.de/2009/06/speed-matters.html
http://www.nytimes.com/2012/03/01/technology/impatient-web-users-flee-slow-loading-sites.html
#83 Donde yo trabajo (entorno web de pago) más de 4 segundos levanta alerta e incidencia por mala experiencia de usuario.
La percepción de velocidad de un usuario que paga por un contenido es aún más "delicada" y hay equipos que trabajan exclusivamente en esas mejoras.
Parece una locura, pero como pone #87 al 6º segundo tienes gente llamando porque "la web va lenta".
#83 Se refiere a 5 segundos con la pagina en blanco, no a el video que ponga Cargando. Es algo de sobras conocido y muy estudiado. En webs que he auditado aumentaron las ventas en un 28,5% el mes siguiente solo por mejorar el sistemas de caches que daban algo más de velocidad de respuesta, sin cambiar estrategia comercial y en una temporalidad invariable. (vamos que no era en diciembre y por navidad se vende más, juraría que fue en marzo, sin ser una web con rebajas).
#49 Recuerdo que, en un cursillo (300 horas) de páginas web que hice allá por el 2003, el profesor le daba mucha importancia al tema de la optimización. Comprimir imágenes, reducir todo lo posible el código, usar CSS externo (por aquel entonces aún era habitual integrarlo en el mismo archivo html de la página), limpiar los archivos Flash antes de compilarlos, etc... Solía decir que un usuario cerraría la página si tardaba más de 14 segundos en cargar usando módem o 3 segundos si tenía banda ancha; eso nos limitaba a un tamaño máximo (siendo generosos) de 300 ó 500Kb por página, incluyendo imágenes y cualquier otro contenido. Es cierto que la velocidad de las redes ha mejorado en este tiempo, pero también que se navegaba más rápido entonces con conexiones de 2MB/s que ahora con 20MB/s.
Parte de la culpa la tiene el cambio de óptica de lo que debe ser un webmaster: antes era ante todo un programador; ahora lo más importante es el diseño gráfico. O, al menos, ésa es mi impresión.
#8 ¿felicitarte? Anda que meter una animación flash en tu web es para fusilarte, como poco.
#64 Sí, era algo raro usar flash hace 8 años... El flash venía con la plantilla a partir de la cual construí la web (empecé de cero y no sabía html). No tuve tiempo de ponerme con esa parte hasta que empezó a ser un problema para los móviles.
#8: Yo tengo una aplicacioncilla web con un JavaScript para cálculos, y lo optimicé a la mitad de tamaño. Tal vez haga una segunda optimización quitando comentarios y saltos de línea, aunque de momento el servidor no anda muy cargado.
Aunque me asalta una duda: ¿Cuando se transmite un JavaScript se comprime? ¿Se comprime mucho en comparación a RAR?
#95 Para javascript que escribas tu hay optimizadores online que quitan comentarios, reducen los nombres de las variables, busca por google "javascript minifier". Aparte puedes enviarlo comprimido por gzip y la mayoria de los navegadores también se los traga. Si vas a utilizar librerias externas mejor enlazar las versiones minimizadas que ponen en CDN públicos, asi te quitas de complicaciones.
Si no haces nada creo que se envian como textos, aunque me suena de algunos navegadores moviles como Opera te hacian algun tipo de compresión, supongo que utilizando un proxy-cache.
#95 "minifica" el archivo en alguna web
#8 Si te interesa, Google sacó haceun tiempo una herramienta para convertir de flash a HTML5.
https://developers.google.com/swiffy/convert/upload
El problema no es tanto el ancho de banda que tengáis (ayuda, pero no es la solución), sino la optimización del servidor para procesar las peticiones lo más rápido posible.
Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc, por tanto si hay muchos archivos javascript, css, imágenes, etc, para descargar, la carga de la página puede tardar eones (más si son muy pesados). Para resolver este problema hay varias técnicas de optimización:
- Activar la compresión gzip de apache o el servidor web que se use.
- Añadir fechas de caché a los archivos estáticos (imágenes, vídeos, etc.) de tal forma que no sea necesario descargarlos cada vez que se accede a la web.
- Instalar un sistema de caché de php (eAccelerator, APC).
- Instalar un sistema de caché de html. Si utilizáis wordpress, pues alguno de sus plugins.
- Unificar y minificar los archivos javascript y css para reducir su tamaño y cantidad de peticiones al servidor.
- Crear subdominios para la peticiones de contenido estático. Así nos saltamos la limitación de dos peticiones por pc del protocolo http. A más subdominios, más peticiones simultáneas.
- Optimizar las imágenes de la web. Información de la cámara, fecha de creación, etc., son cosas que no nos hacen falta.
- Cambiar a un hosting con discos duros SSD.
etc.
Hay bastantes cosas que un desarrollador y las empresas pueden llevar a cabo en sus webs para acelerarlas. De hecho Google valora mucho las webs rápidas. Os dejo un post de mi blog (siento el spameo) por si alguno está interesado, aunque está orientado a WordPress os puede dar una idea de lo que se puede optimizar en una web: http://www.interadictos.es/2015/02/23/mejorando-el-redimiento-el-tiempo-de-carga-la-puntuacion-de-page-speed-de-tu-wordpress/
#21 Yo tengo una web de moda, y es un dolor tratar de optimizarla. Los redactores tienen que subir imágenes, y normalmente hay poco margen para optimizarlas. En cuanto las suben pasan por conversor, y luego se suben a cloudfront. También he minificado prácticamente todo lo posible, cacheo php, html y la madre superiora... pero la verdad es que la carga sigue siendo un poco pesada. Lo de los subdominios no se me había ocurrido, pero igualmente las imágenes se cargan desde cloudfront (con el dominio de cloudfront) con lo cual no creo que haya gran diferencia.
#39 al ser un CDN debería valer. Supongo que las imágenes las reduces al tamaño que van a ser visualizadas en el navegador y no más grandes. Es tontería que el usuario descargue una imagen de 800x600 cuando se va a visualizar en un cuadro de 300x300 (por ejemplo). En caso de que necesites imágenes más grandes lo mejor es separarlas en dos: una miniatura y otra con dimensiones más grandes. También puedes probar activando gzip en apache, eliminar los datos exif, reducir la calidad de la imagen, tal vez pasarlas de jpeg a png, etc.
#21 Creo que estas confundiendo el numero maximo de peticiones con el pipelining.
#41 y #53, a lo mejor me estoy liando, voy a buscar la info a ver si encuentro donde lo leí y os publico el enlace.
#41 y #53, bien, por lo visto depende de los navegadores no del protocolo. Los navegadores tienen un máximo de peticiones por dominio: http://stackoverflow.com/questions/985431/max-parallel-http-connections-in-a-browser, y aquí una tabla con las peticiones en paralelo que pueden procesar los navegadores: http://www.browserscope.org/?category=network
En alguno de los plugins de WordPress que tratan este tema hablan de dos peticiones por dominio, de ahí mi confusión. Perdón.
Sirva este mensaje como corrección.
#21 > Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc
Eso te lo has sacado de la manga. El servidor (los servidores) suelen tener entre 10 y 20 procesos para servir peticiones. Suelen, porque es por supuesto configurable, ya según la memoria y CPU que tengas disponible puedes subirlos o bajarlos. Eso sin contar con que la mayoría de web grandes no cuentan con un servidor, sino con muchos, y a menudo repartidos geográficamente (los famosos CDN).
Los navegadores tambien limitan el numero de conexiones por dominio (es por eso que se suelen tener varios dominios aunque solo tengas un servidor: www.ejemplo.com, media.ejemplo.com, assets.ejemplo.com y así sucesivamente). Esto depende del navegador, suelen tener entre 8 y 10 conexiones por servidor, aunque esto tambien lo puedes cambiar en about:config y similares).
TL;DR: Depende de la configuración de los servidores y del navegador. Pero suelen ser unas ~10.
#21 vamos, aumento la velocidad de los clientes y y les disminuyo el tamaño del disco duro
Últimamente Internet va tan lento que al ver un vídeo porno, la señorita no acaba de abrirle la puerta al fontanero y yo ya he acabado.
#5 #7 pues eso mismo, que el efecto de la pesadez sea la lentitud no indica que el problema sea la lentitud, sino la pesadez.
Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio. Así que insisto (y se habla de ello en el artículo) Internet no es que vaya lento, es que los contenidos cada vez son más pesados
#11 No, el problema es la lentitud.
Para la mayoría de gente la cantidad de ancho de banda consumido no es lo más importante ya que han proliferado las tarifas planas. Por ello el tamaño no importa sino la velocidad. Y por eso ese es el problema.
#12 go to #10
#14 Sí, esas son algunas de las causas pero el problema sigue siendo el mismo, el problema es que "va lento".
Debido a las causas que quieras, pero el problema no desaparece por citar las causas.
#13 Cierto, pero como dice #12 la mayoría tenemos tarifa plana y los proveedores de Internet reparten un ancho de banda fijo entre todos los conectados, cuanto más necesite yo menos hay para tí
#16 Cierto también.
#16 ¿Tarifa plana de Infovía?
#44 Estoy en Argentina
#11: Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio.
Con 300 megas estarás igual porque la lentitud es del servidor de los datos o de los intertubos con los que te los ofrece.
Además, para qué quieres tantos megas para cargar webs? Típica actitud cazurra española.
#16: No tiene sentido lo que dices. Tu línea tiene asociada una tasa límite de datos por segundo, no puedes acaparar sin fin.
#12 No eres informático verdad. No sabes de lo que hablas.
#100
#11 Las páginas pesan más -> más tráfico -> la red está más saturada. No se trata sólo de tu conexión.
Despues de la Ley de Moore, llega la Ley del Gordaco Michael Moore:
"Las lorzas de tu pagina web se duplicarán cada 2 años"
Malos desarrolladores y, sobre todo, malos clientes.
#10 Varnish. Y ya puedes ser todo lo script kiddie que quieras que tus mamotretos de webs programadas como el culo le parecerán el colmo de la eficiencia a los usuarios.
A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. Sin sistemas de caché la gente se cagaría en dios usando internet y para cualquier cosa que tuviera más de 100 usuarios simultáneos ya tendrías que tirar de C++ o Java.
#26 Joder y yo aprendiendo Ruby on Rails
#86 Un consejo: deja esa mierda.
En serio, déjala. Todos los raileros que conozco dejaron de usar Rails hace años. Y no es broma.
Tienes más opciones, algunas también con Ruby, no hace falta que lo abandones. Pero Rails... pos no.
#26 "A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. "
PHP es peor que Ruby y Python.
#26 Mejor hacer las cosas bien desde el principio y te ahorras capas extra. Pero no, mejor hacer mierda y triturarla para que pase mejor.
#26 Google usa muchísimo python y no le va del todo mal.
#125 La solución vendrá, como dice #26, en web basada en C++.
Mmmm... más lento? Será más pesado!
#4 No, más lento.
El motivo es que las páginas tienen más datos (más pesadas) y por eso tardan más en cargar, van más lentas en cargarse que si fueran más ligeras.
#5 #20
about:config
privacy.trackingprotection.enabled;true
Con esto activado ya te carga al doble de velocidad las paginas de media.
Y lo digo sin exagerar.
Flashblock para evitar las que cargan con esta mierda y listo.
Y un bloqueador de publicidad tambien ayuda, pero como dije con la primera ya llega para ver la diferencia.
#23
Firefox’s optional Tracking Protection reduces load time for top news sites by 44%
http://venturebeat.com/2015/05/24/firefoxs-optional-tracking-protection-reduces-load-time-for-top-news-sites-by-44/
#24 Bueno quizás exagere un poco esa media, pero la impresión es el doble.
#27 No me voy a poner a cuantificarlo, pero notarse se nota.
#27 Si al 50% es el doble, el 44% es casi el doble, asi que tu impresion es buena.
Si la reduccion fuera del 100% entonces es que ya no habria tiempos de carga.
#56 #60 Exagere... un 6%
#59 Es el efecto placebo
#27 #24 Si se cargan en la mitad de tiempo, entonces si van el doble de rápido
#23 Una pregunta: Si tan buena es ésta feature (menor tiempo de carga y más protección) como es que no viene habilitada por defecto? Puede dar algún problema con alguna página? La noticia de #24 dice que disminuye las cookies.
#63 Si mal no recuerdo evita el tracking por cookies y otros medios de terceras dominios, yo no tuve problemas todavía y llevo varios meses.
¿Por que no viene por defecto? ni idea. Quizás por que simplemente evita algo que un web quiere hacer y para bloquearte algo es de recibo pedir tu consentimiento o que lo hagas tu por iniciativa propia.
Bloquear cosas sin decírtelo aunque sea por tu bien igual no estaría bien visto. El "por tu bien" es relativo siempre.
#63 #67 A las empresas les interesa rastrear tu actividad de Internet para poder así ofrecerte anuncios a medida o conocer que tipología de clientes se mueve por un sitio de la web u otro.
Esas herramientas ralentizan la navegación.
El "do not track" (no me sigas) fue una propuesta que recibió apoyo de todas las partes (defensores de la privacidad y empresas de publicidad) con el objetivo que aquellos usuarios que no quisieran ser rastreados pudieran mostrar así su voluntad y fuera respetada. En los acuerdos se estableció que debía ser el usuario quien tomase la decisión y no el proveedor del navegador u otro intermediario.
Las empresas de publicidad respetan el "do not track" voluntariamente. Si se activase por defecto en todos los navegadores esas empresas estarían legitimadas a ignorar esa petición y a saltarse las protecciones para volver a seguir a los usuarios ya que parte de su negocio reside en ello.
De hecho el Internet Explorer 10 activó el "do not track" con la opción de "configuración rápida" y fue muy criticada por ello, precisamente por que ponía en riesgo la continuidad al respeto de esa voluntad por parte de las empresas de publicidad.
Con todo promocionar esa opción para que la web vaya más rápida no parece lo más adecuado, el principal motivo, el único motivo, debería ser la privacidad.
https://en.wikipedia.org/wiki/Do_Not_Track [ENG]
#73 El Do Not Track ya lo tenía activado, sin embargo ésta opción seguía desactivada. Creo que son cosas distintas.
#78 Es lo mismo: https://support.mozilla.org/es/kb/proteccion-de-rastreo-firefox
Quizá lo que habías hecho previamente era activarlo para una pagina en concreto, como explica el tutorial en la parte inferior.
#79 Puede ser, gracias por la respuesta!
Edito: Leyendo ésto:
"La protección de rastreo te permite tomar el control de tu privacidad. Aunque Firefox proporciona la funcionalidad No rastrear, que le indica a los sitios web que no monitorizen tu actividad web, las compañías no están obligadas a hacerle caso. La Protección de rastreo de Firefox te devuelve de nuevo el control de tu privacidad, bloqueando activamente los dominios y sitios web que son conocidos por rastrear a sus visitantes."
Sigo dando a entender que son dos cosas distintas. El Do Not Track es lo que tú comentas: la versión voluntaria. La protección de rastreo, yo entiendo que lo fuerza, quieran las empresas o no.
Quizás me equivoque
#23 Acabo de probarlo y ¡funciona! En varias páginas que visito habitualmente y que suelen tardar bastante en cargar he notado una mejora impresionante.
¡Gracias por el truco!
#23 Eso es para Firefox ¿no? ¿Alguna posibilidad de hacerlo en Chrome?
#23 Gracias, me sirve bastante, ya estoy navegando más rápido. Tengo problemas con el ancho de banda.
#4 Más pesada = más tiempo en cargar
#7 Internet no son solo las páginas web.
#4 A ver, que el sitio web tenga más elementos y más "pesados" almacenados en el servidor no tiene por qué influir directamente en el tiempo de carga, ya que el código que se ejecuta en el lado del servidor no se entrega al cliente y normalmente no suele ser demasiado complejo. Influye cuando el número de imágenes o vídeos a cargar por página aumenta o cuando el código ejecutándose desde el servidor requiere de mucho tiempo de computación, y no creo que el algoritmo para decidir qué versión de una imagen o un vídeo darle al cliente sea excesivamente complejo. Lo que probablemente influye más es el número de procesos en ejecución para llevar el tracking y las estadísticas, que implican un flujo más o menos contínuo de datos y una serie de conexiones abiertas y el número de personas que simultáneamente hacen uso del servicio.
#37 Cada vez hay más mierda que se ejecuta en cliente. Eso es mierda que se tiene que mandar al navegador, y mierda que se tiene que ejecutar probablemente antes de que se visualice la aplicación.
Si quitamos los productos que contienen Streaming, música y contenidos en directo, y aquellos que meten mierda hasta hartarse para sacar cuatro perras, si un desarrollador se esfuerza, hay mogollón de herramientas para aligerar el peso de una web, aligerando desde las imágenes (Firebug por ejemplo) hasta el peso de los efectos con los estilos, cargas desde diversas máquinas etc... Si además cortamos el scraping que hacen desde algunas empresas de minería de datos, para que nuestra web no sirva peticiones a robots de mierda, nos encontraremos webs muy ligeras y eficaces,
En general por la publicidad. Me gustaría vivir sin adblock pero es que a veces es imposible.
Desde que desactive el plugging "flash" las paginas se cargan en un flash!. Cuando quiero ver algo "active plugging" y listos.
Errónea, internet no es más lenta, las páginas son más pesadas.
Es como decir que mi coche es más lento porque tardo más en llegar a los sitios, obviando que estoy yendo más lejos...
#71 El problema es que para el usuario el destino es leer la noticia, ver el saldo de su cuenta o reservar un vuelo. Si dichas actividades le cuestan más tiempo (por el abuso de videos o la razón que sea), el resultado final es que el sistema va más lento. Aunque sea culpa de que unas partes pesan demasiado pese a otras ir más rápido...
#71 A parte de que el aumento medio en el peso de las páginas web va casi a la par que la adopción de Wordpress para blogs de actualidad y todo tipo de páginas profesionales. Qué casualidad.
Por no mencionar que el crear webs adaptativas no justifica el aumento de peso si se hace con mimo y cuidado, utilizando media queries.
Y ahora que lo pienso, una cosa que no se menciona es la integración de redes sociales en muchos sitios web, ya que la velocidad de respuesta de las API públicas de esas redes sociales puede ralentizar la carga del sitio.
#88 El problema es que las empresas, supongo que porque no tienen un duro, quieren ahorrarse todo lo posible en la presencia en Internet y no te queda otra que tirar de Wordpress, Joomlas o similares y plantillas sin retocar ni optimizar nada.
Hace tiempo que hacer webs a medida sale muchísimo más caro que usar como base soft libre y optimizar a partir de ahí, pero estamos llegando a unos límites que ya no se quieren ni gastar lo que te cuesta bajar el soft de Internet y comprar las plantillas
Gran parte de la culpa la tiene la ingente cantidad de código de terceros que tienen las web actualmente.
El número de conexiones y la latencia importan más que el peso de la web (al menos para conexiones a Internet de 5megas5megas o más)
#70 Por eso se da la paradoja de que muchas páginas carguen antes con una conexión de fibra ed 6MB/s que con una ADSL de 20MB/s (que sea en torno a 12 ó 16MB/s reales). Una página o cualquier otro archivo grande descargará antes en una conexión rápida, pero una página dividida en decenas de archivos pequeños se verá más penalizada por el tiempo de respuesta que por la velocidad de descarga.
Yo lo noté mucho cuando en casa pasamos de fibra (6MB/s) a ADSL (20MB/s, en torno a 15MB/s reales).
Adblock ayuda algo
#32 u-block más
#34 y no te cuento desde que me he enterado que también lo puedo usar en android si lo pongo en firefox
#32 No necesariamente. El adblock lo que hace es ocultar las coas pero no necesariamente evita su descarga. Algunos sitios verifican que la publicidad ha sido descargada. Lo que no pueden saber es si adblock la ha ocultado en la pantalla.
Todavía recuerdo cuando tardaba 15 minutos o más en entrar al chat de Terra porque el flash ocupaba casi 300kb.
Hoy en día, como usuario de internet, no instalo flash y uso Ghostery para ahorrarme la basura que mete la gente. Como desarrollador web, intento los recursos de mis webs estén lo más optimizados posible y los pongo solo si es necesario para el correcto funcionamiento de la web, nada de bloatware ni florituras. De esto último se olvidan muchos y te dejan la plantilla de WP o Bootstrap tal cual la han comprado aunque la web no use más del 20% de lo que ofrece.
¿Cómo sabes que no soy yo? No paro tío, no paro.
A mí me hace gracia la tendencia que hay de sobrecargar el front end de las aplicaciones web, de manera hiper complicada e innecesaria. Me pone negro. Pero como los programadores tienen que sentirse realizados, y en vez de hacer aplicaciones para que funcionen hacen aplicaciones para demostrarse algo a sí mismos y a los demás, pues...
no es solo el ancho de banda, algunas paginas te ponen el procesador a trabajar a tope, y total para mostrar texto y alguna que otra animacion, eso no deberia pasar del 2% en cualquier ordenador moderno
Yo creo que también mucha gente pasa de usar la opción de "guardar imagen para web" y entonces suben archivos de 3 megas pudiendo ser 3 veces menos.
Entrar desde el móvil a leer algunas noticias de periódicos digitales es insufrible. Principalmente por algo que no citan, curiosamente, en el artículo. La cantidad de publicidad. Un banner cada dos pequeños párrafos es excesivo.
#22 Y algún periódico que te carga y reproduce un banner de vídeo nada mas entrar... Mira que no soy contrario a la publicidad, pero algunas cosas son excesivas, y además bloquean la lectura de la página.
Una pregunta que lanzo a los desarrolladores web. ¿Esas páginas ahora tan de moda que no tienen menus algunos y que va cargando por un scrollvertical es también una patada en los cojones a la optimización?
Firefox se esta volviendo un tanto insufrible.
#85 En mi oficina Chrome nos va a todos 10 veces más lento que FireFox.
Ah. Pensaba que era yo.
Sí hombre!! ahora que el p0rn está en streaming como para que me bajen la velocidad de conexión!
Te irá lento a tí, a mí me va de puta madre
Google ha generalizado la optimizacion de la velocidad de carga. En mi caso de los 15-20 portales qe trngo ninguno carga en mas de 3,5 segundos, alguno de ellos tarda menos de 1 segundo. Todo a base de optimizar las webs, los servidores, pagar sistemas premium de DNS (no me da el hobby para CDNs).Como consultor en mi curre me peleo igualmente para que mejore este
Parametro y creo que vamos a mejor en lugar de a peor.
Me la voy a jugar preguntándo algo que igual es un poco off topic. No se suponía que Youtube empezaba a usar html5 en lugar de flash? Si html5 puede hacer lo mismo, por qué se sigue usando flash? Al margen de todo eso, por que Adobe Flash ha de actualizarse cada dos días? Qué necesidad técnica real hay para eso? Gracias de antebrazo
#74 El reproductor HTML5 debería ser más eficiente y ocupar menos espacio que el reproductor Flash... y digo debería porque cada empresa usa su propio reproductor. No obstante, lo que realmente peso es el propio vídeo, que debe ser más o menos igual (depende del formato de compresión, la resolución, etc...).
Flash se actualiza cada poco tiempo principalmente por tres motivos: porque está plagado de agujeros de seguridad que deben taparse lo antes posible, porque cada vez que se instala aumentan las probabilidades de que dejes pasar el adware típico que trae de serie y porque a Adobe le da la gana. Si no quieres, no lo actualices y punto; tampoco es que te vaya a explotar el ordenador por eso.
Perdone las dizculpas.
Yo creo que es debido a la publicidad y a los nuevos frameworks javascript "mobile first" que están de moda como angularjs, modernizr, bootstrap, jquery, responsive, nicescroll... y ochocientas más.
Mas bien los programadores cada vez son peores ... Es lo que tiene comprar programadores como el que compra choped.
Por qué no dice nada de http2? La noticia debería ser eso no este sin sentido...
Bueno los porros también me influyen
#0 duplicada Internet va lento hoy, sí, pero no es culpa de tu ISP
Internet va lento hoy, sí, pero no es culpa de tu ...
xataka.com#1 No es duplicada de esa, no tienen nada que ver.
Lo único en común es que hablan de internet y velocidad.
En este meneo se habla del tamaño de las páginas, en el que nos indicas se habla de una incidencia.
Ya te vale.
#2 no es menéame si no tienes un comentario de mierda intentando destruir el envío. #1
yo les voto sistemáticamente negativo a todos los comentario que hacen referencia a menéame y sus reglas
#80 Yo también. Y parte me gustaría educarlos correctamente para que no me den más la brasa.
#1 Ya vuelves a las andadas, es la segunda vez en menos de dos horas que haces lo mismo.
#3 Ya lo dice su nick, Billy the kid el mas rapido de meneame dando negativos...
#77 #3 ¿Seguro que no es un bot?. Porque, en caso contrario creo que hay que conseguir en teléfono de su madre, para que lo saque arrastras de casa, aunque sea para hacer botellón.
#1 ¿Podrías leer la noticia antes de votar duplicada? La otra hablaba de un hecho puntual culpa de un ISP, esta habla de las razones del aumento del tamaño de los sitios web
#6 Éste qué va a leer la noticia, si no se preocupa más que de ser el primero en comentar absolutamente todos los meneos para ir sacando algo de karma.
billythekid
#6 Si leyese la noticia no sería el y no podría cagarla antes que nadie.
#1 Lo único duplicado aquí es tu incapacidad para leer antes de votar.
#1: otro mendigo del karma.