Les navigateurs web nous promettent monts et merveilles au niveau des vitesses de chargement. En réalité, la complexité montante des sites web les oblige souvent à revoir tout ça à la baisse. Ils doivent non seulement charger les parties visibles de la page, mais également de très nombreuses “dépendances” (des éléments rapatriés de différents serveurs) en arrière-plan. Et pendant ce temps, nous, on attend.
Polaris serait capable de cartographier les connexions des différentes parties d’une page, afin de les faire charger et apparaître de la manière la plus efficace et dynamique possible. Il peut marcher de concert avec Scout, également une création du MIT. Ce dernier traque et Polaris charge.
Le principe de la traque de dépendances n’est pas nouveau, mais les précédents outils allant dans ce sens, auraient surtout recherché ces éléments dans le HTML de la page sans forcément farfouiller pour trouver les relations entre eux.
Les résultats de leur recherche ont été diffusés dans le papier Polaris: Faster Page Loads Using Fine-grained Dependency Tracking. Celui-ci sera présenté au USENIX Symposium on Networked Systems Design and Implementation, qui débutera le 16 mars.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
J’ai une méthode simple pour doubler la vitesse d’affichage : bloquer les pubs.
chickenwing> Oui et non quand tu charge un page avec un logiciel comme addblock installé celui-ci n’intervient qu’a la fin une fois la page entièrement chargé pour éviter que les pubs apparaissent mais elles ont bien utilisé de la bande passante pour arriver sur l’ordinateur.
Non en fait les bloqueurs analysent les entêtes et le code.
Par exemple, une pub Flash de 60ko est bloquée avant son chargement
Oui, enfin cela accélère le chargement des pages avec de fortes dépendances.
Les sites – bien faits – qui n’ont pas ou très très peu de dépendances se retrouvent avec la même optimisation avec ou sans Polaris.
Les dépendances, c’est à dire des parties de code, des scripts, ou des modules sur des serveurs autres que le serveur du site sont à chaque fois une chance supplémentaire pour que le site soit en rade ou avec une mise en page bancale.
Et la plupart des “dépendances” sont en réalité des push market ou l’Internaute n’y a aucun intérêt. Ca va accélérer, un peu, le chargement de ces sites poubelles, ou la page est chargée comme un maillot du tour de France.
Perso je ne vois pas le web du futur tourner autour de ces dépendances.
Il va y avoir une sélection naturelle sur la qualité.
Mais c’est mieux que rien…
C’est vrai que plus ça va plus les sites sont longs à charger, je suppose que la plupart du temps c’est parce qu’ils sont surchargés (notamment de pubs et autres animations) et qu’ils sont codés avec les pieds.
Peut-être qu’avec ça, le journal du geek arrêtera de faire ramer mon ordinateur (Sur cette page seulement, 10 pubs bloqués par adblock)