Je suis un vieux con

Une fois de trop, je suis confronté au Web moderne des gens assis sur les tuyaux et qui ne testent que dans leur configuration hyper optimale. Alors je râle.

Souvent, entre vieux de la vieille d’Openweb, on se dit que c’était mieux avant. Et puis, à l’ombre de nos marronniers, sur notre petit banc, il y a toujours quelqu’un pour dire que non, c’est normal, c’est la nostalgie, ça, les gars et les filles. Le monde change et c’est la vie.

Alors voilà, je suis sans doute un vieux con, mais moi j’aime bien arriver sur une page web, un truc qui est construit avec du HTML, et lire la page, dans laquelle se trouve un contenu qui est construit avec du HTML, brique fondamentale du Web.

Mais, a priori, Google s’en fout comme de son premier million de dollars, des vieux cons comme moi qui espèrent naïvement lire une page web en cliquant sur une URL. On peut crever la gueule ouverte, on n’a qu’à continuer à faire notre petit web perso tout pourri avec nos petits CMS tout pourris, hein. On dérange personne, et en particulier ceux qui se goinfrent de fric avec les données personnelles de leurs visiteurs.

Une page vide

Voilà ce qui m’agace, cet après-midi. Je vais visiter un article du blog Chromium [1], et là j’ai une page vide.

La page du blog Chromium, toute vide malgré ma bonne volonté de vouloir la lire.

Ah flûte, me dis-je, voilà que ma vile paranoïa qui m’a conditionné à toujours installer sur mon Firefox uBlock Origin et Privacy Badger me joue des tours. Ciel, me dis-je encore, ce blog doit être codé avec les pieds et attendre que tel ou tel script soit chargé, au lieu de faire du beau développement asynchrone comme savent le faire les bons développeurs web que j’ai la chance de compter parmi mes copains.

Je lance donc une session privée de Firefox, j’y colle l’URL, je désactive uBlock Origin et Privacy Badger. Tu vois comme j’ai envie de lire ton article, hein.

Et là toujours rien.

Ah oui, j’ai aussi les « Protections renforcées contre le pistage ». C’est une fonction native de Firefox, il va falloir commencer à y penser quand tu fais tes tests. Alors je les désactive aussi, après avoir regardé quels domaines tiers ont été sollicités.

Liste des domaines tiers bloqués automatiquement par Firefox, et merci à lui.

Bon, je désactive aussi la protection renforcée. Comme vous le voyez ci-dessus, le domaine que j’essaie d’afficher est blog.chromium.org et il n’est pas bloqué par Firefox (sans quoi je ne verrais pas la page du tout).

Alors oui, ah là, le contenu s’affiche. Chic alors.

Je décide de revenir à ma configuration de base, et d’afficher le contenu sans CSS : parfois il y a juste un script tout pourri pour frimer avec un petit indicateur de chargement, le temps qu’on agrège des trucs et des machins, mais quand on désactive les CSS on voit que le contenu est déjà là.

Ici non, rien. Buvons le calice du Web moderne jusqu’à la lie.

Aperçu en petit de la page sans aucun style activé. Même en écarquillant les yeux, aucun contenu, juste des items de navigation.

Bref, en résumé :

  • ce site ne peut pas s’afficher si on bloque les services tiers ;
  • ce site ne comporte même pas de contenu si on bloque les services tiers ;
  • ce site affiche quand même le logo Google parce que bon.

Gymnastique du Web moderne

Donc si, de nos jours, on veut lire un article sur ce blog, il faut soit accepter de se balader à poil et d’offrir ses données privées à plein de gens (voir ci-dessus), soit passer par une gymnastique amusante, par exemple :

  1. ouvrir l’article,
  2. constater que oulàlà c’est tout vide,
  3. ajouter l’article à wallabag (ou autre lecteur hors ligne peut-être, je n’ai que celui-là à vous conseiller qui me comble d’aise),
  4. lire l’article dans l’application wallabag.

Dans wallabag j’en profite pour constater que la sémantique HTML de l’article est bien pauvre, mais bon, on s’en fout hein. La sémantique HTML, c’est comme l’accessibilité : on se demande bien qui en a besoin.

J’ai pris l’article du blog Chromium parce que c’est une fois de trop, mais si vous saviez le nombre de trucs aussi mal fichus que je vois tous les jours. Disons-le bien fort au cas où ce ne serait pas clair : une page de blog n’est pas une application Web qui demande une interaction forte.

Alors ouais, je vais continuer à aller lire les petits sites pourris perso des copains, parce que eux, au moins, respectent leurs lecteurs et leurs lectrices.

Notes

[1Chromium, c’est un navigateur, qui sert de base à pas mal de monde dans notre marché : Chrome, Edge dernière mouture depuis que Microsoft a jeté l’éponge de l’indépendance technique, Opera, etc.

Commentaires

  • Emmanuel (7 octobre 2020)

    Ouf ! Ils ont encore un fil RSS !

    Répondre à Emmanuel

  • Y@n (7 octobre 2020)

    Salut,
    Avec tout le respect, je viens de faire un essai et cela fonctionne avec ma config (FF + Ublock Origine ° Privacy Badger).
    Par contre, je suis allé directement sur leur blog https://blog.chromium.org/.
    J’ai également essayer de trouver l’article mais n’ai pas réussi à le trouver. En fait, je pense que l’article a soit été supprimé, soit renommé, en tout cas la page n’existe pas/plus.
    Ne serais-tu pas arrivé sur une page 404 (mal identifié) ? Je remarque que la gestion des 404 est un peu foireuse...

    Répondre à Y@n

  • Stéphane (7 octobre 2020)

    Y@n : Peut-être une histoire de version, ici Firefox Developer Edition 82.0b3 qui n’a peut-être (sans doute) pas la même liste d’exclusion que le tien ?

    L’article existe bien, testé à l’instant avec un navigateur moins soucieux de vie privée : https://blog.chromium.org/2020/09/giving-users-and-developers-more.html et il est dans mon wallabag.

    Répondre à Stéphane

  • mathias poujol-rost (7 octobre 2020)

    Ah, c’est une vraie plaie.

    Répondre à mathias poujol-rost

  • Anonyme (7 octobre 2020)

    Y@n : Je viens de faire le test avec uBlock Origin/uMatrix et j’ai le même résultat que Stéphane. C’est uniquement parce que ajax.googleapis.com est bloqué par mon navigateur, évidemment.

    Répondre à Anonyme

  • Yann (un autre) (7 octobre 2020)

    Bonjour très cher Mentor,

    Moi aussi au carré. Je veux dire : je suis un vieux con aussi. Et moi non plus ça marche pas. Et accessoirement moi aussi ça me fait "ça" (ce... rendu qui ne rend rien) sur tellement de sites qu’au début j’éprouve une légère frustration (à ne pas pouvoir accéder au contenu, le pire étant les sites faits avec Wix) et puis bien vite je me dis que c’est bénéfique parce que finalement c’était pas indispensable|important de dépenser mon temps et mon attention sur ces sites.

    Ma version de FF est 81.0.1 (64 bits). J’utilise Ghostery, Privay Badger, Blur, TrackMeNot et uMatrix.

    A l’heure où on parle tellement de sobriété numérique (car pollution du numérique), de déconnexion (car stress du capitalisme de surveillance), de démantèlement des GAFAM, de performance web, je me demande bien ce que les internautes attendent d’autre pour revenir aux basiques ?

    Répondre à Yann (un autre)

  • Se7h (7 octobre 2020)

    Hé oui, Google promu ses outils, pour le pire et… le pire.

    Chrome ou Chromium reste des outils de Google, donc pas étonnant que les outils de communications qu’ils utilisent soit basé sur leurs outils souvent remplis de JS voire généré dynamiquement en JS.
    Et c’est ici le cas, vu que la page semble générée depuis ajax.googleapis.com, comme l’a déjà signalé Anonyme. Donc si ce CDN est bloqué, la page va beaucoup moins bien marché ^^’

    Mais CDN ou non, je suis également allergique sur cette façon de générer des pages via JS… Pour moi un site doit avant tout être développé en HTML/CSS, surtout que HTML5 et CSS3 permettent de faire des pages dynamiques. Mais le JS peut rester utile dans certains cas.

    Répondre à Se7h

  • le hollandais volant (7 octobre 2020)

    Je définirais le vieux con comme quelqu’un qui refuse le progrès juste parce qu’il est habitué à autre chose et n’a pas envie de changer ses habitudes parfois merdiques.

    Des pages web qui chargent par morceau, des trackers partout, de la pub à foison et des posts de blog à 25 Mo, je n’appelle pas ça le progrès. J’appelle ça de la merde en ligne.

    Que la plupart des gens ne le voient pas, ça ne fait pas de toi un vieux con.

    Est-ce que les pages chargaient plus vite avant ? Oui.
    Est-ce que les pages étaient plus légères avant ? Oui.
    Est-ce que les pages étaient plus lisibles avant ? Oui.
    Est-ce que nos données de navigateurs étaient privées avant ? Oui.

    Donc oui : c’était mieux avant.

    Sauf si l’on considère que la lenteur, la lourdeur, les encarts flashy et le siphonnage de données en vue de l’enrichissement de big-G sur notre dos c’est mieux, évidemment.

    Répondre à le hollandais volant

  • Lorem (7 octobre 2020)

    le hollandais volant :
    Tellement 100% en accord avec toi et Stéphane

    Répondre à Lorem

  • Stéphane (7 octobre 2020)

    Yann : Les internautes subissent, ce n’est pas de leur fait malheureusement.
    Et si un site ne marche pas, ils ne blâment pas le site, ils blâment le navigateur qui ne fait pas ce qu’ils lui demandent. Alors ils lancent Chrome et… magie… ça marche.
    À croire que c’est fait exprès, des fois !

    Répondre à Stéphane

  • xataz (7 octobre 2020)

    Stéphane : Le problème aussi sont les sites développés pour chrome, car c’est le plus utilisé, mais de l’autre côté on garde sslv2 car y’a encore 0,1% qui ne peux pas s’en passer.

    En fait je compare souvent le web au réseau mobile, on lance la 5g alors que beaucoup peine à avoir de la 2g, le web c’est pareil, on estime que tout le monde est en gigabyte.

    Avec la baisse du matériel et l’augmentation des débit, on oublie l’optimisation, que ce soit web ou lourd.

    Répondre à xataz

  • remi (8 octobre 2020)

    Bon, ça me rassure, je suis pas seul.
    Mes enfants me le disent... Surtout quand je tente de leurs expliquer la vie privée tout ça sur le net.
    Un truc marrant, c’est le site de Météo-France. La dernière version de Firefox Android avec ublock et noscript, et c’est inutilisable.
    Quand aux dev de sites et applications, si c’est comme au boulot :
    On fait l’application/site et pour les tests, bah le client paie l’application, pas les tests ! Donc le client test !
    Amicalement.

    Répondre à remi

  • Eric (8 octobre 2020)

    Je suis un vieux con. J’ai fait mes pages à la main. J’en ai fait un temps mon métier.

    Je ne crois cependant pas au « c’était mieux avant ». Je crois que notre frustration et notre nostalgie nous jouent des tours.

    Je me rappelle combien de temps on attendait les pages.

    Aujourd’hui quand je tape un terme dans la barre d’adresse de mon navigateur j’ai une dizaine de résultats pertinents en moins d’une seconde, aperçu vidéo et images compris.

    Inimaginable autrefois.

    En fait j’ai le temps d’ouvrir mon PC portable, m’identifier, lancer le navigateur et exécuter ma recherche en moins de temps qu’il n’aurait fallu pour une seule de ces étapes autrefois.

    Je ne vous raconte pas les délais de réaction des OS et des applications à l’époque, mais rien que l’établissement de la connexion par le modem c’était dans les 30 secondes.

    — -

    Contentons-nous de la navigation web. La latence de mon modem c’était dans les 250 ms et les requêtes étaient rarement parallélisées. Une requête DNS, une page web, une CSS et deux images de mauvaise qualité on était déjà pas loin de 1 seconde rien qu’en latence. Aujourd’hui ma page est déjà affichée dans ce temps là.

    Une page web pur text de 21 Ko ça prenait au mieux 3 secondes sur un modem RTC, et 21 Ko ce n’était pas délirant quand on construisait tout par des tableaux. Mettons 4 Ko de CSS et deux images de 10 Ko (oui, on comptait les octets, quitte à envoyer des images vraiment dégueulasses qu’on n’accepterait jamais aujourd’hui).

    En prenant vraiment le minimum on arrive à 45 Ko (le gzip était rarement activé), c’est à dire 6 secondes et demie. La réalité était bien au-delà. Je me rappelle les images pour faire des coins arrondis, des images pour avoir de jolis titres vu qu’on n’avait pas les polices de caractères en CSS, etc.

    Là dessus il fallait le rendu du navigateur et c’était… lent, très lent. Non, vraiment. D’ailleurs c’était une époque où la vraie bataille des navigateurs était là. La révolution de Firefox c’était ça, bien avant les standards. À l’époque on voyait l’image se construire sous nos yeux. À l’époque la CSS était bloquante pour le rendu et avec les débit ainsi que la latence décrits plus haut, le problème était loin d’être anecdotique.

    Bref, sur cette petite page exemple de pur text avec une très légère CSS et deux images minimales, on est déjà au grand minimum à 10 secondes. En réalité il était fréquent d’être à plus de 30 secondes, voire en minutes.

    Je me rappelle quand je faisais mes pages, qu’il fallait faire des pages les plus longues possibles parce que les visiteurs préféraient prendre un café en attendant mais avoir ensuite tout le contenu. Pas illogique, à chaque clic il fallait… tout refaire de zéro. 30 nouvelles secondes.

    Là dessus je vous passe les applets java et animations flash (c’était la mode pour faire des menus un peu dynamiques), une horreur à la fois en transfert réseau et en exécution sur les postes client, ou les gif énormes pour les boutons de menu.

    — -

    Alors oui, on n’a pas que la page de résultat du moteur de recherche. On a des pages surchargées en images, javascript et css.

    Oui c’est "lent" par rapport à nos standard d’aujourd’hui, mais non, sérieusement, ce n’était pas mieux avant. Ce n’était même pas comparable. On galérait moins, mais parce que nos attentes étaient deux ou trois ordres de grandeur moins élevées.

    Aujourd’hui si je perçois la latence au clic sur un bouton dans une appli, je vais râler contre l’appli mal conçue qui est un puit à ressources et à complexité.

    Autrefois j’avais l’habitude de cliquer plusieurs fois, parce que ça mettait du temps à réagir et que parfois je ne savais pas si le clic était vraiment pris. J’ai encore cette habitude dans mes éditeurs de texte où je fais toujours trois CRTL+S pour sauvegarder, parce que ça me garantit que ça sera vraiment pris en compte. Les plus jeunes n’ont pas connu.

    — -

    La page ne se charge pas quand l’anti-tracking est activé ? Autrefois nous n’avions pas d’anti-tracking, et les pixels transparents de 1px sur 1px étaient légion (et bloquaient le rendu de la suite pendant 200ms à cause de la latence pour exécuter la requête).

    La page est illisible avec un contenu non stylé quand on bloque une ressources ? C’était un peu pareil avant sans la CSS, ou si une image servant à l’agencement de la page cassait. Bon, sauf qu’avant le blocage n’était pas volontaire. Une erreur sur le réseau ce n’était pas rare. La page cassée c’était fréquent, et on rechargeait, repartant pour 30 secondes.

    Ne parlons même pas des pages cassées car incompatibles avec tel ou tel navigateur, telle ou telle résolution d’écran.

    Parce que oui, autrefois en bas des sites on indiquait quel navigateur utiliser, en quelle version, et avec quelle résolution d’écran. No kidding. Certes, on a encore des sites qui fonctionnent mal en dehors de Chrome, mais ça reste bien minoritaire par rapport à avant, et dans l’ensemble on navigue sans se poser de questions sur un croisement entre quatre navigateurs et quatre OS. Ça aurait été difficile à imaginer à l’époque.

    Quant à l’accessibilité je préfère laisser parler ceux qui savent mais si je me rappelle qu’on utilisait bien les balises de titre pour les titres, je me rappelle aussi qu’on utilisait fréquemment cinq ou six tableaux imbriqués pour tout, et qu’il fallait lutter pour que les gens mettent un "alt" sur le titre remplacé par une image. On est probablement encore très loin de là où il faut être, mais entre l’évolution des lecteurs d’écran et les développeurs qui parlent désormais parfois ARIA, j’ai un préjugé qui me laisse croire qu’on a globalement bien évolué là aussi. Tu as fait openweb, tu sais que c’était déjà un combat avant.

    — -

    Tout ça ne veut pas dire « faisons n’importe quoi et les gens ont raison d’avoir 500 Ko de JS qui ne fonctionne que sur Chrome avec des images de 1 Mo », mais attention, parfois la nostalgie nous trompe.

    Ce n’était pas mieux avant. Je ne remplacerais pas une seconde le web d’aujourd’hui par celui d’avant.

    Répondre à Eric

  • Stéphane (8 octobre 2020)

    Eric : La page ne se charge pas.

    Ce n’est pas tant de la nostalgie qu’un parti-pris d’écriture, hein (ma faute, je fais des manières 😉). Je te rejoins sur la piètre qualité du « Web d’avant », mais quand même.

    Un bête contenu qui ne s’affiche pas du tout dans tel navigateur (avec les fonctionnalités par défaut du navigateur, comme ici), on aurait juste appelé ça un bug bloquant.

    Répondre à Stéphane

  • Eric (8 octobre 2020)

    Stéphane : Je me rends compte que je répondais plus à le hollandais volant.

    Répondre à Eric

  • molotov (8 octobre 2020)

    Moi aussi je suis un vieux con et je suis entièrement d’accord avec vous. Pour moi, internet est mort. D’ailleurs, je ferme également tous les services que je proposais sur le net...et je me remets lentement en offline, rien à foutre des actu React, Angular, NoseJS et tutti quanti...

    Répondre à molotov

  • will_tam (8 octobre 2020)

    le hollandais volant : et +100 pour le hollandais volant.

    Répondre à will_tam

  • will_tam (8 octobre 2020)

    Bonjour à tous.

    Oui, le web était lent à "notre" époque ^^. Il l’est toujours autant, mais la cause de cette lenteur c’est déplacée, subversivement T_T

    Répondre à will_tam

  • le hollandais volant (8 octobre 2020)

    Eric :
    « Aujourd’hui quand je tape un terme dans la barre d’adresse de mon navigateur j’ai une dizaine de résultats pertinents en moins d’une seconde, aperçu vidéo et images compris. »

    Oui, aujourd’hui on trouve peut-être l’information recherchée nettement plus rapidement qu’avant. Je ne dis pas le contraire : les moteurs de recherche sont incroyablement performants ; la barre de recherche et le menu démarrer (sous Windows) sortent et trient des résultats à la vitesse de l’éclair. Mais ceci n’est pas une question de site web ni de pages web HTML/JS/CSS.

    Je dirais que c’est plutôt grâce aux immenses bases de données des moteurs de recherche, aux soi-disant « IA » qui traitent la requête beaucoup mieux qu’avant (pas forcément plus vite !) et au réseau physique qui est globalement bien plus rapide. C’est ça qui permet d’avoir des actions instantanées entre le client et le serveur, et donc d’avoir tout ça (pour le mieux !).

    Ça n’empêche pas que, dans le même temps, les pages web sont plus lourdes, l’information est offusquée par des paywall/cachée par des popup/en attente de chargement à cause d’un énième script bugué parce que le dév s’est dit « osef des bug, de toute façon je suis payé pareil et personne ne viendra me trouver ici ».

    Certains sites ne marchent tout simplement pas, ne sont pas testés ou ne sont pas testés *par des humains*. C’est aussi ça qui est déplorable (quand ce n’est pas tout simplement volontaire de la part de l’éditeur de bloquer tel ou tel navigateur pour une histoire de concurrents et de parts de marchés, en s’avançant un peu dans les accusations)

    En attendant, le réseau global est plus rapide, mais il suffit de sortir des grandes villes et on a le même réseau qu’en 2007. Mon débit réseau est le même que celui que j’avais au lycée. Et forcément, avec les pages web dont le poids est multiplié par 20, oui c’est lent.

    Les requêtes légères sont rapides grâce à une latence globale réduite (ping très bas pour le gros du réseau), mais le débit n’est lui pas toujours là, en tout cas pas partout.
    On le voit bien dès qu’on a accès un réseau rapide en fibre : sur la fibre, on peut mettre à jour ses 30 Go de jeux, on peut uploader ses fichiers sur son NAS ou son serveur, ou son Google-Drive. Ailleurs, non, c’est im-po-ssible.

    Il y a un asynchronisme entre ce que les pages web veulent pouvoir faire et ce qu’une partie des internautes peinent à pouvoir faire avec le matériel et les infrastructures qu’ils veulent. C’est le fossée numérique et il se creuse.

    Et pas juste en terme de débit : aussi en terme de technos. Avant, les versions des navigateurs faisaient 2 ans et le web aussi. Aujourd’hui, les versions sortent toutes les 6 semaines et si t’as pas la dernière version, t’es dans la merde sur 2/3 des grands sites. Le web n’avance plus : il se bouscule, s’étrangle et seuls ceux qui sont à la pointe arrivent à afficher une simple page web.

    (et je parle pas des pages web mal déboguées, y compris les pages du gouvernement et des banques…)

    Répondre à le hollandais volant

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides. Tous les liens sortants comporteront un attribut rel="nofollow". Merci de ne pas spammer.