Vous souvenez-vous de cette époque où Internet était encore à l'état sauvage, où chaque concepteur de site web faisait n'importe quoi, et où les pages regorgeaient de couleurs dépareillées, de choix d'interface utilisateur bizarres et d'images déformées ? Quelle époque !
De plus, repensez à l'aspect de ces sites web lorsque vous y accédiez depuis un téléphone ou une tablette. La navigation n'était pas seulement une corvée, c'était carrément pénible.
Tout est désormais beaucoup plus fluide, ancré dans les bonnes pratiques en matière d’interface utilisateur et optimisé pour toutes les tailles d’écran. C’est à Javascript que nous devons cette dernière avancée. C’est le langage magique qui transforme des pages statiques ennuyeuses en expériences rapides et dynamiques.
En bref, JS est excellent lorsque vous optimisez un site web pour les humains. Les bots, en revanche, ne le gèrent pas aussi bien. En fait, les scrapers web basiques ne peuvent extraire aucun code HTML de sites web dynamiques sans fonctionnalités supplémentaires. Ne vous inquiétez pas, nous expliquerons pourquoi et comment surmonter ce problème dans cet article.
Un site web n'a pas besoin de Javascript. Vous pouvez vous en sortir en utilisant uniquement du HTML et du CSS (ou même juste du HTML si vous voulez un style années 80). Alors pourquoi les gens font-ils l'effort supplémentaire d'ajouter du JS ? Eh bien, vous êtes sur le point de le découvrir.




