Le scraping avec Cheerio : comment collecter facilement des données à partir de pages Web
Avec Cheerio, vous pouvez commencer à collecter des données en quelques minutes. C'est simple et cela ne nécessite aucune formation.
Une analyse approfondie de l'infrastructure des données Web, des techniques d'extraction et de l'avenir des données structurées à grande échelle.
Avec Cheerio, vous pouvez commencer à collecter des données en quelques minutes. C'est simple et cela ne nécessite aucune formation.
TL;DR : Redfin expose des points d'extrémité d'API cachés qui renvoient du JSON structuré pour les listes de propriétés, ce qui permet d'ignorer complètement l'analyse HTML fragile. Ce guide vous accompagne dans la construction d'un scraper Python qui extrait les données de location et de vente, effectue des recherches par emplacement, surveille les nouvelles inscriptions via des sitemaps XML et exporte des résultats propres au format CSV ou JSON.
TL;DR : XPath est un langage de requête permettant de naviguer dans les arbres HTML/XML par chemin, attribut ou contenu textuel. Ce guide couvre la syntaxe, les axes et les fonctions XPath, puis montre des scrapers Python fonctionnels avec lxml et Selenium. Vous obtiendrez également un aide-mémoire consolidé et une section de dépannage pour les erreurs XPath les plus courantes.
TL;DR : cURL cache les en-têtes de réponse par défaut. Utilisez -i pour voir les en-têtes avec le corps, -I pour une requête HEAD qui ne renvoie que les en-têtes, -v pour un débogage complet de la requête/réponse, et -D pour enregistrer les en-têtes dans un fichier. Pour les scripts modernes, cURL 7.83+ vous permet d'extraire des en-têtes individuels ou de les récupérer tous en JSON avec l'option -w write-out.
TL;DR : Un navigateur sans tête est un navigateur web qui fonctionne sans interface graphique visible, entièrement contrôlé par du code ou des instructions en ligne de commande. Les développeurs utilisent les navigateurs headless pour les tests automatisés, le web scraping, le contrôle des performances et, de plus en plus, pour alimenter les agents d'intelligence artificielle. Ce guide explique comment ils fonctionnent en interne, quand les choisir plutôt qu'un navigateur classique, et quels sont les frameworks qui valent la peine d'être utilisés.
TL;DR : Scrapy-Playwright vous permet de rendre des pages lourdes en JavaScript directement à l'intérieur des spiders Scrapy en contrôlant de vrais navigateurs Chromium, Firefox, ou WebKit à travers Playwright. Ce tutoriel vous guide à travers l'installation, la configuration, les interactions entre les pages, l'interception AJAX, l'anti-détection, et une structure de projet prête pour la production afin que vous puissiez scanner des sites dynamiques sans quitter l'écosystème Scrapy.
Extraire les annonces d'hôtels d'Expedia avec Python en utilisant le rendu JavaScript, des proxys, des sélecteurs CSS et la pagination, puis nettoyer et exporter les données au format CSV.