Concept

Aspirateur de site web

Un aspirateur de site Web est un type de logiciel qui télécharge toutes les données contenues par un site web pour les sauvegarder sur un support de mémoire local de l'utilisateur (typiquement, un disque dur), ce qui permet de consulter les pages correspondantes sans être connecté à Internet. Le principe de ce type de logiciel repose sur l'analyse des pages web du site à récupérer : un index des éléments composant chacune d'elles est établi (texte HTML de la page, images, sons, vidéos, animations) et la profondeur d'analyse peut être paramétrée pour télécharger plus ou moins de fichiers, selon qu'ils se trouvent ou non sur le même site par exemple. Une fois ces fichiers enregistrés sur le disque dur, l'ouverture d'un fichier HTML dans un navigateur s'accompagne du chargement des éléments associés. Cette pratique peut être utilisée pour effectuer une copie de sauvegarde d'un site (ou créer un site miroir), pour importer des éléments à publier par ailleurs ou encore pour archiver des pages qui, enregistrées sur une unité de sauvegarde (disque externe, clé USB), pourront ensuite être consultées sur un ordinateur dépourvu de connexion à Internet. Ces logiciels sont inégalement appréciés des concepteurs de sites web et des webmasters dans la mesure où ils faussent les statistiques de visite et peuvent contribuer à violer les droits d'auteurs et les droits liés à la propriété intellectuelle. Ils peuvent aussi consommer abusivement les ressources du serveur web. La loi Godfrain du ne couvre que les systèmes d'information faisant l'objet d'une protection technique. Ainsi, l'aspiration de l’arborescence d'un site ne sera pas considérée comme une attaque informatique en droit français au sens de l’article 323-1 du Nouveau Code Pénal si aucune mesure technique d'interdiction d'accès n'a été mise en place (exemple : fichier robots.txt) sauf si cette exploration entrave le fonctionnement « normal » dudit système. Alors, il serait condamnable au sens de l'article 462-3 de cette même loi. Robot d'indexation (Web crawler en ang

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.