Sire, Guillaume (2015) Inclusion exclue : le code est un contrat léonin. Enquête sur la valeur technique et juridique du protocole robots.txt. Réseaux, 1 (189).
Preview |
Text
Download (310kB) | Preview |
Abstract
Internet repose sur un écheveau de protocoles. Après avoir expliqué pourquoi les sciences sociales ont selon nous intérêt à s’intéresser au code informatique, qui est la matière première de ces protocoles, nous analysons la controverse dont a fait l’objet le protocole d’exclusion « robots.txt » censé permettre à un éditeur de réguler le passage sur ses documents des agents logiciels utilisés par les moteurs de recherche. Nous expliquons pourquoi seul le concepteur des agents a le pouvoir de donner une valeur juridique et une fonction technique aux commandes du protocole qui, sans son action, seraient inopérantes. En revenant sur un cas où les éditeurs ont tenté de redéfinir la syntaxe du robots.txt sans passer par les instances de standardisation, nous montrons pourquoi la relation des éditeurs et des intermédiaires sur le web est caractéristique d’un consensus léonin en faveur de ces derniers.
Item Type: | Article |
---|---|
Language: | French |
Date: | 2015 |
Refereed: | Yes |
Subjects: | E- SCIENCES DE L’INFORMATION ET DE LA COMMUNICATION |
Divisions: | other |
Site: | UT1 |
Date Deposited: | 28 Nov 2017 15:27 |
Last Modified: | 02 Apr 2021 15:56 |
URI: | https://publications.ut-capitole.fr/id/eprint/24370 |