Le protocole d'exclusion des robots souvent nommé robots.txt, est une ressource de format texte qui peut être placée à la racine d'un site web, et qui contient une liste des ressources du site qui ne sont pas censées être indexées par les robots d'indexation des moteurs de recherche. Par convention, les robots consultent le fichier texte nommé robots.txt avant d'indexer un site Web. Ce protocole a été proposé par Martijn Koster en 1994 et il a été rapidement adopté comme un standard de facto du web.
Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier, soit délibérément parce qu’ils cherchent des informations privées (des adresses électroniques par exemple, pour y envoyer du courrier indésirable), soit parce que le robot est trop simple pour gérer ce standard.
De manière facultative, ce fichier peut contenir l'adresse d'un plan du site consacré aux moteurs de recherche appelé « sitemap » dont le format est le XML.
Le , Google a indiqué vouloir standardiser l’interprétation du fichier robots.txt tout en précisant que sa proposition respecte le brouillon initial de son créateur Martijn Koster(en) et est donc rétrocompatible. En septembre 2022, la RFC 9309[1] est publiée. Elle s’applique à tous les protocoles qui permettent d’accéder à des ressources à partir d’URIs, c’est-à-dire plus uniquement à HTTP mais également à FTP, CoAP, etc.