La lexicométrie naît de l'intérêt des linguistes et historiens pour l'informatique naissante dans les années 1950 et 1960, et, d'un point de vue théorique, rend compte d'une attention portée aux approches quantitatives en sciences humaines (notamment l'histoire quantitative), et à la recherche de structures collectives dans le langage, sous influence du structuralisme[1].
Elle se développe en histoire en France dans les années 1970 et 1980, et prend place dans le tournant linguistique des sciences humaines
[2],
avec notamment l'ouvrage de Régine Robin[3], et les travaux d'historiens tels qu'Antoine Prost, qui a travaillé sur le vocabulaire des proclamations électorales[4] ou de médiévistes comme Jean-Philippe Genet ou Alain Guerreau.
Après une période générale de recul des méthodes quantitatives dans les sciences humaines dans les années 1980-1990, la lexicométrie fait son retour au XXIe siècle, dans le cadre du développement des humanités numériques, parmi d'autres méthodes d'analyses des données textuelles.
↑Monique Bourin et Élisabeth Zadora-Rio, « La mesure au Moyen Âge et les mesures des médiévistes: remarques en forme de conclusion », dans Mesure et histoire médiévale: XLIIIe Congrès de la SHMESP (Tours, 31 mai-2 juin 2012), Paris, , p. 374-396