Information (théorie de l’)
Théorie statistique de la communication, développée initialement par Claude Shannon (1948). L’information (la donnée et non la signification) y est mesurée en unités élémentaires appelées « bit », et la majeure partie des travaux porte sur le transport de cette information d’un émetteur vers un récepteur en considérant les différentes natures de signaux possibles.