Entropie
Dégradation, chaos, désordre, incertitude. En thermodynamique, elle constitue la mesure du désordre d’un système, d’une situation donnée. Dans la théorie de l’information, elle mesure le degré d’incertitude en bits. « L’information est liée à une sorte d’“entropie négative”, elle est le symétrique de l’idée même de désordre. Le message a créé l’ordre là où le jeu aveugle des forces de la nature aurait créé un certain désordre », précise Abraham Moles.