ЭНТРОПИЯ (от греч. entropia — поворот, превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором S максимальна. Понятие «энтропия» введено в 1865 Р. Клаузиусом. Статистическая физика рассматривает энтропию как меру вероятности пребывания системы в данном состоянии (Больцмана принцип). Понятием энтропии широко пользуются в физике, химии, биологии и теории информации.
О как
А том контексте, который, вероятно, и породил этот вопрос, имелось в виду, что энтропия - есть мера разупорядоченности термодинамической системы.
В колбасе она выше, чем в дохлой кошке. Ибо из кошки можно получить колбасу, но из колбасы кошку - нет!