>Ответ: От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь.
>Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии.
>Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).
>Энтропией называется функция S состояния системы, дифференциал которой в элементарном обратимом процессе равен отношению бесконечно малого количества тепла, сообщенного системе, к абсолютной температуре последней:
>dS = dQ/T
>Энтропия сложной системы равна сумме энтропии всех ее однородных частей.
>Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.
>Понятие меры информации было введено в статистику Клодом Шенноном. Энтропия представляет собой некоторую меру “неопределенности”, связанную с появлением некоторого события. Чем выше энтропия, тем больше неопределенность появления данного события. Энтропия дискретного события будет максимальна в случае равномерного распределения, то есть когда все исходы равновероятны.
>Выражаясь очень простым языком, Энтропия это физическая величина показывающая степень беспорядка системы. 2закон термодинамики говорит что энтропия замкнутой системы должна возрастать - тоесть на практике вся природа и Вселеная стремится к хаосу. Этот закон недвусмысленно показывает безнадёжность всех современных эволюционных теорий - они противоречат законам физики.
>Рекомендуемая литература: Любой учебник по термодинамике, например: Кубо Р., Термодинамика, пер с англ., М., 1970; Румер Ю.Б., Рывкин М.Ш., Термодинамика, статистическая физика и кинетика.
Ценю Ваши старания по перпеписыванию цитат из учебников, только пожалуйста покажите мне замкнутую систему. Вселенную ни кто еще вроде замкнутой системой назвать не решался. А про все остальноее я вообще даже говорить не буду.
Кстати о возвратной теореме Пуанкаре-Цермело Вы слышали?
Я хоть и не физик слышал краем уха.
Кстати когда сдавал в институте теорию информации ( ох и давно это было) на энтропии народ пачками валился.