От Олег К Ответить на сообщение
К Taras~Ural Ответить по почте
Дата 31.10.2001 09:26:56 Найти в дереве
Рубрики Прочее; Современность; Политек; Версия для печати

Re: Олег, вы...


>Ответ: От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь.

>Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии.

>Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).

>Энтропией называется функция S состояния системы, дифференциал которой в элементарном обратимом процессе равен отношению бесконечно малого количества тепла, сообщенного системе, к абсолютной температуре последней:

>dS = dQ/T

>Энтропия сложной системы равна сумме энтропии всех ее однородных частей.


>Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.

>Понятие меры информации было введено в статистику Клодом Шенноном. Энтропия представляет собой некоторую меру “неопределенности”, связанную с появлением некоторого события. Чем выше энтропия, тем больше неопределенность появления данного события. Энтропия дискретного события будет максимальна в случае равномерного распределения, то есть когда все исходы равновероятны.

>Выражаясь очень простым языком, Энтропия это физическая величина показывающая степень беспорядка системы. 2закон термодинамики говорит что энтропия замкнутой системы должна возрастать - тоесть на практике вся природа и Вселеная стремится к хаосу. Этот закон недвусмысленно показывает безнадёжность всех современных эволюционных теорий - они противоречат законам физики.

>Рекомендуемая литература: Любой учебник по термодинамике, например: Кубо Р., Термодинамика, пер с англ., М., 1970; Румер Ю.Б., Рывкин М.Ш., Термодинамика, статистическая физика и кинетика.

Ценю Ваши старания по перпеписыванию цитат из учебников, только пожалуйста покажите мне замкнутую систему. Вселенную ни кто еще вроде замкнутой системой назвать не решался. А про все остальноее я вообще даже говорить не буду.

Кстати о возвратной теореме Пуанкаре-Цермело Вы слышали?
Я хоть и не физик слышал краем уха.
Кстати когда сдавал в институте теорию информации ( ох и давно это было) на энтропии народ пачками валился.

http://www.voskres.ru/