От Александр Т. Ответить на сообщение
К Alex~1
Дата 20.09.2007 21:44:22 Найти в дереве
Рубрики Прочее; Интернет & общество; Версия для печати

Re: Физсмысл.

>>Что неясно то? Мы рассматриваем систему двух тел, горячего и холодного. От горячего ушла энергия, и вместе с ней энтропия. К холодному энергия и энтропия пришли. За счёт того, что Т разная, пришло энтропии больше, чем ушло. В целом в системе энтропия выросла. Проще же пареной репы.
>
>Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
>Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?

В рамках (равновесной) термодинамики энтропия вводится на основании второго начала термодинамики. Из невозможности вечного двигателя второго рода следует существование (определенного с точностью до аддитивной константы) термодинамического параметра, характеризующего термодинамическое состояние (замкнутой) равновесной (в термодинамическом смысле) системы. Этот параметр определяется так, что его размерность оказывается равной размерности теплоемкости (не удельной). Именно этот параметр и был назван энтропией.

В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом

S = - k ∫ ln(f) f dΓ,

где k - постоянная Больцмана, dΓ - элемент фазового объема (соответствующим образом переномированный для устранения парадокса Гиббса), а интегрирование производится по всему фазовому пространству системы. Это было сделано Гиббсом, и точнее следовало бы говорить, что вышевыписанное выражение было не найдено, а предложено (исходя из достаточно обоснованных предположений).

Понятие информационной энтропии было введено Шенноном позже. Для непрерывной случайной величины x с плотностью вероятности f(x) информационная энтропия имеет вид

S = - ∫ ln(f(x)) f(x) dx, ∫ f(x) dx = 1.

Естественно, что умножать ее на постоянную Больцмана было бы нелогично, так как определенная таким образом, она никак, вообще говоря, не связана с тепловыми явлениями (размерность постоянной Больцмана равна джоуль на кельвин).

Отмечу, что Фриц уже дал некоторые разъяснения по этому вопросу (см. http://vif2ne.ru/vstrecha/forum/5/co/8228.htm ), с которыми я готов согласиться. Однако, я еще хочу сказать, что термодинамическое определение энтропии, которое он дал:

dS = dE/T,

где E - энергия, T - температура, я считаю неправильным и могущим ввести в заблуждение. Нужно писать

dS = δQ/T

и пояснять, что δQ - это количество тепла, переданное термодинамической системе при квазистатическом бесконечно малом изменении ее состояния, которое, будучи проинтегрировано по пути перехода из одного состояния в другое, зависит от этого пути, а вот δQ/T, будучи проинтегрирована по этому пути, от него не зависит, а определяется только начальным и конечным состояниями (т.е. S является функцией только состояния системы).

А для полного понимания нужно еще много чего рассказать. Например, что такое квазистатический процесс, что такое путь изменения состояния и т.п. Иначе говоря, нужно изложить почти весь курс равновесной термодинамики (останется лишь теория термодинамических потенциалов, но если все предыдущее изложено, то не излагать эту теорию неразумно). Перефразируя известное высказывание, можно сказать, что понятие энтропии было выработано достаточно долгим процессом познания и применения на практике явлений, изучаемых термодинамикой, и объяснить ее парой фраз и одной формулой в ASCII формате вряд ли возможно.