От Александр Т.
К Alex~1
Дата 20.09.2007 21:44:22
Рубрики Прочее; Интернет & общество;

Re: Физсмысл.

>>Что неясно то? Мы рассматриваем систему двух тел, горячего и холодного. От горячего ушла энергия, и вместе с ней энтропия. К холодному энергия и энтропия пришли. За счёт того, что Т разная, пришло энтропии больше, чем ушло. В целом в системе энтропия выросла. Проще же пареной репы.
>
>Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
>Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?

В рамках (равновесной) термодинамики энтропия вводится на основании второго начала термодинамики. Из невозможности вечного двигателя второго рода следует существование (определенного с точностью до аддитивной константы) термодинамического параметра, характеризующего термодинамическое состояние (замкнутой) равновесной (в термодинамическом смысле) системы. Этот параметр определяется так, что его размерность оказывается равной размерности теплоемкости (не удельной). Именно этот параметр и был назван энтропией.

В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом

S = - k ∫ ln(f) f dΓ,

где k - постоянная Больцмана, dΓ - элемент фазового объема (соответствующим образом переномированный для устранения парадокса Гиббса), а интегрирование производится по всему фазовому пространству системы. Это было сделано Гиббсом, и точнее следовало бы говорить, что вышевыписанное выражение было не найдено, а предложено (исходя из достаточно обоснованных предположений).

Понятие информационной энтропии было введено Шенноном позже. Для непрерывной случайной величины x с плотностью вероятности f(x) информационная энтропия имеет вид

S = - ∫ ln(f(x)) f(x) dx, ∫ f(x) dx = 1.

Естественно, что умножать ее на постоянную Больцмана было бы нелогично, так как определенная таким образом, она никак, вообще говоря, не связана с тепловыми явлениями (размерность постоянной Больцмана равна джоуль на кельвин).

Отмечу, что Фриц уже дал некоторые разъяснения по этому вопросу (см.
http://vif2ne.ru/vstrecha/forum/5/co/8228.htm ), с которыми я готов согласиться. Однако, я еще хочу сказать, что термодинамическое определение энтропии, которое он дал:

dS = dE/T,

где E - энергия, T - температура, я считаю неправильным и могущим ввести в заблуждение. Нужно писать

dS = δQ/T

и пояснять, что δQ - это количество тепла, переданное термодинамической системе при квазистатическом бесконечно малом изменении ее состояния, которое, будучи проинтегрировано по пути перехода из одного состояния в другое, зависит от этого пути, а вот δQ/T, будучи проинтегрирована по этому пути, от него не зависит, а определяется только начальным и конечным состояниями (т.е. S является функцией только состояния системы).

А для полного понимания нужно еще много чего рассказать. Например, что такое квазистатический процесс, что такое путь изменения состояния и т.п. Иначе говоря, нужно изложить почти весь курс равновесной термодинамики (останется лишь теория термодинамических потенциалов, но если все предыдущее изложено, то не излагать эту теорию неразумно). Перефразируя известное высказывание, можно сказать, что понятие энтропии было выработано достаточно долгим процессом познания и применения на практике явлений, изучаемых термодинамикой, и объяснить ее парой фраз и одной формулой в ASCII формате вряд ли возможно.

От Фриц
К Александр Т. (20.09.2007 21:44:22)
Дата 24.09.2007 21:48:54

А объяснили бы физсмысл. Хоть как-то, насколько это возможно.

>В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом
>S = - k ∫ ln(f) f dΓ,
Суть сводится к распределению f и области его определения, не так ли? Вот и объясните, что это за функция, и в каком она пространстве. Именно физсмысл.

От Александр Т.
К Фриц (24.09.2007 21:48:54)
Дата 25.09.2007 02:01:44

Re: А объяснили...

>>В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом
>>S = - k ∫ ln(f) f dΓ,
>Суть сводится к распределению f и области его определения, не так ли? Вот и объясните, что это за функция, и в каком она пространстве. Именно физсмысл.

Собрался было ответить про "физсмысл" вышевыписанного определения энтропии, как я его себе объясняю на пальцах. Но, прочитав вопрос (оформленный в виде просьбы) более внимательно, решил себя остановить. Дело в том, что на вопрос, что такое функция распределения и что является ее областью определения можно внятно ответить (т.е. ответить так, чтобы собеседнику стало понятно, а не для того, чтобы показать свои знания в этой области), лишь изложив изрядную часть курса статистической физики. Я изучал статистическую физику по лекциям, которые читали нам в университете и затем на более глубоком уровне по книге Зубарева. Довольно недавно (2002г.) вышло новое издание этой книги - Зубарев, Морозов, Репке "Статистическая механика неравновесных процессов". Ее можно скачать из библиотеки Колхоза (
http://lib.homelinux.org ). Если Вы действительно хотите разобраться с гиббсовским определением энтропии, то я рекомендую Вам эту книгу скачать и прочитать там первую главу (третий раздел этой главы полностью посвящен как раз понятию энтропии).

А формальный ответ на этот вопрос следующий. Область определения f - это фазовое пространство системы (я про это уже упоминал). Каждая точка этого пространства определена набором обобщенных координат и импульсов, определяющим состояние системы на микроуровне. Значение функции f для некоторой точки фазового пространства равно плотности вероятности нахождения системы в (микро)состоянии, соответствующем этой точке.

Если не знать, что такое обобщенные координаты и импульсы (динамической) системы, что такое плотность вероятности, то этот ответ вряд ли что либо прояснит. А чтобы объяснить, что такое обобщенные координаты и импульсы, нужно изложить суть гамильтонова формализма описания динамических систем, ну и так далее - изложение одного понятия вызывает необходимость использовать другое, которое, может быть, тоже нужно объяснять. В общем, нужно изложить весь курс. Вы предлагаете мне сделать это в одном сообщении?

От Фриц
К Александр Т. (25.09.2007 02:01:44)
Дата 25.09.2007 15:20:07

Искусство построения моделей.

>Вы предлагаете мне сделать это в одном сообщении?
Математику обычно можно применить для описания модели той или иной ситуации. Построение же модели - процесс весьма творческий и трудноформализуемый.
Модель должна содержать то, что относится к сути рассматриваемого вопроса, а от остального необходимо абстрагироваться.
В данном случае, когда требуется объяснить смысл вероятностной формулы энтропии, Вы не только можете, но и обязаны рассмотреть простейший случай - например, инертный газ. Пространство в данном случае - это координаты и скорости всех молекул. f - распределение вероятности координат и скоростей.
И физсмысл такой: чем жёстче мы ограничиваем возможные состояния системы - тем меньше энтропия.

А если систему усложнять - то и пространство, по которому нужно интегрировать, усложняется. Реально посчитать можно только простейшие системы, типа газа.
Если же система содержит идеальные элементы - то само понятие вероятности теряет смысл. Соответственно и энтропия систем, содержащих идеальное, вряд ли может рассматриваться.

От Александр Т.
К Фриц (25.09.2007 15:20:07)
Дата 25.09.2007 18:59:51

Так Вы, оказывается, сами все знаете. Зачем тогда спрашивать? (-)


От Alex~1
К Александр Т. (20.09.2007 21:44:22)
Дата 20.09.2007 22:20:33

Re: Физсмысл.

Спасибо!

В курсе термодинамики мне энтропия всегда была не совсем понятной штукой. Хотя смысл ясен (достаточно), но в деталях...

В общем, успокоился я на информационной энтропии - так все, слава богу, четко. :)