От Фриц
К Alex~1
Дата 14.09.2007 17:25:08
Рубрики Прочее; Интернет & общество;

Re: Признаться, информационную...

>1) сущность в физике не определяется "дифуром". Сущность имеет физический смысл.
Энтропия так определяется, дифуром. А смысл в том, что тепло от горячего передаётся холодному. Или, если хочешь, система от менее вероятного состояния переходит в более вероятное. Есть два тела с разной температурой. Если тепло передалось от горячего к холодному, энтропия системы двух тел выросла. И наоборот.
Если энтропия системы изменилась, то либо энергия пришла (ушла), либо произошёл некий процесс усреднения температуры, эквивалентный росту беспорядка.
>2) Во-вторых, в "дифуре" обычно фигурирует не Энергия (E), а теплота (Q).
>3) В третьих, энергия (и теплота) бывают разные. В варианте, известном и коту :) (т.е. приведенном тобой), написано, что прирост энтропии при изотермических процессах просто пропорционален приросту "энергии". Ну, и как это понимать? Чем в таком случае энтропия (кроме коэффициента) отличается от некоторой "энергии"?

От Alex~1
К Фриц (14.09.2007 17:25:08)
Дата 14.09.2007 18:08:51

Re: Признаться, информационную...

Фриц, я, в общем, знаю, что такое энтропия в термодинамическом смысле. Примерно и довольно смутно. Но я теперь сомневаюсь, что ты это знаешь лучше меня.

>Энтропия так определяется, дифуром.

Нет. Это не физический подход. Дифференциальное уравнение - всего-навсего математическая модель. Она лишена физического смысла, математика не опрерирует сущностями реального мира. Математике без разницы, что "означает" функция, дифференциал которой появляется в уравнении.

>А смысл в том, что тепло от горячего передаётся холодному. Или, если хочешь, система от менее вероятного состояния переходит в более вероятное.

Объясни мне (и себе), почему система "котел с водой 90 градусов в комнате с температурой 20" - система "менее вероятная", чем котел с 40 град. в комнате с 22 градусами".

>Есть два тела с разной температурой. Если тепло передалось от горячего к холодному, энтропия системы двух тел выросла.

Привяжи это к написанной тобой формуле и объясни, что там dE, что T.

>И наоборот.

Не понял. Что "наоборот"?

>Если энтропия системы изменилась, то либо энергия пришла (ушла), либо произошёл некий процесс усреднения температуры, эквивалентный росту беспорядка.

Если прошел процесс "усреднения температуры", то что ты понимаешь под T в твоей формуле?

>>3) В третьих, энергия (и теплота) бывают разные. В варианте, известном и коту :) (т.е. приведенном тобой), написано, что прирост энтропии при изотермических процессах просто пропорционален приросту "энергии". Ну, и как это понимать? Чем в таком случае энтропия (кроме коэффициента) отличается от некоторой "энергии"?

Вопрос остается.
Дифференциал - всего-навсего часть приращения функции, линейно зависящая от приращения аргумента. Другими словами, это, грубо выражаясь, дельта, изменение значения.
Ты написал формулу - замечу, для изотермического процесса, т.е. T там остается неизменной, и с математической точки зрения 1/T - банальный коэффициент.
Получается, что энтропия у тебя - то же самое (в определенном смысле), что "энергия". Какая энергия? Ты понимаешь вопрос? У тебя получается полная ерунда. Знак приращения энтропии, т.е. ее рост или уменьшение, в твоей интерпретации формулы зависит от трактовки этой самой dE. Если смотреть с "точки зрения" горячего тела, то "энергия" "ушла", и dS имеет один знак. Если смотреть с "точки зрения" холодного - то "энергия" "пришла", и dS будет иметь другой знак. Ты что, считаешь, что рост или уменьшение энтропии системы зависит от специфики толкования терминов "пришла" и "ушла" экспериментатором? :)


От Фриц
К Alex~1 (14.09.2007 18:08:51)
Дата 14.09.2007 22:11:33

Физсмысл.

>Фриц, я, в общем, знаю, что такое энтропия в термодинамическом смысле. Примерно и довольно смутно. Но я теперь сомневаюсь, что ты это знаешь лучше меня.
На пять знает Бог, на четыре - преподаватель... Я был обычным, средним физтехом. На термодинамике не специализировался.

>>Энтропия так определяется, дифуром.
>
>Нет. Это не физический подход. Дифференциальное уравнение - всего-навсего математическая модель. Она лишена физического смысла, математика не опрерирует сущностями реального мира. Математике без разницы, что "означает" функция, дифференциал которой появляется в уравнении.
Именно так работают современные физики. Есть поговорка: формулы умнее нас. Многие преподаватели только пишут формулы, а из слов - буквы называют. Дэ эс равно дэ е на тэ.
Я, впрочем, любитель понимать физсмысл (таких среди физиков, увы, меньшинство). Думаю, я в предыдущем сообщении раскрыл физсмысл, хотя и коротко.

>>А смысл в том, что тепло от горячего передаётся холодному. Или, если хочешь, система от менее вероятного состояния переходит в более вероятное.
>
>Объясни мне (и себе), почему система "котел с водой 90 градусов в комнате с температурой 20" - система "менее вероятная", чем котел с 40 град. в комнате с 22 градусами".
Это та самая связь вероятностного определения с термодинамическим. Суть примерно такая: допустим, есть только комната с газом (котёл с водой). Молекулы газа (воды) распределены по скоростям определённым образом. Кажется, это распределение хи-квадрат, но точно не помню. В любом случае, оно близко к нормальному, но, разумеется, не нормальное. А теперь мы, не меняя энергии газа (воды) предположим, что половина молекул ускорилась, а половина замедлилась. Распределение стало двугорбым. Разумеется, это весьма маловероятно.
Объясню попроще на таком примере: ты кидаешь 200 монет. У тебя выпадают 110 орлов и 90 решек - это весьма вероятно. А теперь ты кинул 100 монет, а потом ещё 100. И у тебя выпало первый раз 90 орлов, а второй раз 20. Общее количество орлов то же, но вероятность события - очень маленькая.
Понимаешь? Это невероятно, что столько быстрых молекул скопились в воде, а медленные оказались в газе.

>>Есть два тела с разной температурой. Если тепло передалось от горячего к холодному, энтропия системы двух тел выросла.
>
>Привяжи это к написанной тобой формуле и объясни, что там dE, что T.
Очень просто. dE для обеих частей одинаково с точностью до знака - сколько энергии ушло от горячего, столько и пришло к холодному. Но это dE мы делим в одном случае на большую температуру, в другом - на маленькую. Ушедшую энергию на большое число поделили, пришедшую - на маленькое. Получается, пришло энтропии больше, чем ушло. Энтропия системы двух тел выросла.
Ты видишь - энтропия связана с энергией. От неё можно избавиться, отдав её вместе с энергией. А получая энергию - получаешь и энтропию. А если идёт диссипация энергии, теплопередача, энтропия в сумме растёт.

>>И наоборот.
>
>Не понял. Что "наоборот"?
Если тепло пойдёт от холодного к горячему - энтропия уменьшится. Это из дифура, определяющего энтропию, видно.

>>Если энтропия системы изменилась, то либо энергия пришла (ушла), либо произошёл некий процесс усреднения температуры, эквивалентный росту беспорядка.
>
>Если прошел процесс "усреднения температуры", то что ты понимаешь под T в твоей формуле?
Понятно, что если идёт теплопередача - то есть два тела - горячее и холодное. У каждого своя температура.

>>>3) В третьих, энергия (и теплота) бывают разные. В варианте, известном и коту :) (т.е. приведенном тобой), написано, что прирост энтропии при изотермических процессах просто пропорционален приросту "энергии". Ну, и как это понимать? Чем в таком случае энтропия (кроме коэффициента) отличается от некоторой "энергии"?
>
>Вопрос остается.
>Дифференциал - всего-навсего часть приращения функции, линейно зависящая от приращения аргумента. Другими словами, это, грубо выражаясь, дельта, изменение значения.
>Ты написал формулу - замечу, для изотермического процесса, т.е. T там остается неизменной, и с математической точки зрения 1/T - банальный коэффициент.
>Получается, что энтропия у тебя - то же самое (в определенном смысле), что "энергия". Какая энергия? Ты понимаешь вопрос? У тебя получается полная ерунда. Знак приращения энтропии, т.е. ее рост или уменьшение, в твоей интерпретации формулы зависит от трактовки этой самой dE. Если смотреть с "точки зрения" горячего тела, то "энергия" "ушла", и dS имеет один знак. Если смотреть с "точки зрения" холодного - то "энергия" "пришла", и dS будет иметь другой знак. Ты что, считаешь, что рост или уменьшение энтропии системы зависит от специфики толкования терминов "пришла" и "ушла" экспериментатором? :)
Что неясно то? Мы рассматриваем систему двух тел, горячего и холодного. От горячего ушла энергия, и вместе с ней энтропия. К холодному энергия и энтропия пришли. За счёт того, что Т разная, пришло энтропии больше, чем ушло. В целом в системе энтропия выросла. Проще же пареной репы.

От Alex~1
К Фриц (14.09.2007 22:11:33)
Дата 15.09.2007 12:46:10

Re: Физсмысл.

>Что неясно то? Мы рассматриваем систему двух тел, горячего и холодного. От горячего ушла энергия, и вместе с ней энтропия. К холодному энергия и энтропия пришли. За счёт того, что Т разная, пришло энтропии больше, чем ушло. В целом в системе энтропия выросла. Проще же пареной репы.

Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?

От Александр Т.
К Alex~1 (15.09.2007 12:46:10)
Дата 20.09.2007 21:44:22

Re: Физсмысл.

>>Что неясно то? Мы рассматриваем систему двух тел, горячего и холодного. От горячего ушла энергия, и вместе с ней энтропия. К холодному энергия и энтропия пришли. За счёт того, что Т разная, пришло энтропии больше, чем ушло. В целом в системе энтропия выросла. Проще же пареной репы.
>
>Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
>Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?

В рамках (равновесной) термодинамики энтропия вводится на основании второго начала термодинамики. Из невозможности вечного двигателя второго рода следует существование (определенного с точностью до аддитивной константы) термодинамического параметра, характеризующего термодинамическое состояние (замкнутой) равновесной (в термодинамическом смысле) системы. Этот параметр определяется так, что его размерность оказывается равной размерности теплоемкости (не удельной). Именно этот параметр и был назван энтропией.

В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом

S = - k ∫ ln(f) f dΓ,

где k - постоянная Больцмана, dΓ - элемент фазового объема (соответствующим образом переномированный для устранения парадокса Гиббса), а интегрирование производится по всему фазовому пространству системы. Это было сделано Гиббсом, и точнее следовало бы говорить, что вышевыписанное выражение было не найдено, а предложено (исходя из достаточно обоснованных предположений).

Понятие информационной энтропии было введено Шенноном позже. Для непрерывной случайной величины x с плотностью вероятности f(x) информационная энтропия имеет вид

S = - ∫ ln(f(x)) f(x) dx, ∫ f(x) dx = 1.

Естественно, что умножать ее на постоянную Больцмана было бы нелогично, так как определенная таким образом, она никак, вообще говоря, не связана с тепловыми явлениями (размерность постоянной Больцмана равна джоуль на кельвин).

Отмечу, что Фриц уже дал некоторые разъяснения по этому вопросу (см.
http://vif2ne.ru/vstrecha/forum/5/co/8228.htm ), с которыми я готов согласиться. Однако, я еще хочу сказать, что термодинамическое определение энтропии, которое он дал:

dS = dE/T,

где E - энергия, T - температура, я считаю неправильным и могущим ввести в заблуждение. Нужно писать

dS = δQ/T

и пояснять, что δQ - это количество тепла, переданное термодинамической системе при квазистатическом бесконечно малом изменении ее состояния, которое, будучи проинтегрировано по пути перехода из одного состояния в другое, зависит от этого пути, а вот δQ/T, будучи проинтегрирована по этому пути, от него не зависит, а определяется только начальным и конечным состояниями (т.е. S является функцией только состояния системы).

А для полного понимания нужно еще много чего рассказать. Например, что такое квазистатический процесс, что такое путь изменения состояния и т.п. Иначе говоря, нужно изложить почти весь курс равновесной термодинамики (останется лишь теория термодинамических потенциалов, но если все предыдущее изложено, то не излагать эту теорию неразумно). Перефразируя известное высказывание, можно сказать, что понятие энтропии было выработано достаточно долгим процессом познания и применения на практике явлений, изучаемых термодинамикой, и объяснить ее парой фраз и одной формулой в ASCII формате вряд ли возможно.

От Фриц
К Александр Т. (20.09.2007 21:44:22)
Дата 24.09.2007 21:48:54

А объяснили бы физсмысл. Хоть как-то, насколько это возможно.

>В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом
>S = - k ∫ ln(f) f dΓ,
Суть сводится к распределению f и области его определения, не так ли? Вот и объясните, что это за функция, и в каком она пространстве. Именно физсмысл.

От Александр Т.
К Фриц (24.09.2007 21:48:54)
Дата 25.09.2007 02:01:44

Re: А объяснили...

>>В рамках статистической физики было найдено, что энтропия выражается через функцию распределения системы f (нормированную на единицу) следующим образом
>>S = - k ∫ ln(f) f dΓ,
>Суть сводится к распределению f и области его определения, не так ли? Вот и объясните, что это за функция, и в каком она пространстве. Именно физсмысл.

Собрался было ответить про "физсмысл" вышевыписанного определения энтропии, как я его себе объясняю на пальцах. Но, прочитав вопрос (оформленный в виде просьбы) более внимательно, решил себя остановить. Дело в том, что на вопрос, что такое функция распределения и что является ее областью определения можно внятно ответить (т.е. ответить так, чтобы собеседнику стало понятно, а не для того, чтобы показать свои знания в этой области), лишь изложив изрядную часть курса статистической физики. Я изучал статистическую физику по лекциям, которые читали нам в университете и затем на более глубоком уровне по книге Зубарева. Довольно недавно (2002г.) вышло новое издание этой книги - Зубарев, Морозов, Репке "Статистическая механика неравновесных процессов". Ее можно скачать из библиотеки Колхоза (
http://lib.homelinux.org ). Если Вы действительно хотите разобраться с гиббсовским определением энтропии, то я рекомендую Вам эту книгу скачать и прочитать там первую главу (третий раздел этой главы полностью посвящен как раз понятию энтропии).

А формальный ответ на этот вопрос следующий. Область определения f - это фазовое пространство системы (я про это уже упоминал). Каждая точка этого пространства определена набором обобщенных координат и импульсов, определяющим состояние системы на микроуровне. Значение функции f для некоторой точки фазового пространства равно плотности вероятности нахождения системы в (микро)состоянии, соответствующем этой точке.

Если не знать, что такое обобщенные координаты и импульсы (динамической) системы, что такое плотность вероятности, то этот ответ вряд ли что либо прояснит. А чтобы объяснить, что такое обобщенные координаты и импульсы, нужно изложить суть гамильтонова формализма описания динамических систем, ну и так далее - изложение одного понятия вызывает необходимость использовать другое, которое, может быть, тоже нужно объяснять. В общем, нужно изложить весь курс. Вы предлагаете мне сделать это в одном сообщении?

От Фриц
К Александр Т. (25.09.2007 02:01:44)
Дата 25.09.2007 15:20:07

Искусство построения моделей.

>Вы предлагаете мне сделать это в одном сообщении?
Математику обычно можно применить для описания модели той или иной ситуации. Построение же модели - процесс весьма творческий и трудноформализуемый.
Модель должна содержать то, что относится к сути рассматриваемого вопроса, а от остального необходимо абстрагироваться.
В данном случае, когда требуется объяснить смысл вероятностной формулы энтропии, Вы не только можете, но и обязаны рассмотреть простейший случай - например, инертный газ. Пространство в данном случае - это координаты и скорости всех молекул. f - распределение вероятности координат и скоростей.
И физсмысл такой: чем жёстче мы ограничиваем возможные состояния системы - тем меньше энтропия.

А если систему усложнять - то и пространство, по которому нужно интегрировать, усложняется. Реально посчитать можно только простейшие системы, типа газа.
Если же система содержит идеальные элементы - то само понятие вероятности теряет смысл. Соответственно и энтропия систем, содержащих идеальное, вряд ли может рассматриваться.

От Александр Т.
К Фриц (25.09.2007 15:20:07)
Дата 25.09.2007 18:59:51

Так Вы, оказывается, сами все знаете. Зачем тогда спрашивать? (-)


От Alex~1
К Александр Т. (20.09.2007 21:44:22)
Дата 20.09.2007 22:20:33

Re: Физсмысл.

Спасибо!

В курсе термодинамики мне энтропия всегда была не совсем понятной штукой. Хотя смысл ясен (достаточно), но в деталях...

В общем, успокоился я на информационной энтропии - так все, слава богу, четко. :)


От Фриц
К Alex~1 (15.09.2007 12:46:10)
Дата 15.09.2007 14:48:43

Температура - мера энергии.

>Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
>Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?
Её традиционно мерят в градусах, это удобно. Но почему бы не мерить её как тепловую энергию некого количества вещества? Например, моля. Это почти как калория, только нагревание не на градус предусматривается, а от абсолютного нуля до данной температуры.

От Вячеслав
К Alex~1 (15.09.2007 12:46:10)
Дата 15.09.2007 14:07:38

Но ведь действительно же проще:)

Я как-то использовал для объяснения термодинамики военную аналогию, где Е — сумарная индивидуальная боеспособность солдат, Т — боеспособность соединения, 1/S — обобщенная характеристика командной организации соединения.

> Не проще. :) Вот, пожалуйста, ближе к физическому смыслу.
> Ты берешь энергию (теплоту), которая в Джоулях (или калориях, неважно), делишь на температуру (в градусах) и получаешь безразмерную энтропию. Как это понимать с точки зрения физики?
Соответственно боеспособность соединения равна суммарной индивидуальной подготовке помноженной на организацию. А в Вашем случаи суммарная индивидуальная подготовка деленная на боеспособность соединения и дает нам величину дезорганизации соединения. Т.е. если у нас все бойцы почти как джедаи, а боеспособность стремится к нулю, то у нас не соединение, а просто толпа.
С т.з. физики же мы получаем отношение «суммарной способности элементов системы совершать работу» к «обобщенной способности совершать работу системы в целом», а в результате получаем безразмерный коэффициент характеризующий «взаимопогашение» работы в системе. Т.с. "кооперативный эффект".;)

От Кактус
К Фриц (14.09.2007 22:11:33)
Дата 15.09.2007 11:47:46

Re: Физсмысл.

Здравствуйте,

Прошу прощения что вмешиваюсь в ваш высоконаучный спор. (Фриц, в физике оказывается хаос такой же как в общественных науках. :)))) Кто заявлял что философия не наука?) Физику учил в школе, но помню, что в данном случае дифференциал выражает ускорение с которым происходит выравнивание температуры. Поэтому система «котел в комнате» в состоянии 90 на 20 будет находиться меньший период времени, чем в состоянии 40 на 22, т.е. она менее вероятна.

При энтропии выделение энергии происходит при снижении уровня организации системы. Высвобождается энергия которая ранее была потрачена на образование связей. Котел с горячей водой в холодной комнате дает пример рассеяния (диссипации) энергии – частного случая энтропии.

С уважением Сергей