>Фриц, ты не забыл уже, что такое энтропия?
Помню, что там фигурирует логарифм от числа возможных состояний системы. Кажется так... Что-то похожее. Или логарифм вероятности нахождения системы в данном состоянии. А ведь когда-то умел доказывать эквивалентность разных определений...
>Фриц, расшифруй для меня, что ты написал? Бог с ним, с Кантом. Считай, что я в физике - ни бум-бум, что, кстати, недалеко от правды.
Вот смотри: с точки зрения информатики энтропия - мера беспорядка. Так вот: допустим, в замкнутой системе оказался некто разумный. И наводит там порядок. Навёл, и энтропия уменьшилась, верно? В замкнутой системе уменьшилась! То есть разумная деятельность способна уменьшать энтропию.
Беда в том, что не всегда легко подсчитать энтропию. Если газ в сосуде - то считается. Если память в компьютере - тоже нормально. А если человек... Допустим, все молекулы газа в комнате собрались в одной её половине. Можно посчитать, насколько уменьшилась энтропия по сравнению с полным беспорядком. А если люди собрались в одной половине? Как посчитать? Прираниваюсь ли я к 85кг. газа? Хочешь верь, хочешь нет - я встречал умных людей, профессиональных физиков, которые не могли ответить на этот вопрос (я его реально задавал). Были и такие, кто говорил: при подсчёте энтропии каждого человека надо приравнять к молекуле газа. Прикинь, насколько изменится результат.
Ну и ещё одну интересную вещь я написал: возникновение жизни и разума - это события весьма невероятные. А вот если есть естественный механизм уменьшения энтропии - то их появление закономерно. Естественным образом.
>Объясни мне, что такое энтропия в физике.
Ну, это даже котам известно :) Она определяется дифуром: dS=dE/T.