Будем рассматривать замкнутую систему в течение времени, большого по сравнению с ее временем релаксации; тем самым подразумевается, что система находится в полном статистиче- ском равновесии. Проведем нижеследующие рассуждения сначала для кванто- вой статистики. Разделив систему на большое число макроско- пических частей (подсистем), будем рассматривать какую-либо одну из них. Пусть wn есть функция распределения этой под- системы; для упрощения формул будем пока опускать у wn (и других величин) индекс, отличающий подсистемы. С помощью функции wn можно, в частности, вычислить распределение ве- роятностей для различных значений энергии Е подсистемы. Мы видели, что wn может быть написано как функция толь- ко от энергии wn = w(En). Для того чтобы получить вероят- ность W(E)dE подсистеме иметь энергию в интервале между Е и Е + dE, надо умножить w(E) на число квантовых состоя- ний с энергиями, лежащими в этом интервале; мы пользуемся здесь тем же представлением о «размазанном» энергетическом спектре, которое было введено в конце предыдущего парагра- фа. Обозначим через Т(Е) число квантовых состояний с энер- гиями, меньшими и равными Е\ тогда интересующее нас чис- ло состояний с энергией между Е и Е + dE можно написать в виде dE, dE а распределение вероятностей по энергии будет W(E) = ^^(E). G.1) Условие нормировки / W(E)dE = означает геометрически, что площадь, заключенная под кривой W = W(E), равна единице. В соответствии с общими утверждениями, сделанными в § 1, функция W(E) имеет чрезвычайно резкий максимум при Е = Е, ЭНТРОПИЯ 41 будучи сколько-нибудь заметно отличной от нуля лишь в непо- средственной близости от этой точки. Введем «ширину» АЕ кривой W = W(E), определив ее как ширину прямоугольника, высота которого равна значению функции W(E) в точке мак- симума, а площадь равна единице: W{E)AE = 1. G.2) Принимая во внимание выражение G.1), можно переписать это определение в виде w(E)AT = 1, G.3) где _ АГ = ^±АЕ G.4) dE есть число квантовых состояний, соответствующее интервалу АЕ значений энергии. Об определенной таким образом вели- чине АГ можно сказать, что она характеризует «степень разма- занности» макроскопического состояния подсистемы по ее ми- кроскопическим состояниям. Что же касается интервала АЕ, то по порядку величины он совпадает со средней флуктуацией энергии подсистемы. Сделанные определения непосредственно переносятся в клас- сическую статистику, но только вместо функции w(E) надо го- ворить о классической функции распределения р, а вместо АГ — об объеме участка фазового пространства, определяемом фор- мулой p(E)ApAq = 1. G.5) Фазовый объем Ар Aq аналогично АГ характеризует размеры той области фазового пространства, в которой данная подси- стема проводит почти все время. Не представляет труда установить связь между АГ и Ар Aq при предельном переходе от квантовой теории к классической. Как известно (см. III, §48), в квазиклассическом случае можно установить определенное соответствие между объемом какой- либо области фазового пространства и «приходящимся» на него числом квантовых состояний; именно, можно сказать, что на каждое квантовое состояние приходится в фазовом простран- стве клетка с объемом {2nh)s (s — число степеней свободы си- стемы). Поэтому ясно, что в квазиклассическом случае число состояний АГ можно написать в виде где 5 —число степеней свободы данной подсистемы. Эта формула и устанавливает искомое соответствие между АГ и Ар Aq. 42 ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I Величину АГ называют статистическим весом макроско- пического состояния подсистемы, а ее логарифм 5 = 1пДГ G.7) называют энтропией подсистемы. В классическом случае эн- тропия определяется, соответственно, выражением Определенная таким образом энтропия, как и самый статисти- ческий вес, есть безразмерная величина. Поскольку число состо- яний АГ во всяком случае не меньше единицы, то энтропия не может быть отрицательной. Понятие энтропии—одно из важ- нейших в статистике. Уместно отметить, что если оставаться целиком на пози- циях классической статистики, то никакого понятия о «числе микроскопических состояний» вообще нельзя ввести, и мы бы- ли бы принуждены определить статистический вес просто как величину ApAq. Но эта величина, как и всякий объем фазового пространства, имеет размерность произведения s импульсов и стольких же координат, т. е. размерность s-й степени действия: (эрг-с)8. Энтропия, определенная как ЫАр Aq, имела бы при этом своеобразную размерность логарифма действия. Это зна- чит, что при изменении единиц действия энтропия изменилась бы на аддитивную постоянную: если изменить единицу дей- ствия в а раз, то Ар Aq перейдет в as Ар Ag, a In Ар Ад—в lnAp Aq + s In а. Поэтому в чисто классической статистике эн- тропия представляет собой величину, определенную лишь с точ- ностью до аддитивной постоянной, зависящей от выбора еди- ниц. Однозначными величинами, не зависящими от выбора еди- ниц, являются при этом лишь разности энтропии, т. е. изменения энтропии при том или ином процессе. С этим обстоятельством и связано появление квантовой по- стоянной Н в определении G.8) энтропии для классической ста- тистики. Лишь понятие о числе дискретных квантовых состо- яний, неизбежно связанное с отличной от нуля квантовой по- стоянной, позволяет ввести безразмерный статистический вес и тем самым определить энтропию как вполне однозначную вели- чину. Напишем определение энтропии в другом виде, выразив ее непосредственно через функцию распределения. Согласно F.4) логарифм функции распределения подсистемы имеет вид \nw(En) = a + f3En. Ввиду линейности этого выражения по Еп, величина In w(E) =а + /ЗЁ ЭНТРОПИЯ 43 может быть написана и как среднее значение (Inw(En)). По- этому энтропию S = 1пАГ = —lnw(E) (согласно G.3)) можно написать в виде S = -Qnw(En)), G.9) т. е. можно определить энтропию как (взятое с обратным зна- ком) среднее значение логарифма функции распределения под- системы. По смыслу среднего значения имеем S = -^2wnlnwn; G.10) это выражение можно написать в общем операторном виде, не зависящем от выбора системы волновых функций, с помощью которых определяются элементы статистической матрицыг) : S = -Sp(w\nw). G.11) Аналогичным образом в классической статистике определе- ние энтропии может быть написано в виде S = -(Ы[BтгПУр\) = - f рЫ[BтгНУр] dpdq. G.12) Вернемся теперь к замкнутой системе в целом, и пусть , АГ2,... —статистические веса ее различных подсистем. Если ка- ждая из подсистем может находиться в одном из АГа кван- товых состояний, то этому, очевидно, соответствует = Г|ДГа G.13) различных состояний системы в целом. Эта величина называется статистическим весом, а ее логарифм — энтропией S замкнутой системы. Ясно, что S = J>a, G.14) а т. е. определенная таким образом энтропия является величиной аддитивной: энтропия сложной системы равна сумме энтропии ее частей. Для ясного понимания способа определения энтропии важно иметь в виду следующее обстоятельство. Энтропию замкнутой 1) Оператор In w в соответствии с общими правилами надо понимать как оператор, собственные значения которого равны логарифмам собственных значений оператора w, а собственные функции совпадают с собственными функциями последнего. 44 ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I системы (полную энергию которой обозначим как Eq), находя- щейся в полном статистическом равновесии, можно определить и непосредственно, не прибегая к разделению системы на подси- стемы. Для этого представим себе, что рассматриваемая систе- ма является в действительности лишь малой частью некоторой воображаемой очень большой системы (о которой в этой свя- зи говорят как о термостате). Термостат предполагается на- ходящимся в полном равновесии, причем таком, чтобы средняя энергия нашей системы (являющейся теперь незамкнутой под- системой термостата) как раз совпадала с истинным значением энергии Eq. Тогда можно формально приписать нашей систе- ме функцию распределения того же вида, что и для всякой ее подсистемы, и с помощью этого распределения определить ее статистический вес АГ, а с ним и энтропию, непосредственно по тем же формулам G.3)—G.12), которыми мы пользовались для подсистем. Ясно, что наличие термостата вообще не ска- зывается на статистических свойствах отдельных малых частей (подсистем) нашей системы, которые и без того незамкнуты и находятся в равновесии с остальными частями системы. Поэто- му наличие термостата не изменит статистических весов АГа этих частей, и определенный только что указанным способом статистический вес будет совпадать с прежним определением в виде произведения G.13). До сих пор мы предполагали, что замкнутая система на- ходится в полном статистическом равновесии. Теперь следу- ет обобщить сделанные определения на системы, находящи- еся в произвольных макроскопических состояниях (неполных равновесиях). Итак, предположим, что система находится в некотором не- полном равновесии и будем рассматривать ее в течение про- межутков времени At, малых по сравнению со временем ре- лаксации полного равновесия. Тогда для определения энтропии надо поступить следующим образом. Разделим мысленно си- стему на части, настолько малые, что их собственные времена релаксации оказались бы малыми по сравнению с промежут- ками времени At (напомним, что времена релаксации, вообще говоря, уменьшаются с уменьшением размеров системы). Та- кие подсистемы можно считать находящимися в течение вре- мени At в некоторых своих частных равновесиях, описываю- щихся определенными функциями распределения. Поэтому к ним можно применить прежнее определение статистических ве- сов АГа и, таким образом, вычислить их энтропии Sa. Стати- стический вес АГ всей системы определяется затем как про- изведение G.13) и, соответственно, энтропия S — как сумма энтропии Sa. ЭНТРОПИЯ 45 Подчеркнем, однако, что энтропия неравновесной системы, определенная таким образом как сумма энтропии ее частей (удовлетворяющих поставленному выше условию), не может быть теперь вычислена с помощью представления о термостате без разделения системы на части. В то же время это определе- ние вполне однозначно в том смысле, что дальнейшее разделе- ние подсистем на еще более мелкие части не изменит значения энтропии, поскольку каждая подсистема уже находится сама по себе в своем «полном» равновесии. Следует в особенности обратить внимание на роль времени в определении энтропии. Энтропия есть величина, характеризую- щая средние свойства тела за некоторый отличный от нуля про- межуток времени At. Задав At, мы должны для определения S мысленно разделить тело на части, настолько малые, чтобы их собственные времена релаксации были малы по сравнению с At. Поскольку в то же время эти части и сами должны быть макро- скопическими, то ясно, что для слишком малых интервалов At понятие энтропии вообще теряет смысл; в частности, нельзя го- ворить о мгновенном ее значении. Дав, таким образом, полное определение энтропии, обратим- ся теперь к выяснению важнейших свойств и основного физиче- ского смысла этой величины. Для этого надо привлечь микро- каноническое распределение, согласно которому для описания статистических свойств замкнутой системы можно пользовать- ся функцией распределения вида F.6) dw = const • S(E - Ео) Yl dva- a Здесь dTa можно понимать как дифференциал функции Га(Е), представляющей собой число квантовых состояний подсистемы с энергиями, меньшими или равными Еа; перепишем dw в виде dw = const • 6(Е - Ео) И — dEa. G.15) ¦*-¦*¦ dEa а Статистический вес АГа по самому своему определению есть функция от средней энергии Еа подсистемы; то же относится ик5й = Sa(Ea). Будем теперь формально рассматривать АГа и Sa как функции истинного значения энергии Еа (те же функ- ции, которыми они в действительности являются от Еа). Тогда мы можем заменить в G.15) производные dTa(Ea)/dEa отно- шениями АГа/АЕа, где АГа — понимаемая в указанном смы- сле функция от Еа, а АЕа — соответствующий АГа интервал 46 ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I значений энергии (тоже функция от Еа). Наконец, заменив АГа на eSa^Ea\ получим dw = const • 6(Е - E0)es П —, G.16) АА АЕа а где S = ^2 Sa(Ea) — энтропия всей замкнутой системы, понима- емая как функция точных значений энергий ее частей. Множи- тель es, в экспоненте которого стоит аддитивная величина, есть очень быстро меняющаяся функция энергий Еа. По сравнению с этой функцией зависимость от энергий величины Y[ А?7а со- вершенно несущественна, и поэтому с очень большой точностью можно заменить G.16) выражением dw = const • S(E - E0)es JJ dEa. G.17) Ho dw, выраженное в виде, пропорциональном произведению дифференциалов всех dEa, есть не что иное, как вероятность всем подсистемам иметь энергии, лежащие в заданных интер- валах между Еа и Еа + dEa. Таким образом, мы видим, что эта вероятность определяется энтропией системы как функци- ей энергий подсистем; множитель 5(Е — Eq) обеспечивает равен- ство суммы Е = ^2 Еа заданному значению Eq энергии системы. Это свойство энтропии, как мы увидим в дальнейшем, лежит в основе ее статистических применений. Мы знаем, что наиболее вероятными значениями энергий Еа являются их средние значения Еа. Это значит, что функция S(Ei,E2,...) должна иметь при Еа = Еа максимально возмож- ное (при заданном значении суммы ^Еа = Eq) значение. Но Еа есть как раз те значения энергий подсистем, которые соответ- ствуют полному статистическому равновесию системы. Таким образом, мы приходим к следующему важнейшему выводу: эн- тропия замкнутой системы в состоянии полного статистического равновесия имеет наибольшее возможное (при заданной энергии системы) значение. Наконец, укажем еще одно интересное истолкование функ- ции S = S(E) — энтропии какой-либо подсистемы или замкну- той системы (в последнем случае предполагается, что система находится в полном равновесии, в результате чего ее энтропия может быть выражена как функция от одной лишь ее полной энергии). Статистический вес АГ = е ^Е' по самому своему определению есть число уровней энергии, приходящихся на ин- тервал АЕ, определенным образом характеризующий ширину распределения вероятностей по энергии. Разделив АЕ на АГ, ЗАКОН ВОЗРАСТАНИЯ ЭНТРОПИИ 47 мы получим среднее расстояние между соседними уровнями в данном участке (участок вблизи значения Е) энергетического спектра рассматриваемой системы. Обозначив это расстояние как D(E), можем написать: D(E) =AE-e~s(E\ G.18) Таким образом, функция S(E) определяет густоту уровней энергетического спектра макроскопической системы. Ввиду ад- дитивности энтропии можно сказать, что средние расстояния между уровнями макроскопического тела экспоненциально убы- вают с увеличением его размеров (т.е. числа частиц в нем).
Ви переглядаєте статтю (реферат): «Энтропия» з дисципліни «Теоретична фізика у 10 томах»