ДИПЛОМНІ КУРСОВІ РЕФЕРАТИ


ИЦ OSVITA-PLAZA

Реферати статті публікації

Пошук по сайту

 

Пошук по сайту

Головна » Реферати та статті » Фізика » Теоретична фізика у 10 томах

Энтропия
Будем рассматривать замкнутую систему в течение времени,
большого по сравнению с ее временем релаксации; тем самым
подразумевается, что система находится в полном статистиче-
ском равновесии.
Проведем нижеследующие рассуждения сначала для кванто-
вой статистики. Разделив систему на большое число макроско-
пических частей (подсистем), будем рассматривать какую-либо
одну из них. Пусть wn есть функция распределения этой под-
системы; для упрощения формул будем пока опускать у wn (и
других величин) индекс, отличающий подсистемы. С помощью
функции wn можно, в частности, вычислить распределение ве-
роятностей для различных значений энергии Е подсистемы.
Мы видели, что wn может быть написано как функция толь-
ко от энергии wn = w(En). Для того чтобы получить вероят-
ность W(E)dE подсистеме иметь энергию в интервале между Е
и Е + dE, надо умножить w(E) на число квантовых состоя-
ний с энергиями, лежащими в этом интервале; мы пользуемся
здесь тем же представлением о «размазанном» энергетическом
спектре, которое было введено в конце предыдущего парагра-
фа. Обозначим через Т(Е) число квантовых состояний с энер-
гиями, меньшими и равными Е\ тогда интересующее нас чис-
ло состояний с энергией между Е и Е + dE можно написать
в виде
dE,
dE
а распределение вероятностей по энергии будет
W(E) = ^^(E). G.1)
Условие нормировки
/ W(E)dE =
означает геометрически, что площадь, заключенная под кривой
W = W(E), равна единице.
В соответствии с общими утверждениями, сделанными в § 1,
функция W(E) имеет чрезвычайно резкий максимум при Е = Е,
ЭНТРОПИЯ
41
будучи сколько-нибудь заметно отличной от нуля лишь в непо-
средственной близости от этой точки. Введем «ширину» АЕ
кривой W = W(E), определив ее как ширину прямоугольника,
высота которого равна значению функции W(E) в точке мак-
симума, а площадь равна единице:
W{E)AE = 1. G.2)
Принимая во внимание выражение G.1), можно переписать
это определение в виде
w(E)AT = 1, G.3)
где _
АГ = ^±АЕ G.4)
dE
есть число квантовых состояний, соответствующее интервалу
АЕ значений энергии. Об определенной таким образом вели-
чине АГ можно сказать, что она характеризует «степень разма-
занности» макроскопического состояния подсистемы по ее ми-
кроскопическим состояниям. Что же касается интервала АЕ,
то по порядку величины он совпадает со средней флуктуацией
энергии подсистемы.
Сделанные определения непосредственно переносятся в клас-
сическую статистику, но только вместо функции w(E) надо го-
ворить о классической функции распределения р, а вместо АГ —
об объеме участка фазового пространства, определяемом фор-
мулой
p(E)ApAq = 1. G.5)
Фазовый объем Ар Aq аналогично АГ характеризует размеры
той области фазового пространства, в которой данная подси-
стема проводит почти все время.
Не представляет труда установить связь между АГ и Ар Aq
при предельном переходе от квантовой теории к классической.
Как известно (см. III, §48), в квазиклассическом случае можно
установить определенное соответствие между объемом какой-
либо области фазового пространства и «приходящимся» на него
числом квантовых состояний; именно, можно сказать, что на
каждое квантовое состояние приходится в фазовом простран-
стве клетка с объемом {2nh)s (s — число степеней свободы си-
стемы). Поэтому ясно, что в квазиклассическом случае число
состояний АГ можно написать в виде
где 5 —число степеней свободы данной подсистемы. Эта формула
и устанавливает искомое соответствие между АГ и Ар Aq.
42
ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I
Величину АГ называют статистическим весом макроско-
пического состояния подсистемы, а ее логарифм
5 = 1пДГ G.7)
называют энтропией подсистемы. В классическом случае эн-
тропия определяется, соответственно, выражением
Определенная таким образом энтропия, как и самый статисти-
ческий вес, есть безразмерная величина. Поскольку число состо-
яний АГ во всяком случае не меньше единицы, то энтропия не
может быть отрицательной. Понятие энтропии—одно из важ-
нейших в статистике.
Уместно отметить, что если оставаться целиком на пози-
циях классической статистики, то никакого понятия о «числе
микроскопических состояний» вообще нельзя ввести, и мы бы-
ли бы принуждены определить статистический вес просто как
величину ApAq. Но эта величина, как и всякий объем фазового
пространства, имеет размерность произведения s импульсов и
стольких же координат, т. е. размерность s-й степени действия:
(эрг-с)8. Энтропия, определенная как ЫАр Aq, имела бы при
этом своеобразную размерность логарифма действия. Это зна-
чит, что при изменении единиц действия энтропия изменилась
бы на аддитивную постоянную: если изменить единицу дей-
ствия в а раз, то Ар Aq перейдет в as Ар Ag, a In Ар Ад—в
lnAp Aq + s In а. Поэтому в чисто классической статистике эн-
тропия представляет собой величину, определенную лишь с точ-
ностью до аддитивной постоянной, зависящей от выбора еди-
ниц. Однозначными величинами, не зависящими от выбора еди-
ниц, являются при этом лишь разности энтропии, т. е. изменения
энтропии при том или ином процессе.
С этим обстоятельством и связано появление квантовой по-
стоянной Н в определении G.8) энтропии для классической ста-
тистики. Лишь понятие о числе дискретных квантовых состо-
яний, неизбежно связанное с отличной от нуля квантовой по-
стоянной, позволяет ввести безразмерный статистический вес и
тем самым определить энтропию как вполне однозначную вели-
чину.
Напишем определение энтропии в другом виде, выразив ее
непосредственно через функцию распределения. Согласно F.4)
логарифм функции распределения подсистемы имеет вид
\nw(En) = a + f3En.
Ввиду линейности этого выражения по Еп, величина
In w(E) =а + /ЗЁ
ЭНТРОПИЯ
43
может быть написана и как среднее значение (Inw(En)). По-
этому энтропию S = 1пАГ = —lnw(E) (согласно G.3)) можно
написать в виде
S = -Qnw(En)), G.9)
т. е. можно определить энтропию как (взятое с обратным зна-
ком) среднее значение логарифма функции распределения под-
системы. По смыслу среднего значения имеем
S = -^2wnlnwn; G.10)
это выражение можно написать в общем операторном виде, не
зависящем от выбора системы волновых функций, с помощью
которых определяются элементы статистической матрицыг) :
S = -Sp(w\nw). G.11)
Аналогичным образом в классической статистике определе-
ние энтропии может быть написано в виде
S = -(Ы[BтгПУр\) = - f рЫ[BтгНУр] dpdq. G.12)
Вернемся теперь к замкнутой системе в целом, и пусть ,
АГ2,... —статистические веса ее различных подсистем. Если ка-
ждая из подсистем может находиться в одном из АГа кван-
товых состояний, то этому, очевидно, соответствует
= Г|ДГа G.13)
различных состояний системы в целом. Эта величина называется
статистическим весом, а ее логарифм — энтропией S замкнутой
системы. Ясно, что
S = J>a, G.14)
а
т. е. определенная таким образом энтропия является величиной
аддитивной: энтропия сложной системы равна сумме энтропии
ее частей.
Для ясного понимания способа определения энтропии важно
иметь в виду следующее обстоятельство. Энтропию замкнутой
1) Оператор In w в соответствии с общими правилами надо понимать как
оператор, собственные значения которого равны логарифмам собственных
значений оператора w, а собственные функции совпадают с собственными
функциями последнего.
44
ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I
системы (полную энергию которой обозначим как Eq), находя-
щейся в полном статистическом равновесии, можно определить
и непосредственно, не прибегая к разделению системы на подси-
стемы. Для этого представим себе, что рассматриваемая систе-
ма является в действительности лишь малой частью некоторой
воображаемой очень большой системы (о которой в этой свя-
зи говорят как о термостате). Термостат предполагается на-
ходящимся в полном равновесии, причем таком, чтобы средняя
энергия нашей системы (являющейся теперь незамкнутой под-
системой термостата) как раз совпадала с истинным значением
энергии Eq. Тогда можно формально приписать нашей систе-
ме функцию распределения того же вида, что и для всякой ее
подсистемы, и с помощью этого распределения определить ее
статистический вес АГ, а с ним и энтропию, непосредственно
по тем же формулам G.3)—G.12), которыми мы пользовались
для подсистем. Ясно, что наличие термостата вообще не ска-
зывается на статистических свойствах отдельных малых частей
(подсистем) нашей системы, которые и без того незамкнуты и
находятся в равновесии с остальными частями системы. Поэто-
му наличие термостата не изменит статистических весов АГа
этих частей, и определенный только что указанным способом
статистический вес будет совпадать с прежним определением в
виде произведения G.13).
До сих пор мы предполагали, что замкнутая система на-
ходится в полном статистическом равновесии. Теперь следу-
ет обобщить сделанные определения на системы, находящи-
еся в произвольных макроскопических состояниях (неполных
равновесиях).
Итак, предположим, что система находится в некотором не-
полном равновесии и будем рассматривать ее в течение про-
межутков времени At, малых по сравнению со временем ре-
лаксации полного равновесия. Тогда для определения энтропии
надо поступить следующим образом. Разделим мысленно си-
стему на части, настолько малые, что их собственные времена
релаксации оказались бы малыми по сравнению с промежут-
ками времени At (напомним, что времена релаксации, вообще
говоря, уменьшаются с уменьшением размеров системы). Та-
кие подсистемы можно считать находящимися в течение вре-
мени At в некоторых своих частных равновесиях, описываю-
щихся определенными функциями распределения. Поэтому к
ним можно применить прежнее определение статистических ве-
сов АГа и, таким образом, вычислить их энтропии Sa. Стати-
стический вес АГ всей системы определяется затем как про-
изведение G.13) и, соответственно, энтропия S — как сумма
энтропии Sa.
ЭНТРОПИЯ
45
Подчеркнем, однако, что энтропия неравновесной системы,
определенная таким образом как сумма энтропии ее частей
(удовлетворяющих поставленному выше условию), не может
быть теперь вычислена с помощью представления о термостате
без разделения системы на части. В то же время это определе-
ние вполне однозначно в том смысле, что дальнейшее разделе-
ние подсистем на еще более мелкие части не изменит значения
энтропии, поскольку каждая подсистема уже находится сама по
себе в своем «полном» равновесии.
Следует в особенности обратить внимание на роль времени в
определении энтропии. Энтропия есть величина, характеризую-
щая средние свойства тела за некоторый отличный от нуля про-
межуток времени At. Задав At, мы должны для определения S
мысленно разделить тело на части, настолько малые, чтобы их
собственные времена релаксации были малы по сравнению с At.
Поскольку в то же время эти части и сами должны быть макро-
скопическими, то ясно, что для слишком малых интервалов At
понятие энтропии вообще теряет смысл; в частности, нельзя го-
ворить о мгновенном ее значении.
Дав, таким образом, полное определение энтропии, обратим-
ся теперь к выяснению важнейших свойств и основного физиче-
ского смысла этой величины. Для этого надо привлечь микро-
каноническое распределение, согласно которому для описания
статистических свойств замкнутой системы можно пользовать-
ся функцией распределения вида F.6)
dw = const • S(E - Ео) Yl dva-
a
Здесь dTa можно понимать как дифференциал функции Га(Е),
представляющей собой число квантовых состояний подсистемы
с энергиями, меньшими или равными Еа; перепишем dw в виде
dw = const • 6(Е - Ео) И — dEa. G.15)
¦*-¦*¦ dEa
а
Статистический вес АГа по самому своему определению есть
функция от средней энергии Еа подсистемы; то же относится
ик5й = Sa(Ea). Будем теперь формально рассматривать АГа
и Sa как функции истинного значения энергии Еа (те же функ-
ции, которыми они в действительности являются от Еа). Тогда
мы можем заменить в G.15) производные dTa(Ea)/dEa отно-
шениями АГа/АЕа, где АГа — понимаемая в указанном смы-
сле функция от Еа, а АЕа — соответствующий АГа интервал
46 ОСНОВНЫЕ ПРИНЦИПЫ СТАТИСТИКИ ГЛ. I
значений энергии (тоже функция от Еа). Наконец, заменив АГа
на eSa^Ea\ получим
dw = const • 6(Е - E0)es П —, G.16)
АА АЕа
а
где S = ^2 Sa(Ea) — энтропия всей замкнутой системы, понима-
емая как функция точных значений энергий ее частей. Множи-
тель es, в экспоненте которого стоит аддитивная величина, есть
очень быстро меняющаяся функция энергий Еа. По сравнению
с этой функцией зависимость от энергий величины Y[ А?7а со-
вершенно несущественна, и поэтому с очень большой точностью
можно заменить G.16) выражением
dw = const • S(E - E0)es JJ dEa. G.17)
Ho dw, выраженное в виде, пропорциональном произведению
дифференциалов всех dEa, есть не что иное, как вероятность
всем подсистемам иметь энергии, лежащие в заданных интер-
валах между Еа и Еа + dEa. Таким образом, мы видим, что
эта вероятность определяется энтропией системы как функци-
ей энергий подсистем; множитель 5(Е — Eq) обеспечивает равен-
ство суммы Е = ^2 Еа заданному значению Eq энергии системы.
Это свойство энтропии, как мы увидим в дальнейшем, лежит в
основе ее статистических применений.
Мы знаем, что наиболее вероятными значениями энергий Еа
являются их средние значения Еа. Это значит, что функция
S(Ei,E2,...) должна иметь при Еа = Еа максимально возмож-
ное (при заданном значении суммы ^Еа = Eq) значение. Но Еа
есть как раз те значения энергий подсистем, которые соответ-
ствуют полному статистическому равновесию системы. Таким
образом, мы приходим к следующему важнейшему выводу: эн-
тропия замкнутой системы в состоянии полного статистического
равновесия имеет наибольшее возможное (при заданной энергии
системы) значение.
Наконец, укажем еще одно интересное истолкование функ-
ции S = S(E) — энтропии какой-либо подсистемы или замкну-
той системы (в последнем случае предполагается, что система
находится в полном равновесии, в результате чего ее энтропия
может быть выражена как функция от одной лишь ее полной
энергии). Статистический вес АГ = е ^Е' по самому своему
определению есть число уровней энергии, приходящихся на ин-
тервал АЕ, определенным образом характеризующий ширину
распределения вероятностей по энергии. Разделив АЕ на АГ,
ЗАКОН ВОЗРАСТАНИЯ ЭНТРОПИИ
47
мы получим среднее расстояние между соседними уровнями в
данном участке (участок вблизи значения Е) энергетического
спектра рассматриваемой системы. Обозначив это расстояние
как D(E), можем написать:
D(E) =AE-e~s(E\ G.18)
Таким образом, функция S(E) определяет густоту уровней
энергетического спектра макроскопической системы. Ввиду ад-
дитивности энтропии можно сказать, что средние расстояния
между уровнями макроскопического тела экспоненциально убы-
вают с увеличением его размеров (т.е. числа частиц в нем).

Ви переглядаєте статтю (реферат): «Энтропия» з дисципліни «Теоретична фізика у 10 томах»

Заказать диплом курсовую реферат
Реферати та публікації на інші теми: СТАНОВЛЕННЯ ЦЕНТРАЛЬНОГО БАНКУ В УКРАЇНІ
СТРУКТУРА ГРОШОВОГО РИНКУ
Модель оцінки дохідності капітальних активів (САРМ)
Факторинг
СУТНІСТЬ, ПРИЗНАЧЕННЯ ТА ВИДИ ФІНАНСОВОГО ПОСЕРЕДНИЦТВА


Категорія: Теоретична фізика у 10 томах | Додав: koljan (30.11.2013)
Переглядів: 800 | Рейтинг: 0.0/0
Всього коментарів: 0
Додавати коментарі можуть лише зареєстровані користувачі.
[ Реєстрація | Вхід ]

Онлайн замовлення

Заказать диплом курсовую реферат

Інші проекти




Діяльність здійснюється на основі свідоцтва про держреєстрацію ФОП