Что такое энтропия. Энтропия? Это просто! Энтропия изолированной системы не может уменьшаться



Добавить свою цену в базу

Комментарий

Энтропия (от др.-греч. ἐντροπία «поворот», «превращение») – широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.

В науку это понятие вошло ещё в XIX веке. Изначально оно было применимо к теории тепловых машин, но достаточно быстро появилось и в остальных областях физики, особенно, в теории излучения. Очень скоро энтропия стала применяться в космологии, биологии, в теории информации. Различные области знаний выделяют разные виды меры хаоса:

  • информационная;
  • термодинамическая;
  • дифференциальная;
  • культурная и др.

Например, для молекулярных систем существует энтропия Больцмана, определяющая меру их хаотичности и однородности. Больцман сумел установить взаимосвязь между мерой хаоса и вероятностью состояния. Для термодинамики данное понятие считается мерой необратимого рассеяния энергии. Это функция состояния термодинамической системы. В обособленной системе энтропия растёт до максимальных значений, и они в итоге становятся состоянием равновесия. Энтропия информационная подразумевает некоторую меру неопределённости или непредсказуемости.

Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.

Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса), где – подведенная теплота, – температура, и – состояния, и – энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния в состояние).

Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса, где – подведенная теплота, – температура, и – состояния, и – энтропия, соответствующая этим состояниям.

Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать.

Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).

Абсолютная энтропия (S) вещества или процесса – это изменение доступной энергии при теплопередаче при данной температуре (Btu/R, Дж/К). Математически энтропия равняется теплопередаче, деленной на абсолютную температуру, при которой происходит процесс. Следовательно, процессы передачи большого количества теплоты больше увеличивают энтропию. Также изменения энтропии увеличатся при передаче теплоты при низкой температуре. Так как абсолютная энтропия касается пригодности всей энергии вселенной, температуру обычно измеряют в абсолютных единицах (R, К).

Удельную энтропию (S) измеряют относительно единицы массы вещества. Температурные единицы, которые используются при вычислении разниц энтропии состояний, часто приводятся с температурными единицами в градусах по Фаренгейту или Цельсию. Так как различия в градусах между шкалами Фаренгейта и Ренкина или Цельсия и Кельвина равные, решение в таких уравнениях будет правильным независимо от того, выражена энтропия в абсолютных или обычных единицах. У энтропии такая же данная температура, как и данная энтальпия определенного вещества.

Подводим итог: энтропия увеличивается, следовательно, любыми своими действиями мы увеличиваем хаос.

Просто о сложном

Энтропия – мера беспорядка (и характеристика состояния). Визуально, чем более равномерно расположены вещи в некотором пространстве, тем больше энтропия. Если сахар лежит в стакане чая в виде кусочка, энтропия этого состояния мала, если растворился и распределился по всем объёму – велика. Беспорядок можно измерить, например, посчитав сколькими способами можно разложить предметы в заданном пространстве (энтропия тогда пропорциональна логарифму числа раскладок). Если все носки сложены предельно компактно одной стопкой на полке в шкафу, число вариантов раскладки мало и сводится только к числу перестановок носков в стопке. Если носки могут находиться в произвольном месте в комнате, то существует немыслимое число способов разложить их, и эти раскладки не повторяются в течение нашей жизни, как и формы снежинок. Энтропия состояния «носки разбросаны» – огромна.

Второй закон термодинамики гласит, что самопроизвольно в замкнутой системе энтропия не может убывать (обычно она возрастает). Под её влиянием рассеивается дым, растворяется сахар, рассыпаются со временем камни и носки. Эта тенденция объясняется просто: вещи движутся (перемещаются нами или силами природы) обычно под влиянием случайных импульсов, не имеющих общей цели. Если импульсы случайны, всё будет двигаться от порядка к беспорядку, потому что способов достижения беспорядка всегда больше. Представьте себе шахматную доску: король может выйти из угла тремя способами, все возможные для него пути ведут из угла, а прийти обратно в угол с каждой соседней клетки – только одним способом, причём этот ход будет только одним из 5 или из 8 возможных ходов. Если лишить его цели и позволить двигаться случайно, он в конце концов с равной вероятностью сможет оказаться в любом месте шахматной доски, энтропия станет выше.

В газе или жидкости роль такой разупорядочивающей силы играет тепловое движение, в вашей комнате – ваши сиюминутные желания пойти туда, сюда, поваляться, поработать, итд. Каковы эти желания – неважно, главное, что они не связаны с уборкой и не связаны друг с другом. Чтобы снизить энтропию, нужно подвергнуть систему внешнему воздействию и совершить над ней работу. Например, согласно второму закону, энтропия в комнате будет непрерывно возрастать, пока не зайдёт мама и не попросит вас слегка прибрать. Необходимость совершить работу означает также, что любая система будет сопротивляться уменьшению энтропии и наведению порядка. Во Вселенной та же история – энтропия как начала возрастать с Большого Взрыва, так и будет расти, пока не придёт Мама.

Мера хаоса во Вселенной

Для Вселенной не может быть применён классический вариант вычисления энтропии, потому что в ней активны гравитационные силы, а вещество само по себе не может образовать замкнутую систему. Фактически, для Вселенной – это мера хаоса.

Главнейшим и крупнейшим источником неупорядоченности, которая наблюдается в нашем мире, считаются всем известные массивные образования – чёрные дыры, массивные и сверхмассивные.

Попытки точно рассчитать значение меры хаоса пока нельзя назвать удачными, хотя они происходят постоянно. Но все оценки энтропии Вселенной имеют значительный разброс в полученных значениях – от одного до трёх порядков. Это объясняется не только недостатком знаний. Ощущается недостаточность сведений о влиянии на расчёты не только всех известных небесных объектов, но и тёмной энергии. Изучение её свойств и особенностей пока в зачатке, а влияние может быть определяющим. Мера хаоса Вселенной всё время изменяется. Учёные постоянно проводят определённые исследования, чтобы получить возможность определения общих закономерностей. Тогда будет можно делать достаточно верные прогнозы существования различных космических объектов.

Тепловая смерть Вселенной

У любой замкнутой термодинамической системы есть конечное состояние. Вселенная тоже не является исключением. Когда прекратится направленный обмен всех видов энергий, они переродятся в тепловую энергию. Система перейдёт в состояние тепловой смерти, если термодинамическая энтропия получит наивысшие значение. Вывод о таком конце нашего мира сформулировал Р. Клаузиус в 1865 году. Он взял за основу второй закон термодинамики. Согласно этому закону, система, которая не обменивается энергиями с другими системами, будет искать равновесное состояние. А оно вполне может иметь параметры, характерные для тепловой смерти Вселенной. Но Клаузиус не учитывал влияния гравитации. То есть, для Вселенной, в отличие от системы идеального газа, где частицы распределены в каком-то объёме равномерно, однородность частиц не может соответствовать самому большому значению энтропии. И всё-таки, до конца не ясно, энтропия - допустимая мера хаоса или смерть Вселенной?

Энтропия в нашей жизни

В пику второму началу термодинамики, по положениям которого всё должно развиваться от сложного к простому, развитие земной эволюции продвигается в обратном направлении. Эта нестыковка обусловлена термодинамикой процессов, которые носят необратимый характер. Потребление живым организмом, если его представить как открытую термодинамическую систему, происходит в меньших объёмах, нежели выбрасывается из неё.

Пищевые вещества обладают меньшей энтропией, нежели произведённые из них продукты выделения. То есть, организм жив, потому что может выбросить эту меру хаоса, которая в нём вырабатывается в силу протекания необратимых процессов. К примеру, путём испарения из организма выводится около 170 г воды, т.е. тело человека компенсирует понижение энтропии некоторыми химическими и физическими процессами.

Энтропия – это некая мера свободного состояния системы. Она тем полнее, чем меньшие ограничения эта система имеет, но при условии, что степеней свободы у неё много. Получается, что нулевое значение меры хаоса – это полная информация, а максимальное – абсолютное незнание.

Вся наша жизнь – сплошная энтропия, потому что мера хаоса иногда превышает меру здравого смысла. Возможно, не так далеко время, когда мы придём ко второму началу термодинамики, ведь иногда кажется, что развитие некоторых людей, да и целых государств, уже пошло вспять, то есть, от сложного к примитивному.

Выводы

Энтропия – обозначение функции состояния физической системы, увеличение которой осуществляется за счёт реверсивной (обратимой) подачи тепла в систему;

величина внутренней энергии, которая не может быть преобразована в механическую работу;

точное определение энтропии производится посредством математических расчётов, при помощи которых устанавливается для каждой системы соответствующий параметр состояния (термодинамическое свойство) связанной энергии. Наиболее отчётливо энтропия проявляется в термодинамических процессах, где различают процессы, обратимые и необратимые, причём в первом случае энтропия остаётся неизменной, а во втором постоянно растёт, и это увеличение осуществляется за счёт уменьшения механической энергии.

Следовательно, все то множество необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к остановке, к «тепловой смерти». Но этого не может произойти, поскольку с точки зрения космологии невозможно до конца завершить эмпирическое познание всей «целостности Вселенной», на основе которого наше представление об энтропии могло бы найти обоснованное применение. Христианские теологи полагают, что, основываясь на энтропии, можно сделать вывод о конечности мира и использовать её для доказательства «существования Бога». В кибернетике слово «энтропия» используется в смысле, отличном от его прямого значения, который лишь формально можно вывести из классического понятия; оно означает: среднюю наполненность информацией; ненадёжность в отношении ценности «ожидания» информации.

Вся энергия от сгорания бензина во всех автомобилях мира за прошлый год, перешла, в конечном счете, в нагревание воздуха и земли. Вот что такое энтропия, и это явление присутствует в любом процессе, в любой системе.

Такой переход в теплоту с низкой температурой означает увеличение беспорядка в движении молекул. Даже когда теплота сохраняется, например, при смешивании горячего и холодного воздуха, беспорядок все равно возрастает: (группа быстрых молекул в одной области) + (группа медленных в другой) превращается в (смесь молекул с промежуточным хаотическим движением). Рассмотрение как простого смешивания горячего и холодного газа, так и общетеоретическое изучение тепловых машин (термодинамики) приводит нас к выводу, что естественной тенденцией является изменение энтропии — увеличение беспорядка с течением времени.

Это придает времени важное свойство - направленность в случае статистических процессов. В простой механике, выраженной в законах Ньютона, время может течь в обоих направлениях. Кинофильм о соударении двух молекул будет выглядеть одинаково правдоподобно, как бы мы ни запустили пленку - с начала или с конца. Но фильм, в котором молекулы горячего газа смешиваются с холодными, выглядит дико, если его запустить с конца. Таким образом, столкновения мириад молекул указывают на направление течения времени в нашем мире. Изобретена физическая мера «беспорядка», названная «принцип энтропии».

Говорят, «по закону энтропии, беспорядок во Вселенной стремится возрастать». Отсюда возникла мысль о «тепловой смерти» Вселенной, когда все будет находиться при одной и той же низкой температуре и максимальном беспорядке вещества и излучения.

Понятие энтропии можно определить как отношение количества тепла к абсолютной температуре, или как вероятность определенной конфигурации в мире молекул. Дальнейшие детали этого определения и его использования увели бы нас слишком далеко за рамки нашего курса, но стоит понаблюдать за этим понятием в развивающейся современной науке. «Будущее принадлежит тем, - сказал Фредерик Кеффер, - кто сможет управлять энтропией… Промышленные революции прошлого затрагивали только потребление энергии, но заводы-автоматы будущего - это революция энтропии».

Молекулы газа в процессе соударений в принципе могли бы распределиться на быстрые (горячие) в одной части сосуда и медленные (холодные) - в другой. Это означало бы уменьшение беспорядка в противоположность тому, что предсказывает закон возрастания энтропии. Но такое случайное событие почти невероятно - не невозможно, а просто крайне маловероятно. Наиболее вероятно беспорядочное расположение и скорости молекул, так что упорядоченное расположение после нескольких соударений с большой вероятностью вновь становится хаотическим.

Возникновение порядка очень мало-вероятно даже на протяжении очень долгого времени. Возникновение порядка крайне маловероятно…, беспорядка - очень вероятно, вот почему свойства энтропии можно определить тремя эквивалентными способами: 1) как меру беспорядка; 2) через теплоту и температуру; 3) через вероятности конфигураций молекул (насколько они статистически вероятны).

Второй закон термодинамики по сути дела гласит: энтропия стремится возрастать. Из-за неизбежных процессов, таких, как потери тепла, трение, неупругие соударения…, она увеличивается. Максимум, на что мы можем надеяться в случае непрерывно работающей совершенной тепловой машины,- это сохранение энтропии постоянной.

Изменение энтропии очень важно для расчетов работы тепловых машин, где мы стремимся к потреблению всей доступной тепловой энергии . Оно, по-видимому, очень важно для биологических объектов, для которых господствует одно направление времени.

Кстати, представление о принципе энтропии используется и в «теории информации», которая лежит в основе проектирования систем связи, и т. п. Допустим, что вы ухитрились наблюдать за движением отдельной молекулы газа и можете записать движение каждой из них. За этой детальной информацией вы не разглядите газа как однородной системы, находящейся в состоянии максимального хаоса, а увидите лишь, что движение крайне нерегулярно.

Получая информацию, вы уменьшаете энтропию. Таким образом, информация, переданная по телефону в виде сообщения от термометра к термостату, напоминает отрицательную энтропию. Эта аналогия эффективно помогает при кодировании множества одновременных телефонных переговоров, создании усилителей, улучшении качества звукозаписывающих устройств, конструировании автоматов и при изучении нашей собственной нервной системы, языка, памяти, а возможно, и разума.

Просто о сложном – Что такое энтропия, изменение энтропии процессов и систем, понятие энтропии, свойства и законы энтропии

  • Галерея изображений, картинки, фотографии.
  • Что такое энтропия – основы, возможности, перспективы, развитие.
  • Интересные факты, полезная информация.
  • Зеленые новости – Что такое энтропия.
  • Ссылки на материалы и источники – Что такое энтропия, изменение энтропии процессов и систем, понятие энтропии, свойства и законы энтропии.
    Похожие записи

Понятие “Энтропия” (ударение на последнем слоге) впервые появилось в термодинамике. Там оно обозначает степень рассеивания энергии в замкнутой системе. В общем смысле под энтропией понимают степень развития хаоса или разрушения первоначально установленного порядка в замкнутой системе.

Энтропия в закрытой системе, как её понимают физики

Пример из жизни: Возьмём некую замкнутую систему. Допустим, Ребенок + Кожаный мяч в комнате. Ребенок произвольно пользуется мячом – играет, ударяет об пол, подбрасывает к потолку… Через 6 месяцев активного использования мяч заметно сдулся, играть им стало труднее. Замкнутая система открывается: приходит папа с насосом и накачивает мяч. Функции мяча, подвергнутого энтропии, восстанавливаются.

2 закон термодинамики гласит, что энтропия в замкнутой системе не может уменьшаться, она только увеличивается.

Даже если замкнутая система с мячом не предполагает активного разрушающего фактора (играющий ребёнок), энтропия всё равно будет, хоть и с меньшими показателями.

Пример 2. Мяч 6 месяцев пролежал в комнате: сдулся незначительно, но сильно покрылся пылью и немного выцвел со стороны, обращенной к окну.

Чтобы энтропия уменьшилась в закрытой системе, надо ее открыть и добавить в неё ресурс из другой системы. Чтобы мяч восстановить в прежних размерах, нужно внести в замкнутую систему изменения с помощью папиной энергии и нового воздуха, закачанного насосом в мяч. Чтобы мяч, пролежавший в комнате, вернул первоначальные свойства, мама должна вытереть его мокрой тряпкой от пыли, а сестра – покрыть новой краской.

Понятием энтропии пользуются многие сферы человеческих знаний и деятельности:

  • биология и медицина;
  • химия;
  • физика;
  • информатика и программирование;
  • социология;
  • психология и др.

Энтропия в биосистемах

Все биосистемы (живые системы) являются открытыми, а не закрытыми, поэтому понятие энтропии в биосистеме несколько отличается от энтропии неживых объектов, рассматриваемых физиками.

Биосистемы находятся в состоянии динамического равновесия. Оно существует по другим законам, нежели термодинамическое равновесие. Системы любого живого организма открыты для взаимодействия друг с другом в рамках самого организма, а сам организм в свою очередь открыт для взаимодействия с окружающей средой местности планеты. Планета, как живой организм, в свою очередь, подвержена влиянию и взаимодействию с одной стороны – с живыми организмами, её населяющими, а с другой – с космическими объектами и явлениями.

Все это создаёт разветвлённую систему корректировок, чтобы поддерживать между всеми и во всех живых организмах гомеостаз – то есть баланс. Явление энтропии (разрушения и разбалансировки) является самым сложным в больших живых системах. Ведь они используют увеличивающуюся энтропию одних своих частей в качестве пищи и строительного материала для уменьшения энтропии в других своих частях.

Энтропия в теории информации и коммуникаций

Над данной темой в этой сфере работал Клод Шеннон. Он изучал рациональные способы передачи информации через зашумлённый канал. По Шеннону, энтропия – это мера непредсказуемости какого-либо опыта, события, испытания. Это количество информации на 1 сообщение источника, выдающего независимые сообщения.

Он рассматривал информационную энтропию в своей «Математической теории Коммуникации», где ввёл связанное понятие «вероятность». По Шеннону, чем меньше вероятность какого-либо события, тем больше информации оно содержит.

Энтропия в социуме

Это степень отклонения социальной системы, организации (предприятия) и т.д. от принятой нормы (эталона) и установленных целей. На социальную энтропию влияют:

  • Деятельность людей;
  • Ошибки управления;
  • Недостаток информации;
  • Ошибки планирования;
  • Ошибками в подборе персонала.

Обобщая до бытового уровня, можно сказать, что “Энтропия” – это мера или степень беспорядка (хаоса) или неопределённости.

Существуют 3 понятия, противоположные энтропии:

  1. Негэнтропия;
  2. Синтропия;
  3. Отрицательная энтропия.

Но эти термины действуют только для живых систем. Негэнтропия в живой системе – это энтропия, которую живая система экспортирует, чтобы снизить свою собственную энтропию. Другими словами, синтропия – это свободная или освободившаяся энергия одного организма или группы организмов, отправляемая на упорядочивание и уравновешивание другого организма в системе.

Жизнь потребляет то, что меньше упорядочено (убитый организм, ставший пищей) и превращает это в то, что более упорядочено (живые клетки, ткани, органы, системы, целые организмы). Поэтому считается что жизнь сама по себе имеет свойство отрицательной энтропии.

Что такое энтропия? Этим словом можно охарактеризовать и объяснить почти все процессы в жизни человека (физические и химические процессы, а также социальные явления). Но не все люди понимают значение этого термина и уж тем более не все могут объяснить, что это слово значит. Теория сложна для восприятия, но если добавить в неё простые и понятные примеры из жизни, то разобраться с определением этого многогранного термина будет легче. Но обо всём по порядку.

Энтропия: определение и история появления термина

История появления термина

Энтропия как определение состояния системы была введена в 1865 году немецким физиком Рудольфом Клаузиусом, чтобы описать способность теплоты превращаться в другие формы энергии, главным образом в механическую. С помощью этого понятия в термодинамике описывают состояние термодинамических систем. Приращение этой величины связано с поступлением тепла в систему и с температурой, при которой это поступление происходит.

Определение термина из Википедии

Этот термин долгое время использовался только в механической теории тепла (термодинамике), для которой оно вводилось. Но со временем это определение перешло в другие области и теории. Существует несколько определений термина «энтропия».

Википедия даёт краткое определение для нескольких областей, в которых этот термин используется:«Энтропия (от др.-греч. ἐντροπία «поворот»,«превращение») - часто употребляемый в естественных и точных науках термин. В статистической физике характеризует вероятность осуществления какого-либо макроскопического состояния. Помимо физики, этот термин широко используется в математике: теории информации и математической статистике».

Виды энтропий

Этот термин используется в термодинамике , экономике, теории информации и даже в социологии. Что же он определяет в этих областях?

В физической химии (термодинамике)

Основной постулат термодинамики о равновесии: любая изолированная термодинамическая система приходит в равновесное состояние с течением времени и не может из него выйти самопроизвольно. То есть каждая система стремится в равновесное для неё состояние. И если говорить совсем простыми словами , то такое состояние характеризуется беспорядком.

Энтропия - это мера беспорядка. Как определить беспорядок? Один из способов - приписать каждому состоянию число вариантов, которыми это состояние можно реализовать. И чем больше таких способов реализации, тем больше значение энтропии. Чем больше организованно вещество (его структура), тем ниже его неопределённость (хаотичность).

Абсолютное значение энтропии (S абс.) равно изменению имеющейся у вещества или системы энергии во время теплопередачи при данной температуре. Его математическая величина определяется из значения теплопередачи (Q), разделённого на абсолютную температуру (T), при которой происходит процесс: S абс. = Q / T. Это означает, что при передаче большого количества теплоты показатель S абс. увеличится. Тот же эффект будет наблюдаться при теплопередаче в условиях низких температур.

В экономике

В экономике используется такое понятие , как коэффициент энтропии. С помощью этого коэффициента исследуют изменение концентрации рынка и её уровень. Чем выше значение коэффициента, тем выше экономическая неопределённость и, следовательно, вероятность появления монополии снижается. Коэффициент помогает косвенно оценить выгоды, приобретённые фирмой в результате возможной монопольной деятельности или при изменении концентрации рынка.

В статистической физике или теории информации

Информационная энтропия (неопределённость)- это мера непредсказуемости или неопределённости некоторой системы. Эта величина помогает определить степень беспорядочности проводимого эксперимента или события. Чем больше количество состояний, в которых может находиться система, тем больше значение неопределённости. Все процессы упорядочивания системы приводят к появлению информации и снижению информационной неопределённости.

С помощью информационной непредсказуемости можно выявить такую пропускную способность канала, которая обеспечит надёжную передачу информации (в системе закодированных символов). А также можно частично предсказывать ход опыта или события, деля их на составные части и высчитывая значение неопределённости для каждой из них. Такой метод статистической физики помогает выявить вероятность события. С его помощью можно расшифровать закодированный текст , анализируя вероятность появления символов и их показатель энтропии.

Существует такое понятие, как абсолютная энтропия языка. Эта величина выражает максимальное количество информации, которое можно передать в единице этого языка. За единицу в этом случае принимают символ алфавита языка (бит).

В социологии

Здесь энтропия (информационная неопределённость) является характеристикой отклонения социума (системы) или его звеньев от принятого (эталонного) состояния, а проявляется это в снижении эффективности развития и функционирования системы, ухудшении самоорганизации. Простой пример: сотрудники фирмы так сильно загружены работой (выполнением большого количества отчётов), что не успевают заниматься своей основной деятельностью (выполнением проверок). В этом примере мерой нецелесообразного использования руководством рабочих ресурсов будет являться информационная неопределённость.

Энтропия: тезисно и на примерах

Пример 1 . Программа Т9. Если в слове будет небольшое количество опечаток, то программа легко распознает слово и предложит его замену. Чем больше опечаток, тем меньше информации о вводимом слове будет у программы. Следовательно, увеличение беспорядка приведёт к увеличению информационной неопределённости и наоборот, чем больше информации, тем меньше неопределённость.

Пример 2. Игральные кости. Выкинуть комбинацию 12 или 2 можно только одним способом: 1 плюс 1 или 6 плюс 6. А максимальным числом способов реализуется число 7 (имеет 6 возможных комбинаций). Непредсказуемость реализации числа семь самая большая в этом случае.

  • В общем смысле энтропию (S) можно понимать как меру распределения энергии. При низком значении S энергия сконцентрирована, а при высоком - распределена хаотично.

Пример. Н2О (всем известная вода) в своём жидком агрегатном состоянии будет обладать большей энтропией, чем в твёрдом (лёд). Потому что в кристаллическом твёрдом теле каждый атом занимает определённое положение в кристаллической решётке (порядок), а в жидком состоянии у атомов определённых закреплённых положений нет (беспорядок). То есть тело с более жёсткой упорядоченностью атомов имеет более низкое значение энтропии (S). Белый алмаз без примесей обладает самым низким значением S по сравнению с другими кристаллами.

  • Связь между информацией и неопределённостью.

Пример 1. Молекула находится в сосуде , который имеет левую и правую часть. Если неизвестно, в какой части сосуда находится молекула, то энтропия (S) будет определяться по формуле S = S max = k * lgW, где k -число способов реализации, W- количество частей сосуда. Информация в этом случае будет равна нулю I = I min =0. Если же точно известно, в какой части сосуда находится молекула, то S = S min =k*ln1=0, а I = I max= log 2 W. Следовательно, чем больше информации, тем ниже значение информационной неопределённости.

Пример 2. Чем выше порядок на рабочем столе, тем больше информации можно узнать о вещах, которые на нём находятся. В этом случае упорядоченность предметов снижает энтропию системы «рабочий стол».

Пример 3. Информация о классе больше на уроке, чем на перемене. Энтропия на уроке ниже, так как ученики сидят упорядочено (больше информации о местоположении каждого ученика). А на перемене расположение учеников меняется хаотично, что повышает их энтропию.

Пример. При реакции щелочного металла с водой выделяется водород. Водород-это газ. Так как молекулы газа движутся хаотично и имеют высокую энтропию, то рассматриваемая реакция происходит с увеличением её значения. То есть энтропия химической системы станет выше .

В заключение

Если объединить всё вышесказанное , то получится, что энтропия является мерой беспорядка или неопределённости системы и её частей. Интересен тот факт, что всё в природе стремится к максимуму энтропии, а человек - к максимуму информации. И все рассмотренные выше теории направлены на установление баланса между стремлением человека и естественными природными процессами.

Важнейшим параметром состояния вещества является энтропия (S). Изменение энтропии в обратимом термодинамическом процессе определяется уравнением, являющимся аналитическим выражением второго закона термодинамики:

для 1 кг вещества - d s = d q / Т, где d q - бесконечно малое количество теплоты, подводимой или отводимой в элементарном процессе при температуре Т, кДж / кг.

Первым энтропию заметил Клаузиус (1876). Обнаружив в природе новую, ранее не известную никому величину Клаузиус назвал ее странным и непонятным словом «энтропия», которое сам и придумал. Он так объяснил его значение«тропе» по-гречески означает «превращение». К этому корню Клаузиус добавил две буквы – «эн», так чтобы получившееся слово было бы по возможности подобно слову «энергия». Обе величины настолько близки друг другу своей физической значимостью, что известное сходство в их названиях было целесообразно.

Энтропия - это производное понятие от понятия “состояние объекта” или “фазовое пространство объекта”. Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии.

Можно дать другое определение, не такое строгое и точное, но более наглядное: ЭНТРОПИЯ - это мера обесцененной энергии, бесполезной энергии, которую нельзя использовать для получения работы, или

ТЕПЛОТА - царица мира, ЭНТРОПИЯ - её тень.

Все реальные процессы, протекающие в действительности - необратимы. Их нельзя по желанию провести в прямом и обратном направлении, не оставив никакого следа в окружающем мире. Термодинамика должна помочь исследователям заранее узнать, пойдет ли реальный процесс, не осуществляя его в действительности. Для этого и нужно понятие «энтропия».

Энтропия - это свойство системы, которое полностью определяется состоянием системы. Какими бы путями не перешла система из одного состояния в другое, изменение её энтропии будет всегда одно и тоже.

Вычислить вообще энтропию системы или любого тела нельзя, как нельзя вообще определить его энергию. Вычислить можно только изменение энтропии при переходе системы из одного состояния в другое, если этот переход провести квазистатическим путём.

Специального названия для единиц, в которых измеряют энтропию, не придумано. Ее измеряют в Дж/кг*градус.

Уравнение Клаузиуса:

ΔS = S 2 – S 1 = ∑(Q/T) обратимый

Изменение энтропии при переходе системы из одного состояния в другое точно равно сумме приведенных теплот.

Энтропия - мера статистического беспорядка в замкнутой термодинамической системе. Чем больше порядка - тем меньше энтропия. И наоборот, чем меньше порядка - тем больше энтропия.

Все самопроизвольно протекающие процессы в замкнутой системе, приближающие систему к состоянию равновесия и сопровождающиеся ростом энтропии, направлены в сторону увеличения вероятности состояния (Больцман ).

Энтропия является функцией состояния, поэтому её изменение в термодинамическом процессе определяется только начальными и конечными значениями параметров состояния.

Изменение энтропии в основных термодинамических процессах определяется:

В изохорном DЅ v = С v ln Т 2 /Т 1

В изобарном DЅ р = С р ln Т 2 /Т 1

В изотермическом DЅ т = R ln Р 1 /Р 2 = R ln V 2 /V 1