?

Log in

No account? Create an account

Previous Entry | Next Entry

Энтропия держит цепко

Сади Карно первым понял, что не вся энергия может быть превращена в работу, а Рудольф Клаузиус придумал слово «энтропия» для обозначения этой неуловимой части. Количественно информация – это и есть изменение энтропии (с обратным знаком); по крайней мере, Шеннон с фон Нойманом именно так ее и определили.


Больше всего меня беспокоило подходящее имя. Сначала я хотел говорить об «информации», но это слово уж слишком затасканное, поэтому я склонялся в пользу «меры неопределенности». Когда я рассказал об этом Джону фон Нойману, у него возникла идея получше. Фон Нойман сказал мне: «Ты должен назвать это «энтропией», по двум причинам. Во-первых, твоя «мера неопределенности» уже была использована в статистической механике под тем самым именем. Во-вторых и в-главных, никто не знает, что такое на самом деле энтропия, так что в любом обсуждении преимущество будет на твоей стороне».

Недавняя работа японцев, подковавших блоху приручивших демона Максвелла, наделала много переполоху в популярной прессе. Но, как и во всяком вечном двигателе, процесс получения энергии из информации у них был сопряжен с потреблением гораздо большей энергии извне. Как заметил автор комментария, помещенного издателями вместе с оригинальной публикацией: «Этот эксперимент подобен производству крошечного количества энергии путем термоядерного синтеза в реакторе, требующем колоссального энергообеспечения».


Карикатура Арье Бен-Наима
на знаменитый разговор Шеннона и фон Ноймана (отсюда)

Posts from This Journal by “информация” Tag

Comments

evgeniirudnyi
Nov. 7th, 2014 03:03 pm (UTC)
"фон Нойман именно это и имел в виду: что шенноновское определение энтропии интуитивно более понятно, чем больцмановское, и уж тем более чем макроскопическое (которое вовсе, на мой взгляд, непонятно)"

В этом состоит основная проблема с энтропией. Люди почему-то думают, что концепция энтропии в статистической механике более понятна, чем в классической термодинамике. Далее как следствие классическая термодинамика игнорируется, что в свою очередь приводит к крайне странным высказываниям, которые уже просто невозможно понять.

Нельзя забывать, что термодинамика была создана для решения практических задач. Попробуйте решить эти задачи, начав с уравнения Больцмана. Ведь ничего же не получится.

Простой пример - расслаивание раствора. Недавно я в ходе обсуждения с биосемиотиками написал Entropy and Miscibility Gap: Tutorial for Biologists, где есть все уравнения для крайне простого случая. Попробуйте решить эту задачу с использованием уравнения Больцмана. Тогда разговор будет более предметным.
egovoru
Nov. 8th, 2014 01:03 pm (UTC)
"Попробуйте решить эту задачу с использованием уравнения Больцмана"

Конечно, для решения разных задач требуются разные модели, и термодинамика здесь не исключение.

Здесь у меня задача - попытаться понять логику тех, кто считает, что в основе мира лежит информация. Перекинуть мостик от информации к циклу Карно как-то сложнее, чем к статистической механике.
evgeniirudnyi
Nov. 8th, 2014 01:11 pm (UTC)
"Перекинуть мостик от информации к циклу Карно как-то сложнее"

Если именно такой мостик не перекинуть, то ведь тогда все разговоры об информации и энтропии сведутся просто к сотрясению воздуха.