?

Log in

No account? Create an account

Previous Entry | Next Entry

Не надо мне числа

Замена классического бита на квантовый не помогла мне приблизиться к пониманию тех, кто полагает, что «в основе мира лежит информация».


Информация – это придуманное нами абстрактное понятие. Его характерная особенность – универсальность: любой процесс можно описать как передачу информации. Но объясните мне, каким образом описание процесса может породить сам процесс?

Лампочке, которая может быть включена или выключена, мы приписываем один бит информации; электрону с тем или иным спином – один кубит. Лампочку можно заменить на транзистор, а электрон – на фотон, но ведь в любом случае нужно нечто, способное принимать альтернативные состояния?

Происхождение мира из числа – идея почтенного возраста, ее связывали еще с именем Пифагора. Учитывая, однако, что тот не оставил нам ни единой строчки, трудно понять, что конкретно он имел в виду. Может, он просто утверждал, что всякое явление можно описать математически?

coin pentagramm

Греческая монета IV века до н.э. с изображением
пифагорейской пентаграммы; на другой стороне – Зевс Аммон
(фото с сайта Wildwinds)

Posts from This Journal by “информация” Tag

Comments

( 209 comments — Leave a comment )
Page 2 of 2
<<[1] [2] >>
barlaam
Feb. 5th, 2017 09:09 pm (UTC)
Модели клеточных автоматов, самая популярная из которых - “Жизнь” Конвея, поражают воображение тем, что дают возможность наглядной интерпретации многих физических и метафизических идей: что такое “объект”, как “объекты” могут взаимодействовать, как “пространство” и “время” могут возникать из более фундаментальных законов (emergence), как неограниченно сложное поведение (по крайней мере универсальное по Тьюрингу) может возникать из простого локального взаимодействия, даже - как “свободе воли” может по-прежнему найтись место в детерминированном мире. Все это вызывает соблазн натянуть сову на глобус объявить, что вся наша Вслененная - это умопомрачительных размеров клеточный автомат, материя - иллюзия, и все сводимо к простейшим состояниям 0/1 и взаимодействиям между ними. Собственно, для адекватного понимания “it form bit” больше ничего не нужно.

Загвоздка состоит в том, что квантовая запутанность в ее простейшем представлении - EPR эксперимент - уже не вписывается в такую интепретацию. Возникновение нелокальных корреляций, наблюдаемых при измерении разнесенных в пространстве запутанных частиц, в рамках модели клеточных автоматов (а в силу ее универсальности - в рамках любой “классической” модели) представляется невозможным, равно как и прочие “странности” квантовой механики: отрицательные (даже комплексные) вероятности, квантовые вычисления и пр. Выход? Признать фундаментальными квантовые биты и строить новые мета-классические модели всего-всего-всего из них, т.е. “it from qbit”. Один побочный эффект: программисты, которые в своей метафизике дальше “Матрицы” не продвинулись, не только выпали из дискурса, но даже и не отдают себе в этом отчета, т.е. заняли в интеллектуальной иерархии свое место у... вторичное положение. Властителями дум стали те, кому посчитать энтропию поверхности черной дыры - как два кубита телепортировать.

egovoru
Feb. 5th, 2017 09:17 pm (UTC)
"вся наша Вслененная - это умопомрачительных размеров клеточный автомат, материя - иллюзия, и все сводимо к простейшим состояниям 0/1 и взаимодействиям между ними"

Да, я понимаю, откуда берется эта тенденция. Но мне все же странно, что те, кто на это ведется, совершенно забывают, что любой клеточный автомат, матрица и т.д. - это алгоритм, выполняемый неким компьютером, он не существует сам по себе, вися в воздухе. Соответственно, сразу возникают вопросы, а откуда взялся этот компьютер и т.д.?

"Признать фундаментальными квантовые биты и строить новые мета-классические модели всего-всего-всего из них, т.е. “it from qbit”

Модели, да. Но карта (модель) - это же еще не местность?
barlaam
Feb. 5th, 2017 09:43 pm (UTC)
"Базовый компьютер", на котором выполняется этот алгоритм, нам в принципе недоступен. Это могут быть два совершенно разных "компьютера" - для нас не будет никакой разницы.
"Местность" не познаваема. Модели - наше все.
egovoru
Feb. 5th, 2017 09:58 pm (UTC)
Непознаваемый базовый компьютер - это и есть Бог, так что в этом представлении нет решительно ничего нового или оригинального, как хочется думать его сторонникам :)
(no subject) - barlaam - Feb. 5th, 2017 10:21 pm (UTC) - Expand
(no subject) - egovoru - Feb. 5th, 2017 10:40 pm (UTC) - Expand
(no subject) - alex_new_york - Feb. 6th, 2017 12:04 am (UTC) - Expand
(no subject) - egovoru - Feb. 6th, 2017 12:54 am (UTC) - Expand
(no subject) - alex_new_york - Feb. 6th, 2017 01:18 am (UTC) - Expand
(no subject) - egovoru - Feb. 6th, 2017 02:38 am (UTC) - Expand
(no subject) - alex_new_york - Feb. 6th, 2017 11:30 am (UTC) - Expand
(no subject) - egovoru - Feb. 6th, 2017 01:45 pm (UTC) - Expand
(no subject) - alex_new_york - Feb. 6th, 2017 02:35 pm (UTC) - Expand
(no subject) - egovoru - Feb. 7th, 2017 01:28 am (UTC) - Expand
(no subject) - alex_new_york - Feb. 7th, 2017 02:50 am (UTC) - Expand
(no subject) - egovoru - Feb. 7th, 2017 01:09 pm (UTC) - Expand
greygreengo
Feb. 6th, 2017 03:24 am (UTC)
К теории информации с мусульманских концепций
Сколько не говори халва - сладко не будет!

Требование материальности информации ровно такое же, как и требования вещественности вероятности. Требовать можно, но волновую функцию удобно считать в комплексном виде. Вероятность несет информацию - да и еще какую, особенно для котика Шредингера. Но материальна ли вероятность - скорее всего нет. Просто это очень удобный метод описания.
Так и информация, сама по себе пропорциональна энтропии, но без носителя не существует. Поэтому удобнее оперировать не терминами количеств информации, а терминами передачи и времени жизни отдельных информационных структур - мемов, которые направляют и поворачивают динамику обществ, основанных на реальных вещах, из которых выросли меметические надстройки, совершенно скрывшие их реальность. Та же пифагорейская матшкола - кто не помнит мема о трансцедентальном корне из двух и фатальном влиянии иррациональности на мозги многих изучавших.

Как то так.
egovoru
Feb. 6th, 2017 01:14 pm (UTC)
Re: К теории информации с мусульманских концепций
"Так и информация, сама по себе пропорциональна энтропии, но без носителя не существует"

Да, именно это я и хочу сказать. По всей вероятности, и сам Уилер вовсе не имел в виду того, что вроде бы подразумевает его знаменитая фраза "It from bit".

А причину того, что эта фраза столь полюбилась коллективному бессознательному, видимо, следует искать в уже засевшем в этом бессознательном "Вначале было слово, и слово было Бог" ;)
kogan
Feb. 6th, 2017 07:56 pm (UTC)
- Был главный небесный автомобиль, - сказал Володин, - этот небесный автомобиль был абсолютно совершенным. И все понятия и образы, относящиеся к
автомобильности, содержались в нем одном. А так называемые реальные автомобили, которые ездили по дорогам Древней Греции, считались просто его несовершенными тенями. Как бы проекциями. Понял?
- Понял. Ну и что дальше?
- А дальше Аристотель взял и сказал, что главный небесный автомобиль, конечно, есть. И все земные машины, разумеется, являются просто его искаженными отражениями в тусклом и кривом зеркале бытия. В то время спорить с этим было нельзя. Но кроме первообраза и отражения, сказал Аристотель, есть еще одна вещь. Тот материал, который принимает форму этого автомобиля. Субстанция, обладающая самосуществованием.
(Пелевин, "Чапаев и Пустота")
egovoru
Feb. 7th, 2017 01:51 am (UTC)
Насколько я знаю, вклад Аристотеля заключался в том, что он переместил идеи в сами вещи, убрав их из специального мира идей, где держал их Платон. Так что тут у Пелевина не совсем точно.
kogan
Feb. 6th, 2017 08:15 pm (UTC)
Если чуть серьезнее - статья выглядит мутновато, типа обо всем и ни о чем в особенности. Идея повязать информацию и физику (информация - энтропия - энергия - далее везде), лет 30 назад, насколько я помню, формулировалась, к примеру, в виде задачи "а сколько энергии надо потратить, чтоб выработать один бит информации?". Казалось, можно было б оценить минимальные затраты на вычисление и тем самым повязать, скажем, сложность алгоритма с энергией (о чем цитированная Вами статья, среди прочего, упоминает). Но прикол оказался в том, что компьютер НЕ ВЫРАБАТЫВАЕТ информации, он ее уничтожает. К примеру, когда компьютер получил на вход уравнение x^2 - 2x + 1 = 0 и выдал ответ "1", информации не прибавилось, ибо раз задано уравнение, то тем самым уже определен и его корень. Напротив, по ответу "1" невозможно установить, что за уравнение было на входе - так что информацию мы потеряли.

На этом в программировании даже можно построить обобщение дейкстровской семантики - вычисляя, компьютер строит проекцию входной информации в выходную. Образно говоря, программа так поворачивает начальный объект, чтоб в результате нам стала видна интересующая нас грань этого объекта (а ненужная часть объекта, наоборот, перестала мешать). Это можно конкретизировать прямо на реальных примерах и программах, но для комментария длинновато будет :)

Edited at 2017-02-06 08:17 pm (UTC)
greygreengo
Feb. 6th, 2017 08:54 pm (UTC)
Проще надо смотреть на вещи и народ к вам потянется!
Если энергия вычислений (впрочем, как и всякая другая тепловая функция, энтальпия, химпотенциал Гиббса, большой термодинамический потенциал) приводит к процессу, охлаждения вычисляющей системы - этот процесс всегда притянет к себе, в качестве паразитных такие вычислительные процессы, которые эту температуру выравняют. Если же процесс вычислений нагревает обстановку и сам является паразитным, то он в конечном итоге либо создаст собственную вселенную, в которой этот процесс станет объединенным взаимодействием, либо окружающая среда окружит его теплоотводящими вычислениями.
ЗЫ Не надо делать из компьютера культа, искусственный интеллект сделает его сам.
egovoru
Feb. 7th, 2017 01:57 am (UTC)
"в виде задачи "а сколько энергии надо потратить, чтоб выработать один бит информации?"

А что, такая постановка вопроса действительно имеет смысл? У меня-то было впечатление, что энергия и информация - это как бы два перпендикулярных способа описания процесса. Наверное, такое ощущение у меня из-за формулы для изменения свободной энергии Гиббса (dG = dH - TdS :)
greygreengo
Feb. 7th, 2017 03:41 am (UTC)
Да, обычные касательные преобразования гражданина Лежандра. Вы совершенно правы.
kogan
Feb. 7th, 2017 04:43 pm (UTC)
Ну как перпендикулярных? Информация без энергии не приобретается - если б это было не так, на костях квантовой механики давно б уже плясали демоны Максвелла и прочие неуловимые подглядыватели в щелочку за электроном. Поэтому вопрос "сколько эргов требуют за один бит?" вполне осмысленный.
(no subject) - greygreengo - Feb. 7th, 2017 06:46 pm (UTC) - Expand
(no subject) - egovoru - Feb. 8th, 2017 12:00 am (UTC) - Expand
(no subject) - kogan - Feb. 8th, 2017 08:34 pm (UTC) - Expand
(no subject) - egovoru - Feb. 9th, 2017 12:35 am (UTC) - Expand
(no subject) - kogan - Feb. 9th, 2017 10:38 am (UTC) - Expand
gineer
Feb. 13th, 2017 06:13 pm (UTC)
Если принять что энергия (как её формулируют, с сохранением, преобразованием и т.п.) -- это и есть информация.
То вроде ИМХО проблема устраняется.
И даже немного более того, идут кой-какие интересные выводы.
egovoru
Feb. 14th, 2017 12:16 am (UTC)
Информацию иногда определяют как "отрицательную энтропию", но вот как приравнять информацию к энергии, не нарушая первого и второго законов термодинамики, этого я что-то не понимаю :(
Page 2 of 2
<<[1] [2] >>
( 209 comments — Leave a comment )