Философия информации, глава 2. Существование информации

5ee5427de6c145f1b77f0840a9ef15e4.png


Перед прочтением этого текста рекомендуется прочитать начало этой истории. Иначе будет не понятно, зачем понадобилось выстраивать сложную конструкцию вместо того, чтобы сделать как обычно, по-простому.

Содержание


Сигналы и контексты


Нам нужно научиться избавляться от иллюзии того, что информация содержится в книгах, на жёстких дисках, в кабелях, радиоволнах и прочих объектах, из которых мы привыкли её «извлекать». Если мы окончательно приняли, что реификация понятия «информация» недопустима, то мы просто вынуждены признать, что, например, читая книгу, мы обретаем информацию, но в том предмете, который мы для этого обязаны использовать, её нет. Предмет обязательно должен присутствовать (читать книгу, не имея её, невозможно), но содержать в себе информацию физический объект не может.

Давайте внимательно проанализируем, что происходит, когда мы читаем книгу. Безусловно имеет место некоторый физический процесс, и некоторые этапы чтения книги удобнее всего описывать именно в физических терминах. В частности, если читаем глазами бумажную книгу, то она должна существовать как материальный предмет, и должен быть обеспечен некоторый приемлемый уровень освещённости. Оптическая система «глаза» тоже должна быть, и она должна быть исправна. Использование других способов чтения (Брайль, озвучивающие программы) ситуацию меняют не особо, и в этих случаях тоже имеет смысл говорить о некоторой материальной составляющей, которая также обязана быть.

О том, что у нас, читателей, происходит в мозгу после того, как контент каким-то способом доставлен, тоже можно пытаться говорить в физических терминах, но это малоперспективно. Что-то, конечно, происходит. Материальная составляющая, вне всякого сомнения, имеет место, но способов перевести в материальные термины такую, например, простую и очевидную ситуацию, как «удивился неожиданному повороту сюжета», мы сейчас не имеем. Нельзя исключить того, что такого способа мы не будем иметь никогда. Хотя бы потому, что в разных головах механизм удивления неожиданному повороту сюжета может быть реализован по-разному.

Специфика информационных процессов, в отличие от материальных, заключается в том, что один и тот же информационный процесс может быть реализован «в материи» принципиально разными способами, но при этом оставаться самим собой. Например, сумму двух чисел можно найти при помощи электронного калькулятора, деревянный счёт, счётных палочек, листочка бумаги и ручки, или вообще в уме. Смысл и результат действия останутся одними и теми же. Книгу можно получить в бумажном виде по почте или в электронном виде по электронной почте. Способ реализации, конечно, влияет на многие нюансы, но суть и смысл происходящего остаются без изменений. Любая попытка «заземлить» информационный процесс в материальную составляющую («удивление — это не что иное, как внутренняя секреция дофамина», «восторг — не что иное, как внутренняя секреция эндорфинов») сродни тому, как если бы мы сказали, что сложение двух чисел — это не что иное, как перемещение деревянных костяшек по железным направляющим. Материальная реальность тотальна, поэтому любой информационный процесс обязан иметь материальный аспект, но к нему одному происходящее не может и не должно сводиться, иначе сложение чисел обязано будет стать монопольной прерогативой деревянных счёт. Переходя к рассмотрению информационного аспекта происходящего нужно уметь абстрагироваться от материального аспекта, при этом, естественно, понимая, что он безусловно есть, но каков он конкретно, нам не очень существенно.

Продолжим рассмотрение процесса чтения книги, абстрагировавшись от деталей материальной реализации происходящего. Для того чтобы читатель успешно прочитал текст, доставленный на его рецепторы, должен выполниться ряд условий. Во-первых, он должен знать язык, на котором она написана. Во-вторых, он должен уметь читать. В-третьих, он должен понимать, почему именно это занятие для него сейчас предпочтительнее всех остальных. Нетрудно заметить, что во всех перечисленных условиях речь идёт о наличии у читателя информации, ведь и «знание», и «умение», и «понимание» — это всё синонимы понятия «информация». Таким образом, для чтения книги мы имеем два комплекса условий успешного протекания процесса: наличие каким-либо способом доставляемого текста и предварительная подготовленность читателя. Условие доставки текста обозначим как требование наличия сигнала. Условие подготовленности читателя обозначим как требование наличия контекста.

Что важно, эти же два комплекса условий наблюдаются в любом процессе, который мы можем идентифицировать как обретение информации. Даже если рассмотреть такую простую штуку, как радиоуправляемый автомобильчик, получение им команд возможно только тогда, когда, во-первых, всё в порядке с доставкой радиосигнала (антенна не сломана и автомобильчик не укатился слишком далеко от пульта) и, во-вторых, блок управления автомобильчика «понимает» команды, посылаемые пультом. Получается, что даже несмотря на то, что всё, казалось бы, происходит в надёжно детерминированной «железке», всё равно важнейшим компонентом, обеспечившим успешное получение приёмником данных от передатчика, оказались знания, которые проектировщик приёмника получил от проектировщика передатчика. Именно эти знания обеспечили то, что приёмник стал материальным объектом, в котором атомы расположились не как попало, а вполне конкретным особым образом. Пришедшая на антенну радиоволна — отнюдь не вся информация, зашедшая в приёмник. Был ещё, возможно, электронное письмо, полученное разработчиком блока управления автомобильчика от коллеги, разрабатывавшего пульт.

Обе составляющие — и сигнал, и контекст — мы можем рассматривать и в материальном аспекте, и в информационном. Но если от информационного аспекта сигнала иногда можно абстрагироваться (особенно, когда ширина канала заведомо избыточна), то от информационного аспекта контекста, по своей сути являющего способностью интерпретировать сигнал, абстрагироваться невозможно. Контекст — это информация о том, как можно интерпретировать сигнал, и поэтому мы обязаны рассматривать как нематериальную сущность.

Может показаться, что в переносе загадочной нематериальности в этот какой-то загадочный «контекст» есть некоторый элемент жульничества. Но нетрудно заметить, что воспринимаемая информация и информация, составляющая контекст — это разные информации. Сюжет книги и знание языка, на котором она написана — это разные знания. Если получившаяся рекурсивность конструкции (для существования контекста второго порядка нужен контекст третьего порядка, и так далее вглубь, в бесконечность) вызывает некоторое беспокойство, то сразу, забегая немножко вперёд, замечу, что это не есть дефект сигнал-контекстной конструкции, а, наверно, самое ценное её свойство. Мы к этой теме вернёмся в пятой главе чтобы через рекурсивность сигнал-контекстной конструкции доказать чрезвычайно полезную теорему.

Для решения наших метафизических задач существенная выгода рассмотрения информации как того, что случается на сочетании сигнала с контекстом, заключается в том, что такая конструкция как раз получается тем самым мостиком между мирами, которого нам так не хватало. Если в какой-то конкретной ситуации нам удалось абстрагироваться от информационных аспектов сигнала (что чаще всего не составляет особого труда), мы получаем возможность рассуждать об участии материальных объектов в информационном процессе. Если при этом нам удалось ещё и контекст рассмотреть во всей полноте его двойственной природы (в наш век информационных технологий это обычное дело), то в результате мы имеем для конкретной ситуации полноценный мостик между материальным и информационным мирами. Надо сразу отметить, что наличие мостика по-прежнему не даёт нам права реифицировать информацию. Сигнал, если он рассматривается как материальный объект, может быть реифицирован (файл записан на флешке, флешка в кармане), но контекст, то есть способность интерпретации сигнала, реифицирован быть не может.

Когда рассматривается классическая с точки зрения теории информации ситуация передачи данных, мы имеем в наличии передатчик, «помещающий» информацию в сигнал и приёмник, «извлекающий» из него информацию. Возникает стойкая иллюзия того, что информация — это нечто, существующее внутри сигнала. Но нужно понимать, что интерпретация специально подготовленного сигнала — далеко не единственный сценарий обретения информации. Обращая внимание на происходящее вокруг, мы получаем очень много той информации, которую нам никто не посылал. Кресло не посылает нам информацию о том, что оно мягкое, стол не посылает информацию о том, что он твёрдый, чёрная краска на странице книги не посылает нам информацию об отсутствии фотонов, выключенное радио не посылает информацию о том, что оно молчит. Мы умеем разбираться в окружающих нас материальных явлениях, и информацией они для нас становятся потому, что у нас заранее есть контекст, позволяющий интерпретировать происходящее. Проснувшись ночью, открыв глаза и ничего не увидев, мы информацию о том, что ещё не рассвело, извлекаем не из присутствующего физического явления, а из его отсутствия. Отсутствие ожидаемого сигнала — тоже сигнал, и его тоже можно интерпретировать. А вот отсутствие контекста не может быть каким-то таким особым «нулевым» контекстом. Если нет контекста, то информации негде возникнуть, сколько бы ни пришло сигнала.

Мы все прекрасно знаем, что такое информация (у существ, обитающих в информационном скафандре, по-другому быть не может), но привыкли считать информацией только ту её часть, которая здесь обозначена как «сигнал». Контекст — штука для нас как-бы сама собой разумеющаяся, и поэтому мы её привычно выносим за скобки. А вынеся за скобки контекст, мы вынуждены всю «информацию» поместить исключительно в сигнал и, таким образом, её немилосердно реифицировать.

Нет ничего сложного в том, чтобы избавиться от реификации «информации». Нужно просто научиться вовремя вспоминать о том, что кроме сигнала всегда есть ещё и контекст. Сигнал — всего лишь сырьё, обретающее смысл (ценность, полезность, значимость и, да, информативность) только при попадании в подходящий контекст. А контекст — это штука, о которой в обязательном порядке следует говорить в нематериальных терминах (иначе это говорение точно не будет иметь смысла).

Давайте вкратце вспомним тему «свойства информации» и оценим, как эти свойства укладываются в двухкомпонентную конструкцию «сигнал-контекст».

  1. Новизна. Если принятие сигнала совсем ничего не добавляет к информационному аспекту уже имеющегося контекста, то события интерпретации сигнала не возникает.
  2. Достоверность. Интерпретация сигнала контекстом не должна давать ложную информацию («правда» и «ложь» — понятия, применимые к информации, но неприменимые к материальным объектам).
  3. Объективность. То же самое, что и достоверность, но с акцентом на то, что сигнал может являться результатом работы другого контекста. Если контекст, пытающегося получить информацию, и контекст-посредник не имеют взаимопонимания (в первую очередь по преследуемым целям), то достоверности информации не будет.
  4. Полнота. Сигнал есть, объективный, достоверный, но контексту для обретения полноценной информации его не достаточно.
  5. Ценность (полезность, значимость). Сигнал есть, а подходящего контекста нет. Все слова понятны, но смысл не улавливается.
  6. Доступность. Характеристика сигнала. Если сигнал добыть невозможно, то даже наличие самого прекрасного подходящего контекста не поможет информации возникнуть. Например, любой легко бы придумал, что можно сделать с точными данными о том, как закончится завтрашний футбольный матч. Но, к сожалению для многих, этот сигнал появится только после окончания матча, то есть тогда, когда его полезность и значимость будут уже далеко не те.


На мой взгляд, перечисленные выше свойства больше напоминают не свойства, а список возможных неисправностей. Свойства — это всё-таки должно быть чем-то таким, что описывает то, что нам можно ждать от рассматриваемого предмета, а на что можно не рассчитывать. Давайте попробуем вывести из конструкции «сигнал + контекст» хотя бы несколько очевидных следствий, которые, собственно, и будут свойствами не конкретно взятой информации, а информации вообще:

  1. Субъективность информации. Сигнал может быть объективен, но контекст всегда субъективен. Следовательно, информация по природе своей может быть только субъективна. Про объективность информации можно говорить только в том случае, если удалось обеспечить единство контекста у разных субъектов.
  2. Информационная неисчерпаемость сигнала. Один и тот же сигнал, попадая в разные контексты, даёт разную информацию. Именно поэтому можно, время от времени перечитывая любимую книгу, каждый раз обретать что-то новое.
  3. Закона сохранения информации не существует. Совсем не существует. Нам нравится, когда предметы, которыми мы оперируем, строго подчиняются законам сохранения и не склонны появляются из ниоткуда, и уж тем более не имеют обыкновения исчезать в никуда. Информация, к сожалению, к таким предметам не относится. Мы можем рассчитывать на то, что законам сохранения может подчиняться только сигнал, но внутри сигнала информации нет и быть не может. Нужно просто свыкнуться с мыслью о том, что в нормальном режиме информация именно приходит из ниоткуда и уходит в никуда. Единственное, что мы можем сделать для того, чтобы её хоть как-то удержать — это позаботиться о сохранности сигнала (что, в принципе, не проблема), контекста (что намного сложнее, поскольку он штука изменчивая) и воспроизводимости ситуации попадания сигнала в контекст.
  4. Информация всегда является полной и безраздельной собственностью того субъекта, в контексте которого она случилась. Книга (физический предмет) может быть чьей-то собственностью, но мысль, рождаемая её прочтением, всегда является безраздельной собственностью читателя. Впрочем, если узаконить частную собственность на души других людей, то можно будет узаконить и частную собственность на информацию. Сказанное, впрочем, не отменяет права автора считаться автором. Особенно, если это правда.
  5. Сигналу не могут быть приписаны характеристики, применимые только к информации. Например, характеристика «истинность» может быть применена только к информации, то есть к сочетанию сигнала с контекстом. Сам сигнал не может быть ни истинным, ни ложным. Один и тот же сигнал в сочетании с разными контекстами может давать в одном случае истинную информацию, а в другом случае ложную. У меня для адептов «книжных» религий две новости: одна хорошая, а другая плохая. Хорошая: их священные книги не являются ложью. Плохая: истины они в себе тоже не содержат.


Для ответа на вопрос «где существует информация?» без применения двухкомпонентной сигнал-контекстной конструкции приходится использовать следующие популярные подходы:

  1. «Информация может существовать в материальных объектах». Например, в книгах. При доведении этого подхода до логической полноты неизбежно приходится признавать существование «инфорода» — тонкой субстанции, присутствующей в книгах помимо волокон бумаги и кусочков краски. Но мы знаем, как изготавливаются книги. Мы точно знаем, что никакая магическая субстанция в них не заливается. Присутствие тонких субстанций в предметах, используемых нами для обретения информации, противоречит нашему повседневному опыту. Сигнал-контекстная конструкция прекрасно обходится без тонких субстанций, но при этом даёт исчерпывающий ответ на вопрос «зачем для чтения книги нужна собственно книга».
  2. «Мир пронизан информационными полями, в тонкую структуру которых записывается всё, что мы знаем». Красивая и весьма поэтичная идея, но если так, то не понятно, зачем для чтения «Гамлета» нужен томик «Гамлета». Он что, работает как антенна, настроенная на специфическую Гамлетовскую волну? Мы знаем, как изготавливаются томики «Гамлета». Нам точно известно, что никаких детекторных схем, настраиваемых на приём потусторонних полей, в них не встраивается. Сигнал-контекстной конструкции не нужны никакие допущения о существовании параллельных невидимых миров. Она прекрасно обходится без этих лишних сущностей.
  3. «Информация может существовать только в наших головах». Очень популярная идея. Самый коварный и живучий вариант реификации. Коварность его объясняется в первую очередь тем, что никакого стройного понимания того, что происходит в наших головах, наука пока не выработала, и во мрак этой неизвестности бывает удобно прятать любые недодумки. В нашем большом и разнообразном мире бывает так, что человек пишет произведение, а потом, не успев никому его показать, умирает. А потом, по прошествии лет, рукопись находят на чердаке, и люди узнают то, о чём ни один из них всё это время не знал. Если информация может существовать только в головах, то как она может перескочить тот период времени, когда нет ни одной головы, которая ею владеет? Сигнал-контекстная конструкция объясняет этот эффект просто и естественно: если сохранился сигнал (рукопись на чердаке) и не окончательно утерян контекст (люди не разучились читать), то информация не потеряна.


Давайте посмотрим, как в идею сигналов и контекстов укладывается то, что происходит при передаче информации. Казалось бы, должно происходить нечто удивительное: на стороне передатчика информация есть, потом передатчик отдаёт приёмнику сигнал, в котором информации нет, и уже на стороне приёмника информация снова есть. Предположим, Алиса намерена попросить Боба что-то сделать. Сразу заметим, что Алиса и Боб совсем не обязательно должны быть живыми людьми. Алиса может быть, например, сервером бизнес-логики, а Боб — сервером базы данных. Суть происходящего от этого не меняется. Итак, Алиса имеет информацию, которая, конечно же, есть внутри неё сочетание сигнала и контекста. Имея эту информацию, а также информацию о том, какие сигналы умеет принимать и интерпретировать Боб, она производит в материальном мире некоторое изменение (например, пишет записку и прикрепляет магнитиком на холодильник или, если Алиса и Боб являются серверами, то задействует сетевую инфраструктуру). Если Алиса не ошиблась насчёт Боба, то Боб принимает сигнал в свой имеющийся у него контекст и обретает информацию о том, чем ему теперь следует заняться. Ключевой момент — общность контекста. Если мы говорим о людях, то общность контекста обеспечивается наличием общего языка и вовлечённостью в совместную деятельность. Если мы говорим о серверах, то общность контекстов реализуется через совместимость протоколов обмена данными. Именно общность контекстов позволяет информации как будто перепрыгнуть тот участок пути, где она существовать не может, и оказаться на стороне приёмника. Вообще говоря, информация, конечно, никуда не прыгает. О том, что Алиса обладает той же самой информацией, что и Боб, можно говорить только в том случае, если они обладают неразличимо одинаковыми сигналами и неразличимо одинаковыми контекстами. В жизни людей такого не бывает. Увидеть зелёный цвет так же, как его видит другой человек, невозможно, но возможно между собой договориться, что такой цвет мы между собой будем обозначать сигналом «зелёный».

Сигнал-контекстная конструкция — не совсем новость для мировой философии. Ещё 250 лет тому назад Иммануил Кант писал о том, что «наше знание (информация? ) хоть и проистекает из опыта (сигнал? ), но совершенно невозможно без наличия у познающего субъекта априорного знания (контекст? )».

Измерение информации


Измерение информации в битах — любимое дело. Невозможно отказать себе в удовольствии порассуждать об этом, попутно примерив методику подсчёта к ставшей нам известной и, надеюсь, понятной сигнал-контекстной конструкции.

Если вспомнить классическую теорию информации, то обобщённая формула, по которой вычисляется количество информации (в битах), выглядит следующим образом:

2e57fb6fffae4a4aa0be2aeba57c7371.png


где n — количество возможных событий, а pn — вероятность n-го события. Давайте подумаем, что в этой формуле к чему с точек зрения приёмника и передатчика. Передатчик может рапортовать, например, о ста событиях, из которых первое, второе и третье имеют вероятность по 20%, а оставшиеся 40% равномерно размазаны по остальным девяноста семи событиям. Нетрудно посчитать, что количество информации в рапорте об одном событии с точки зрения передатчика равно примерно 4.56 бит:
I = — (3 × 0.2×log2(0.2) + 97 × (0.4/97)×log2(0.4/97)) ≈ — (-1,393156857 — 3,168736375) ≈ 4.56

Не удивляйтесь, пожалуйста, дробному результату. В технике, конечно, в таких случаях приходится округлять в большую сторону, но точная величина тоже часто бывает интересна.

Если приёмник ничего не знает о распределении вероятностей (а откуда ему знать?), то с его точки зрения количество получаемой информации равно 6.64 бит (это тоже можно легко посчитать по формуле). Теперь представим себе ситуацию, что для нужд приёмника интересны только события номер 1 («казнить»), 2 («помиловать») и 100 («наградить орденом»), а всё остальное — это не интересное «прочее». Допустим, у приёмника уже есть статистика по предыдущим эпизодам, и он раскладки вероятностей знает: казнить — 20%, помиловать — 20%, наградить орденом — 0.4%, прочее — 59.6%. Считаем, получаем 1.41 бит.

Разброс получился существенный. Давайте поищем объяснение этому феномену. Если вспомнить, что информация — это не есть только лишь один объективно существующий сигнал, а сочетание «сигнал + контекст», то становится совсем не удивительно, что количество информации, возникающей при получении сигнала, также должно получаться контекстно-зависимым. Таким образом, имеем неплохое согласование сигнал-контекстной концепции с математической теорией информации.

Величина «I», вычисляемая через рассмотренную формулу, обычно используется для решения следующих задач:

  1. Для конструирования среды передачи данных. Если задача кодирования сформулирована как «отдать всё, что есть, но сделать это максимально эффективно», то при решении её для случая, описанного в рассмотренном примере, нужно ориентироваться на величину 4.56 бит. То есть постараться сделать так, чтобы в среднем миллион циклов передачи максимально близко укладывался в 4 561 893 бит. На то, что получится ужаться в меньший объём, рассчитывать не стоит. Математика неумолима.
  2. Для понимания, насколько уменьшается неопределённость получателя при поступлении сигнала. Считается, что поступление информации уменьшает информационную энтропию приёмника на величину своего количества. Если рассматривать количество информации в этом смысле, то правильными ответами в зависимости от свойств приёмника будут 6.64 и 1.41 бит. Величина 4.56 тоже будет правильным ответом, но только в том случае, если приёмнику интересны все события и ему заранее известны их вероятности.


В подавляющем большинстве случаев, когда мы говорим о битах, байтах, мегабайтах или, например, гигабитах в секунду, мы ориентируемся на первую трактовку. Нам всем гораздо больше нравится пользоваться широкополосным Интернетом, чем чахлым dial-up-соединением. Но иногда бывает так, что нам приходится полдня просидеть в Интернете, прочитать гору текстов и просмотреть кучу видеороликов только для того, чтобы наконец-то получить на интересующий нас вопрос простой бинарный ответ в стиле «да или нет». При этом наша неопределённость уменьшается не на те десятки гигабайт, которые нам пришлось к себе прокачать, а всего лишь на один бит.

Энтропийная трактовка природы информации вызывает больше вопросов, чем даёт ответов. Даже с чисто житейской точки зрения мы видим, что минимальная неопределённость наблюдается у тех сограждан, которые не прочитали ни одной книжки, и все познавательные контакты которых с внешним миром ограничиваются просмотром телесериалов и спортивных передач. Эти уважаемые субъекты пребывают в полной счастливой определённости по всем мыслимым вопросам мироздания. Неопределённость появляется только с расширением кругозора и приобретением пагубной привычки задумываться. Ситуация, когда получение информации (чтение хороших умных книжек) увеличивает неопределённость, невозможна с точки зрения энтропийной теории информации, но с позиций сигнал-контекстной теории это вполне рядовое явление.
Действительно, если результатом принятия сигнала становится формирование нового контекста, то для его прокорма нам нужны всё новые и новые сигналы, которые удовлетворят этот контекст, но побочным действием могут сформировать новый первозданно голодный контекст. Или даже несколько.

Не меньше удивления вызывают рассуждения о том, что информация может быть как-то связана с упорядоченностью (если энтропия — это мера хаоса, то негэнтропия, то есть информация, должна быть мерой упорядоченности). Давайте рассмотрим следующие последовательности нулей и единиц:

  1. 0000000000000000000000000000000000000000. Идеальный порядок в стиле «мечта хозяйки». Но информации здесь нет, как нет её на чистом листе бумаги или только что отформатированном жёстком диске.
  2. 1111111111111111111111111111111111111111. По сути, то же самое.
  3. 0101010101010101010101010101010101010101. Уже интереснее. Порядок остался идеальным, информации по-прежнему не густо.
  4. 0100101100001110011100010011100111001011. Это я не поленился побросать монетку. 0 — орёл, 1 — решка. Бросать старался честно, и поэтому можно предположить, что получился идеальный беспорядок. Есть ли здесь информация? А если да, то о чём? Напрашивается ответ «обо всём», но если так, то как её извлечь в пригодном к использованию виде?
  5. 1001100111111101000110000000111001101111. Аналогично монетке, но только через генератор псевдослучайных чисел.
  6. 0100111101110010011001000110010101110010. Тоже похоже на такую же случайную ерунду, но это не она. Ниже скажу, что это.


Если убрать текстовые комментарии и загадать загадку, что из этого могло быть результатом бросания монетки, то первые три варианта отпадут сразу. 5-й тоже под подозрением, потому что единиц больше, чем нулей. Это неправильное рассуждение. При честном бросании монетки выпадение всех этих вариантов имеет одинаковую вероятность, равную 2–40. Если я продолжу бросать монетку без сна и отдыха в надежде воспроизвести хотя бы один из шести представленных вариантов, то можно ожидать, что если мне повезёт, примерно через сто тысяч лет мне это удастся. Но какой конкретно из этих вариантов воспроизведётся первым, предсказать невозможно, поскольку они все равновероятны.

Шестым пунктом, кстати, представлено слово «Order» (то есть «порядок») в восьмибитном ACSII-коде.

Получается, что информации нет ни в идеальном порядке, ни в идеальном беспорядке. Или всё-таки есть? Представьте себе, что идеально беспорядочная последовательность нулей и единиц (№4), получена путём бросания монетки не мной, а сотрудником шифровального центра вражеской армии, и сейчас используется как кусок секретного ключа, которым шифруются депеши. В этом случае эти нолики и единички сразу перестают быть бессмысленным цифровым хламом, и сразу становятся суперважной информацией, за которую дешифровальщики будут готовы продать душу. Ничего удивительного: сигнал обрёл контекст, и, таким образом, стал весьма информативным.

У меня нет ни малейшего желания утверждать, что энтропийная теория информации полностью не верна. Есть ряд узкоспециальных применений, в которых она даёт адекватный результат. Нужно просто чётко понимать границы её применимости. Можно предположить, что одним из ограничений должно стать требование, чтобы принимаемый сигнал не приводил к формированию контекста. В частности, этому критерию соответствует большинство средств связи. О выделении сигнала из шума действительно можно говорить как о борьбе с энтропией.

Измерение информации имеет ещё один аспект, о котором лучше не забывать. Результатом любого единичного измерения является число. В нашем случае это биты, байты, гигабайты. Получив число, мы обычно рассчитываем на то, что дальше сможем им привычным нам образом оперировать. Сравнивать на «больше/меньше», складывать, умножать. Рассмотрим два примера применения операции «сложение» к количествам информации:

  1. Есть две флешки. Первая — 64 ГБ, вторая — 32 ГБ. Итого у нас есть возможность записать на них 96 ГБ. Всё так, всё честно и корректно.
  2. Есть два файла. Первый — 12 МБ, второй — 7 МБ. Сколько у нас всего информации? Рука тянется сложить и получить 19 МБ. Но не будем спешить. Для начала скормим эти файлы архиватору. Первый файл сжался до 4 МБ, второй до 3 МБ. Можем ли мы теперь сложить числа и получить суммарный истинный объём имеющихся данных? Я бы предложил не спешить и посмотреть глазами на содержимое исходных файлов. Смотрим и видим, что всё содержимое второго файла имеется в первом файле. Получается, что размер второго файла вообще нет смысла прибавлять к размеру первого. Если бы первый файл был другим, тогда сложение имело бы смысл, но в данном конкретном случае второй файл ничего к первому не прибавляет.


С точки зрения количества информации очень интересной получается ситуация с квайнами — программами, одной из функций которых является выдача собственного исходного кода. Кроме этой функции такая программа может содержать в себе что-нибудь ещё: какой-нибудь полезный алгоритм, тексты, изображения и тому подобное. Получается, что внутри программы есть это «что-то ещё», и в довесок к этому, есть она же сама, внутри себя содержащая ещё раз всю саму себя целиком плюс то самое «что-то ещё». Это можно выразить вот такой формулой: A = A+B, где B не равно нулю. Для аддитивных величин такое равенство существовать не может.

Таким образом, с количеством информации получается очень странная ситуация. Можно сказать, что количество информации — условно-аддитивная величина. То есть в некоторых случаях мы имеем право складывать имеющиеся числа, а в некоторых — нет. Когда речь идёт о ёмкости канала передачи данных (в частности, флешка вполне может рассматриваться как канал передачи данных из прошлого в будущее), то сложение корректно, а при «взвешивании» конкретного сигнала мы получаем величину, возможность сложения которой с другими ей подобными величинами определяется внешними факторами, о существовании которых мы можем даже не знать. Например, об информационной ёмкости генома человека (ДНК можно рассматривать как среду передачи данных, и, насколько мне известно, есть группы исследователей, пытающиеся сконструировать накопители на основе ДНК) говорить можно, и она равна примерно 6.2 Гбит, но любой ответ на вопрос «сколько информации записано конкретно в моём геноме?» будет бессмысленным. Максимум, что можно утверждать — это то, что какая бы методика подсчёта ни была применена, результат не может превышать те самые 6.2 Гбит. Или, если реальность вдруг такова, что нужно учитывать не только последовательность нуклеотидных оснований, то может. Если же говорить об общем количестве информации, содержащейся в живой клетке, то, по-видимому, ответ на этот вопрос вообще не может быть получен в силу хотя бы того, что сама по себе клетка является живым существом, а не средой передачи данных.

В завершение темы «измерение информации» хотелось бы ввести понятие «класс информативности», позволяющий оценить объём информации если не количественно, то хотя бы качественно:

  1. Конечная информативность — ситуация, когда весь необходимый контексту сигнал может быть закодирован дискретной последовательностью конечной длины. Именно для таких ситуаций применимо измерение информации в битах. Примеры:
    • Текст «Гамлета».
    • Все дошедшие до нас тексты, когда-либо сочинённые человечеством.
    • Информация в геноме.

    Имеющиеся сейчас информационные технологии работают именно с конечными информативностями.
  2. Бесконечная информативность — ситуация, когда для кодирования сигнала требуется дискретная последовательность бесконечной длины, и любое ограничение («сжатие с потерями») до конечной длины неприемлемо. Пример: данные о положении шаров, которые нужно сохранять при идеальном моделировании бильярда с тем, чтобы если потом запустить процесс в обратном направлении, сложилась исходная позиция. В данном случае скорости и положения шаров нужно иметь с бесконечной точностью (бесконечное количество знаков после запятой) так как в силу имеющихся сильных нелинейностей ошибка в любом знаке имеет свойство накапливаться и приводить к качественно другому результату. Аналогичная ситуация возникает при численном решении нелинейных дифференциальных уравнений.

    Несмотря на кажущуюся запредельность, нет никаких фундаментальных причин тому, чтобы с развитием технологий мы не обрели средства, позволяющие работать с бесконечными информативностями.

  3. Неразрешимая информативность — ситуация, при которой требуемые данные не могут быть получены никаким способом в силу фундаментальных ограничений либо физического, либо логического характера. Примеры: