Сознание и тезис Макса Фрая

КДПВ

С древних времен считалось, что в феномене сознания есть что-то непонятное. Что-то непостижимое. Считалось, что сознание есть проявление нематериального, привнесенного высшими силами. Если для мифологического мировосприятия такой порядок вещей естественен, то со сменой парадигм и зарождением естествознания феномен сознания потребовал объяснения.

Естествоиспытатели чувствовали, что мир подчиняется определённым законам, но отсутствие достаточной информации не позволяло сразу перейти от мифологического мировоззрения к научному. Машинерия мира поддерживалась богами и духами. Ремесленники и механики прибегали к методам одобренным небесными покровителями и если работа была сделана правильно то и результат выходил достойным. Технология являлась магическим ритуалом. Даже то, что большинство проявлений природы можно логично описать материальными причинами, было далеко не очевидным.

Однако с течением времени наблюдений копилось всё больше, а необходимость в богах становилась всё меньше. Процесс шёл постепенно и не быстро, что выразилось в долгих веках господства концепции дуализма бытия [1]. Мир разделён на материальное и нематериальное, то есть на то, что мы можем объяснить без божественного проявления и то, чего без божественного проявления мы объяснить не можем. В этой парадигме нематериальное существует как-бы само по себе. Сознание — феномен, который крайне плохо поддаётся материалистическому осмыслению очевидно должен быть привнесён из нематериального мира. Из принадлежности сознания к миру идеального логично вытекает идея возможности существования души вне тела, откуда не сложно довести рассуждение до концепции бессмертия души.

Влияние материализма росло, но пока боги лакун отступали за горизонт, твёрдый камешек сознания не желал трогаться с места. Шли годы. Пролетела эпоха географических открытий, отгремела промышленная революция.

Попытки физиологов найти в мозге исток сознания давали противоречивые и странные результаты. Складывалось впечатление, что хотя именно мозг продуцирует сознание, но сознание не локализовано в мозге, а как бы распределено в нем, причем в одном мозге может обитать несколько не связанных друг с другом сознаний и более того, сознание может расщепляться прямо по ходу пьесы. Наиболее значительные физиологические результаты удалось получить из исследований пациентов с теми или иными нарушениями работы мозга. Инцидент Г.М. [2] доказал, что функция долговременной памяти реализуется мозгом, а исследования пациентов с рассечёнными мозолистыми телами показали, что с двумя разделёнными полушариями мозга можно поговорить независимо [3]. Эксперименты показывали что сознанию свойственно патологически искажать реальность. Выяснилось, что сознание не в ладах со временем, неадекватно оценивает пространство, дорисовывает то, чего не видят глаза и не слышат уши, игнорирует объекты под собственным носом, может прямо по ходу дела править собственную память и вообще ведёт отнюдь не так просто, как нам бы хотелось.

Развитие информатики и задача искусственного интеллекта ставили вопрос ребром. Не далёк день, когда компьютер заявит свои интеллектуальные права на научное исследование, а мы до сих пор не сошлись, может ли у куска кремния быть душа и на каком основании выдавать роботу гражданство?

Алан Тьюринг в статье «Вычислительные машины и разум» (1950 г.) [4] предложил вместо вопроса о наличии или отсутствии у машины способностей к мышлению рассмотреть вопрос о том, "может ли вычислительная машина достойно играть в имитацию", который в силу универсальности вычислительных машин сводит к вопросу:


Если взять только одну конкретную цифровую вычислительную машину Ц, то спрашивается: справедливо ли утверждение о том, что, изменяя емкость памяти этой машины, увеличивая скорость ее действия и снабжая ее подходящей программой, можно ли заставить Ц удовлетворительно исполнять роль А в „игре в имитацию"? (Где А — это человек)

Из текста работы не совсем понятно, как соотносятся понятия "мышление", "интеллект" и "сознание", но по прочтении работы возникает ощущение, что по Тьюрингу эти понятия в достаточной степени тождественны.

Статья Тьюринга утвердила в кибернетике то, что сейчас принято называть бихевиористическим подходом, при котором наличие или отсутствие у объекта интеллекта или сознания оценивается только и исключительно по поведению объекта.

Спустя 30 лет Джон Сёрл формулирует тезис "китайской комнаты" [5], в котором указывает на то, что между разумным поведением и наличием интеллекта может не быть прямой связи. Тезис Сёрла породил большую волну обсуждения и по-видимому, не всегда был правильно понят. Критика тезиса сводится к тому, что хотя сам исполнитель может не понимать сути работы, но вся система из комнаты, исполнителя и инструкции может иметь осмысление ведущегося диалога, а значит тезис китайской комнаты ничего не показывает. Возможно, тезис следовало бы переформулировать в более крайнем не допускающем трактовок правил варианте: Пусть инструкция представляет собой достаточно длинный условный автомат с тривиальным состоянием в виде запомненной последовательности входных данных. Подобные конструкции мы используем повсеместно в инженерной практике, например при парсинге пакетов в сетевых протоколах. Такой автомат может играть в имитацию, хотя язык не поворачивается назвать его разумным. Автомат не покроет всех возможных вариантов развития событий, но при достаточной длине и вложенности switch-case-if-else конструкции может с высокой вероятностью обманывать экзаменатора разумное время. То есть, за разумное конечное время экзаменатор не сможет распознать подвох, если условная конструкция будет правильно спроектирована, а экзаменатор не будет осведомлён о принципе её работы. Это показывает, что хорошей игры в имитацию недостаточно для обладания сознанием или же интеллектом.

Очевидным способом построения системы, способной решить тест Тьюринга является копирование человеческого мозга. Человечество так и не сошлось во мнении возможно ли реализовать процессы происходящие в мозге на иной вычислительной архитектуре. Невозможность реализации на иной архитектуре, представляющей универсальную машину Тьюринга означала бы, что в мозге есть что-то вне теории алгоритмов. Таких механизмов в мозге до сих пор не нашли и пока нам придётся руководствоваться тем, что всё что происходит в мозге, может быть при должном старании, объёмах памяти и быстродействии промоделировано на компьютере. Возражение о том, что мозг принципиально аналоговый или принципиально импульсный отвергаются тем соображением, что дискретная система может имитировать аналоговые и импульсные системы с любой наперёд заданной точностью. Но будет ли дискретная копия мозга обладать сознанием?

На сегодняшний день исследователи так и не выработали принципиальной позиции по вопросу того, что есть такое сознание. Невозможность формализовать сознание дошла до крайних форм, в которых утверждается, что сознания вообще не существует. Этот тезис выдвигается крайне авторитетными и известными широкой публике людьми, такими как философ Дениел Деннет [6]. Тезис может казаться парадоксальным и явно противоречит субъективному опыту того, кто прямо сейчас читает этот текст. Но вывод этот, на самом деле предельно логичен и является следствием применения научного метода к вопросу сознания. Научный метод не приемлет субъективных оценок, а о наличии сознания мы знаем только из субъективных ощущений. У нас есть довольно богатый опыт научных опровержений субъективных, не подтверждаемых объективными фактами, переживаний. Так почему бы сознанию не последовать за прочими, переставшими быть актуальными метафизическими концептами?


Способ, которым не существует сознание.

Прежде всего, надо уточнить значение слова "существование". Джордж Беркли (1685 — 1753), человек, который, по видимому, лучше прочих прочувствовал значение бытия, сказал: "существовать — значит быть воспринимаемым". Это солипсистическое утверждение и оно более подходит к субъективному восприятию, которое плохо вяжется с научным методом. Если воспользоваться этим же определением, но переформулировать его относительно объективных явлений, это будет звучать как: "существовать — значит быть объективно наблюдаемым". Это определение существования через возможность наблюдения. Мы можем пронаблюдать, как работает мозг, но объективно пронаблюдать, зарегистрировать датчиками, записать на плёнку работу сознания мы не можем. Значит объективно сознание не существует.

В одной из книг о конструкторах Трурле и Клопауции, "Путешествие третье, или Вероятностные драконы" [7], Станислав Лем даёт введение в общую теорию драконов:


Как известно, драконов не существует. Эта примитивная констатация может удовлетворить лишь ум простака, но отнюдь не ученого; банальность бытия установлена слишком давно и не заслуживает более ни единого словечка. Гениальный Цереброн Эмдеэртий, атаковав проблему методами точных наук, установил, что имеется три типа драконов: нулевые, мнимые и отрицательные. Все они, как было сказано, не существуют, однако каждый тип — на свой особый манер. Мнимые и нулевые драконы, называемые на профессиональном языке мнимоконами и нульконами, не существуют значительно менее интересным способом, чем отрицательные.

Очевидно, что сознание — это нечто сродни отрицательному дракону. Раз оно не существует, но мы тысячи лет продолжаем ломать копья при его обсуждении, то очевидно, не существует оно крайне элегантным и интересным способом.

Проведём мыслительный эксперимент. Пусть существует мир, тождественный нашему, и населённый философскими зомби. То есть, людьми, не обладающими феноменом самопереживания. Но при этом поведение этих людей полностью тождественно нашему. Допустим я живу в этом мире, я философ и хочу написать книгу о том, как я, наблюдаю и чем руководствуюсь в своих поступках. Я сажусь к своему столу и начинаю описывать:

Когда я смотрю в каком-либо направлении, я получаю некоторую информацию, складывающуюся в образы предметов окружающих меня. Если случается предмету упасть, я регистрирую информацию об этом в виде некоторого звукового ряда. Я обладаю знанием геометрического пространства вокруг себя и потому не натыкаюсь на препятствия. Но постойте… Уж не феномен ли субъективного переживания сознания я описываю?

хехехе

Философский зомби противоречив. Если бы он не имел сознания, он бы не смог описать своего восприятия, то есть его поведение отличалось бы от поведения человека. Как можно описать то, о чем не знаешь? То, что не влияет на твоё поведение описать невозможно, потому что описать — это поведение. Конечно есть вариант, что зомби — патологический лжец и заранее знает что нужно писать, хотя реально ничего субъективно не испытывает, но такое условие уводит нас от вопроса возможности существования эквивалента человека без сознания к задаче построения хорошо обманывающего зомби (см. тезис Сёрла) и никуда дальше не ведёт. Нас интересует другой тип зомби, а именно тот, которому есть что писать.

Я утверждаю, что для того, чтобы решить задачу написания книги о своих субъективных переживаниях, нужно строго однозначно обладать субъективными переживаниями своих субъективных переживаний. То есть, самосознанием. Это значит, что если робот сможет рассказать о том, как он воспринимает мир и принимает решения, не обращаясь при этом к заранее заготовленным ответам, то такой робот должен будет обладать самосознанием. Иначе, что он описывает?

Давайте возьмём гипотетического робота с искусственным интеллектом (ИИ) и от лица безумного ученого (БУ) позадаём ему вопросы:
БУ: Что такое свет?
ИИ: Светом называют оптическое излучение, то есть такое электромагнитное излучение, длины волн которого лежат в диапазоне с приблизительными границами от единиц нанометров до десятых долей миллиметра.
БУ: Как ты сформулировал это определение?
ИИ: Отправил запрос в энциклопедию.
БУ: Как ты отправил запрос?
ИИ: Воспользовался протоколами передачи данных.
БУ: Как ты воспользовался протоколами?
ИИ: Эмм...

Реализация машинных алгоритмов выполняется в виде некоего кода, программы, но робот в общем случае не обладает доступом к своему коду. Рано или поздно находится уровень, работу которого аналитическая машина робота перестаёт понимать. Мы можем видеть на экране отладчика, как формируются образы, анализируются слова, из каких посылок проистекают движения и как формируются ответы на вопросы. Аналитический аппарат робота имеет лишь часть этой информации. Виртуальная машина, не тождественна своей реализации.

Но аналитический аппарат умён!!! О да, он очень умён. И он находится в замешательстве, что каким-то образом совершает действия в реальном мире, не имея представления о том, как он это делает. И тогда он задаёт вопрос:

ИИ: "Как так получается, что мне нужно поднять руку, и она поднимается? Как формируемые мной желания влияют на физическую реальность?"

Интересно вспомнить, как работает периферия созданных человечеством процессоров. Микроконтроллеры предназначены для управления физическими процессами. Однако, исполняют они программу, то есть информационную сущность. Часто можно видеть удивление на лице человека, только начавшего изучать микроконтроллерную технику: "Каким образом программа на языке си может влиять на то, когда и как зажигается светодиод, ведь в системе команд процессора нет команды зажечь светодиод?". Вопрос действительно нетривиальный. Программа — это нечто сферическое в вакууме, существующее в своём собственном виртуальном пространстве, порождённом, например, архитектурой фон Неймана. В виртуальном пространстве нет понятия внешнего мира, оно замкнуто в себе. Великие предки решили эту проблему так. Пусть некоторые области виртуальной памяти программы имеют специальный смысл. Если мы пишем специальные последовательности байт в эти ячейки, то архитектура воспринимает это как команду на взаимодействие с внешним миром. Программа устанавливает бит в ячейке памяти и светодиод загорается. Обратный поток информации реализуется также через области памяти.

Можно заметить, что аналогия с работой сознания практически полная. Продуцируемые сознанием утверждение, мысль, мыслеобраз определённого вида приводят в движение средства взаимодействия с реальностью.

Но продолжим пытать нашего робота. Давайте спросим его:
БУ: Как ты понимаешь, что тебе пора заряжаться?
ИИ: Я заряжаюсь, когда степень моего заряда падает.
БУ: Но как ты понимаешь, что заряд упал.
ИИ: Я получаю данные о заряде.
БУ: Как ты их получаешь?
ИИ: Эмм...

Аналитический аппарат не может детально описать свою внутреннюю работу. У него нет информации. Если вы продолжите задавать роботу вопросы на разные темы, посвещённые его взаимодействию с самим собой, вы придёте к выводу, что он каким-то образом, но воспринимает себя, причём форма этого восприятия — весьма далека от той, что прописана в коде.

По видимому, достаточным условием феномена субъективного переживания является то, что у нашего робота есть некоторое упрощенное представление о себе, не как о физическом объекте, но как о системе принятия решений и анализа информации. Учёт модели принятия решений при принятии решений важная задача. Учет модели собственного поведения вполне способен спасти объект управления в сложных ситуациях, а потому эволюционно оправдан. Эта система позволяет оценивать собственное поведение через оценку собственного поведения через оценку собственного поведения. И где-то здесь в контекст изложения прорывается архетип одного любопытного персонажа, имя которого вынесено в заголовок статьи.

Макс Фрай [8] — персонаж серии вирусных книг, писательницы, выступающей под омонимичным псевдонимом Макс Фрай. По ходу сюжета этого бесконечного ветвящегося трансцендентного зацикленного в самом себе повествования, Макс пишет книгу о самом себе, чем себя самосочиняет и самосоздаёт, рекурсивно вызывая к жизни качественный результат в виде существа по имени Макс Фрай. И это, конечно, крайне запущенная метафора, воспринять которую вне субъективного психоделического опыта с позиции объективизма совершенно невозможно. Ну, а никто, собственно и не обещал, что будет просто.

Эшер

И что же всё это значит? Это значит, что самосознание присуще любой системе управления, склонной к саморефлексии, если она обладает внутри себя своей упрощенной моделью и пытается строить прогнозы на её основе.

Вывод строится на принципе "Что-то есть, поскольку этого чего-то не может не быть". Мы показали, что какое-то самоощущение должно быть. Роботу придётся построить модель своего процесса принятия решений, исходя из которой он будет отвечать на наши вопросы. Объективно это не приведёт к качественному изменению. Да, внутри у него есть какая-то модель себя. Просто еще одна модель внутри модели. С объективной точки зрения — совершенно ничего интересного, но субъективно, робот имеет механизм оценки себя как некоего наведённого образа. Робот может получить доступ к отладчику и в деталях изучить процесс того, как он работает. Он будет видеть на картинке зарождение образа удивления и отмечать возникновение удивления в своём субъективном переживании. С объективной же точки зрения — просто модель изучает то, как она сама же работает.

Хотя сознание и не проявляется объективно, можно, тем не менее определить, какие части вычислительной системы участвуют в проецировании феномена сознания, а какие нет. То есть в объективном мире сознание представлено своим носителем в виде вычислительной структуры. Если структура уничтожается, то феномен собственного субъективного переживания объекта также завершается, поскольку больше нет объекта и факта наблюдения.

Из осознания системой себя следует и осознание окружающего мира в рамках того же способа. То есть, сознание. Тут всё перевёрнуто вверх ногами, поскольку обычно считается, что сознание требует более слабых условий, чем самосознание и это вполне может быть так, но если уж есть самосознание, то и сознание должно появится. Существование самосознания является достаточным условием для существования сознания.

Давайте еще раз, потому что это сложно. Самосознание существует как субъективный феномен восприятия себя как вычислительной системы при решении задачи анализа своего предыдущего и прогноза своего будущего поведения, самоподдерживается путём наблюдения самой себя, и порождает фактом своего существования феномен сознания.


Сознание и антропный принцип.

На язык просится возражение. С сознанием и способностью системы к самонаблюдению вроде бы всё понятно. У систем должна быть способность к самонаблюдению. Робот должен как-то оценивать ту систему, с помощью которой он как-то оценивает. Но при чем здесь мы и те красивые картинки, которые составляют сущность нашего с вами восприятия?

Давайте спросим нашего робота. В какой-то момент времени наш абстрактный робот, устав от бесконечного самокопания, не в силах понять, что он собственно такое, идёт на форум и задаёт вопрос:

ИИ: Хорошо. В теории всё понятно. У систем должна быть способность к самонаблюдению. Но при чем здесь я и те красивые картинки, которые составляют сущность конкретно моего восприятия?

Есть одна любопытная теоретическая проблема. Существует огромное количество возможных вариантов выбрать основополагающие физические константы так, чтобы вселенная оказалась крайне негостеприимным местом. Но, как мы видим, константы выбраны так удачно, что великолепно подходят для человеческих существ. Как так получилось?

В 1973 году английский физик Брэндон Картер сформулировал "антропный принцип". Принцип заключается в том, что мы не могли бы задаваться вопросом о том, почему вселенная так к нам благосклонна, если бы она таковой не была. Не было бы нас, и проблемой благосклонности вселенной занимались бы или совсем другие существа, или не занимался бы никто.

К проблеме сознания также уместно применить подобное рассуждение. Мы показали, что что-то внутри объекта должно воспринимать. Так почему бы этому чему-то не быть вами?

На самом деле, здесь действительно есть неразрешённый вопрос. Я знаю, что вы должны воспринимать мир, как и я. Я доказал это своим построением. Я знаю, что до определённой степени наше восприятие совпадает. Я видел это в книге философского зомби, в которую вы записали то, как воспринимаете мир. Но есть вещи, которые вы описать не можете. Например, вы не сможете описать мне, как для вас выглядит красный цвет. Есть много вещей, которые не могут быть изложены в книге философского зомби. Эти вещи объединяются термином "квалиа". "Квалиа" — термин обозначающий то, как вещи выглядят для нас, хотя, за свою историю, он был чрезмерно затаскан и перенасыщен смысловыми интерпретациями. В этой работе утверждается, что изучаемый класс систем должен как-то воспринимать мир, но не указано как именно, и вопрос этот в рамках данного построения неразрешим. По видимому квалиа должно быть, а вот что оно из себя представляет — загадка за семью печатями. Насколько мне известно, удовлетворительного решения пока никто не получил. Мы показали, что сознание влияет на поведение, но квалиа на него не влияет и потому не может быть никоим образом изложено в книге философского зомби. Зомби может описать своё восприятие с точностью до квалиа.

Сознание это не квалиа. Сознание гораздо проще ухватить за шкирку и вытащить на свет. Если мы говорим, что самонаблюдение должно продуцировать сознание, а антропный принцип показывает, что для каждой системы есть некий несчастный, который сидит внутри и это дело воспринимает, то квалиа нам нужно лишь для того, чтобы понять, как конкретно этот несчастный воспринимает. Пока мы установили только качество, но не знаем подробностей. И, судя по всему, пока подробностей не знает никто, а потому оставим этот вопрос философии и займёмся математикой.


Сознание как информация с характером.


Матема́тика (др.-греч. «изучение; наука») — наука об отношениях между объектами, о которых ничего не известно, кроме описывающих их некоторых свойств, — именно тех, которые в качестве аксиом положены в основание той или иной математической теории.

Мы получили, что некоторый феномен существует субъективно в рамках самого себя, но с объективной точки зрения весьма зыбок. На этом, пожалуй бы можно было и поставить точку, поскольку исследование необъективных явлений не основано на фактах, но при внимательном взгляде оказывается, самое интересное только начинается. Действительно, мы имеем некоторый объект. Он, как и все объекты имеет объективное представление в виде реализующей его вычислительной системы и, что его выделяет, обладает некоторыми специальными свойствами субъективного самовосприятия. К числу этих свойств относится ощущение мгновенной целостности и ощущение континуальности во времени. То есть система наблюдает себя как цельный и развивающийся во времени феномен.

Таким образом, это некоторый объект специального вида, над которым можно совершать некоторые операции и оценивать состояние. Так исследуем же его!

Мы воспользуемся следующим методом. Мы будем мысленно проводить действия над объектом, смотреть, что с ним происходит объективно и спрашивать его, что он при этом субъективно переживает, руководствуясь интуитивными соображениями себя, как обладающих сознанием существ. На основе рассмотрения этих результатов постараемся сделать выводы о том, по каким законам этот объект существует и как может быть математически описан.

Нам поможет воображаемый друг:

tsjijqvj9kznxhh_4bhueif6cw8.png

Один из первых выводов, которые нам придётся сделать — сознание независимо от вычислительной платформы, а продуцируется информационным процессом. Действительно. Давайте возьмём биологическое обладающее сознанием существо и начнём по одному заменять его нейроны на небиологические аналоги. Целостность и континуальность сознания при этом не нарушатся, поскольку процесс будет медленным и постепенным. Строго говоря, можно сказать что сознание вообще ничего не заметит.

yjuowfiuk61xsi6ctprvfzarmny.png

Ян Корчмарюк вводит понятие "Сеттлеретика" (от английского «settler» — «переселенец») [9], и в своих работах изучает проблемы личности, психики, методологию переноса сознания в машину с сохранением идентичности и непрерывности. Приведённый пример является предлагаемой сеттлеретикой идеей, и если наша гипотеза о природе сознания верна, идея является вполне рабочей. Осуществляя её можно постепенно стать машиной.

Это показывает, что сознание не привязано к вычислительной платформе, но тогда оно привязано к вычислительному процессу, осуществляемому платформой, а вычислительный процесс есть тип информации.

Норберт Винер вводит определение информации через отрицание: Информация — это то, что не материя и не энергия [10]. Считается, что информация заключена в структуре материи, а также в полях взаимодействий. Выражаясь в структуре, информация допускает некоторые операции, которые не допускают материя и энергия. Например, копирование. Нам известно, что в отличии от материи и энергии, относительно которых выполняются законы сохранения, любая информационная сущность может быть скопирована.

Наши вычислительные системы работают с такими объектами, как файлы и процессы. Мы без труда копируем файлы и клонируем процессы (man fork(2)) и считаем копии практически идентичными. Но как только мы копируем вычислительный объект обладающий сознанием, происходит нечто странное.

njjirrki_uyzcciyro9l3hnubdu.png

Когда объект наблюдает свою копию, он субъективно ощущает, что копия им не является. А!!! Это самозванец!!! Но, при этом, оба объекта ощущают изначально существующий в прошлом объект как свой непосредственный исток.

В чем же проблема. Как одно сознание могло раздвоится? Если мы вернемся к нашему определению и проверим критерии континуальности и мгновенной целостности, то обнаружим, что никаких противоречий нет. Оба объекта континуально наследуют от исходного состояния и являются целостными. И всё-таки кажется, что здесь есть логическая ошибка, потому что наш субъективный опыт кричит о том, что одно сознание двумя стать не может.

Представим мир-симуляцию. Существа, живущие в этом мире занимаются своими важными делами. Они сложны и обладают способностью описывать то, как они воспринимают мир. Мир кажется им реальным и незыблемым. Им даже невдомёк, что системный администратор дядя Вова каждый вечер, уходя домой с работы ставит симуляцию на паузу и включает её только утром пять раз в неделю, поскольку в субботу и воскресение у него выходные.

eyo9kyay6ewa6jmil2inbmzwd3a.png

Давайте заметим, что свойство континуальности и мгновенной целостности при остановке мира не нарушаются. Существа ощущают себя теми же, кем они были до остановки и продолжают свои действия так, как будто никто их не прерывал.

Но рассмотрим другой пример. Это известная диллема телепортации.
Существо входит в телепорт на одной планете, его разбирают, отправляют транспортным лучём и собирают на другой планете, как в сериале Star Trek.

5wchkbaqcp3_tz0mhisekfab52c.png

Континуальность не нарушена. Мгновенная целостность не нарушена. Существо на том конце ощущает себя исходным существом. Но что это… В эксперимент вкралась ошибка и исходное существо не было разобрано.

ywysrygvevjdmy0eprvq26gutri.png

По видимому, и в этом заключается классический взгляд на этот вопрос, актом телепортации мы просто убили исходное существо, а на другой планете собрали на основе него некоего гомункулуса, который только думает, что он это исходное существо. Бедняга. Он даже не подозревает, что на самом деле тот, кому принадлежит его память, мёртв.

Сможем ли мы как-то ему помочь? А давайте телепортируем его ровно в ту точку, где он же и находится. Кажется, что ничего не поменялось. Одного убили, второго создали на его же месте. Второй думает, что он был первым.

rzicpeeyurq-e1sjkfd6uaihtc8.png

Но, отличается ли этот пример от примера с остановкой мира? При остановке мира мы сохраняем информацию о симуляции в виде данных на жесткий диск, пересоздаём мир и восстанавливаем данные обратно. Это может быть другой вычислительный кластер, новая версия ПО симуляции. Нарушилось всё, что только можно, кроме континуальности собственного восприятия объектом симуляции. Этот пример мало чем отличается от примера телепортации себя в ту же самую точку пространства. В обоих случаях объект разрушается и создаётся заново.

Между примерами есть одно отличие. В примере с телепортацией объект знает, что нечто происходит, а в примере с остановкой мира — нет.

Есть тезис, согласно которому мы никак не можем проверить, живём ли мы в симуляции. Но мало того, если мы живём в симуляции, у нас нет возможности проверить, не останавливается ли мир каждую минуту на профилактику. Если мир периодически останавливается, то получается, что этот текст начинал читать ваш континуальный предок, а вовсе не вы. Так действует классический подход, но если мыслить сознание как свойство саморефлексии системы, то никакого парадокса тут нет, ведь сознание есть феномен субъективного переживания, а переживание это существует только тогда, когда осуществляется вычислительный процесс.

Возведём пример в абсолют, пусть симуляция сворачивается, архивируется и пересобирается на новой вычислительной машине каждый квант времени.

symv_uwwes7_qwhcamdq03ygheq.png

В такой системе сознание вообще никак не связано с вычислительной машиной. Свойство вычислительной платформы — суть постоянных изменений. Мгновение назад вычисления были квантовыми, теперь нейронными, транзисторными, реализованными на лампах, реализованными в виде процессов ядерного синтеза и распада, построенными на принципах гидравлических систем. Между запусками системы проходит различное время, вычислители строятся и разрушаются, меняются вычислительные блоки, на симуляцию одной секунды уходят тысячи и миллионы лет… Но, скажи мне, существо, — "как ты двигаешься?", — существо задумывается на короткое мгновение длиной в 4 тысячи лет и молвит, — "Я представляю, что двигаюсь и моё тело двигается само".

Говорит ли это одно сознание или миллиард разных наследующих друг другу продолжают одну и ту же мысль?

Несмотря на то, что симуляция всё время прерывается, сознание целостно и континуально. Можно ли сказать, что оно каждое мгновение разрушается и формируется заново? Можно ли сказать что у такого дискретного сознания есть качественные отличия от сознания непрерывного? Если таковые отличия и есть, то по-видимому, нет никакого способа их субъективно пронаблюдать.

Вот, кстати...

Вы уверены, что чай или кофе в вашей кружке туда наливали именно вы? А может быть это был другой? Тот кто раньше был на вашем месте и чьё тело вы вероломно украли? Вы пришли от себя прошлого к себе нынешнему методом малых изменений, на каждом шаге становясь чуть другим и единственная причина, по которой ваш прошлый двойник не обвиняет вас в том, что вы заняли его место состоит в том, что его здесь нет.

В каждый конкретный момент времени объект ощущает себя продолжением своего предшествующего состояния. Объект на другой стороне телепортационного луча строго уверен, что именно он только что был на планете отправления, но исходный объект при этом никуда не перемещался. Также, как и с экспериментом по остановке мира, единственный способ исключить конфликт двух личностей — убрать изначальную копию. Тогда субъективно это будет выглядеть как продолжение того же сознания. Объект на той стороне будет говорить, что он это он, а возразить ему никто не сможет. Его изначального двойника доедают лангольеры. Примерно так же, как они доедают того, кто, начинал читать это предложение.

k5yzsegsbam7ztkfl818ey2mf7e.png

Тезис о том, что мгновение назад мог жить кто-то другой приводит к выводу о том, что сознанию только кажется, что оно длится во времени. Этот феномен надо рассмотреть подробнее. Сознание может вспомнить своё прошлое. Это значит, что предыдущие состояния сознания сохраняются в некоторой форме памяти, которая, с объективной точки зрения выглядит как информационная структура, куда сознание постоянно регистрирует (копирует) информацию о текущем своём состоянии. Субъективно это выглядит как запоминание, а объективно, это безостановочная запись в журнал регистрации событий (возможно с удалением части информации). Похоже, что память — единственное, что связывает ваше сознание с тем, кто налил вам чай.

Вернёмся к примеру переселенца из биологического тела в тело механическое.

Пример А. Переселенцу клетку за клеткой заменяют тело на не биологические аналоги.

newtk7cbyt7_wgicahqqmziaoro.png

Пример Б. Переселенцу внедрили воспоминания, что он был биологическим, но на самом деле просто создали таким, чтобы он считал биологическое состояние предшествующим себе.

-ei7ih7upgwevolmlk05lwejydq.png

Пример В. Биологическое состояние было, но с него сняли копию, оригинал уничтожили, а механический экземпляр сконструировали, что бы он думал, что был биологическим, внедрив воспоминания исходного существа.

lldjo2ausghaip27ehcbm7oitse.png

Я утверждаю, что никто, не объективный наблюдатель, ни сам переселенец в оконечной точке времени не сможет различить этих вариантов. Между получившимися ситуациями нет разницы ни субъективно, ни объективно.

Если мы признаём, что достаточное условие продолжения существования сознания это континуальность восприятия своего существования в прошлом (то есть, я помню, что я непрерывен), нам придётся признать, что принципиальной разницы между вариантами А и В нет. Интуитивно кажется, что это не так. Чтобы привести правила в соответствие с интуитивными ожиданиями нам придётся наложить условие непрерывности изменений. Недостаточно, чтобы чтобы сознание помнило, что оно непрерывно. Нужно чтобы изменения были постепенными и тогда вроде бы всё в порядке или так по крайней мере кажется.

Причина опять же в континуальности. Сознание хочет воспринимать (возможно, это специфично не для всех типов сознания) себя континуальным и не приемлет мгновенных скачков.

Рассмотрим момент засыпания. Во многих культурах засыпание считается временной смертью и даже существуют ритуалы, направленные на то, чтобы понять, кто вернулся из другого мира: владелец тела или злой дух. Это результат прямого сомнения в том, что сон сохраняет континуальность. Выше мы видели, что даже при переходе в непосредственно следующий за текущим момент времени континуальность может быть поставлена под сомнение. Чего уж говорить о сне…

pcbb9oib_esyljdfxiefc6taxni.png

Представляется, что человеческое сознание не готово воспринимать себя, как набор дискретных состояний. Возможно это свойственно нашей форме сознания, а может быть и сознанию вообще. Поскольку мы решили считать интуитивную оценку сознания мерилом допустимости операции над собой, то в зависимости от этой оценки со стороны конкретного сознания ответ на вопрос о телепортации и других схожих операций может меняться.

Забавно, но кажется, ответ на вопрос о допустимости телепортации для объекта сознания зависит от его мировоззрения. ¯\(ツ)


Феномен разделённого сознания.

Мы рассмотрели сознание как некоторую неделимую едини

© Habrahabr.ru