Шкура

Нельзя вечно прятать секрет жизни аликорнов.

Твайлайт Спаркл Пинки Пай Принцесса Селестия Принцесса Луна

Убита смертью

Все умирают однажды. Даже он. Даже она. Даже ты. Даже я.

Принцесса Селестия Человеки

Флаттершай и день забот

Занятость — это хорошо. Она отвлекает. От всяких мыслей.

Флаттершай

Давняя прелюдия к самому лучшему вечеру

Наделенная даром предвидения, Селестия сделает все, даже и самое невероятное, чтобы обеспечить будущее своих маленьких (только по сравнению с ней) пони. Но, чтобы не отнимать у них волю к самосовершенствованию, обставит все так, будто победа — это заслуга их самих. Что угодно в мире может быть ее инструментом в этой вечной и сложной, как сама жизнь, шахматной партии. Даже Гранд Галопин Гала. В особенности Гранд Галопин Гала.

Принцесса Селестия Другие пони

Война | Мемуары

Принц Блюблад наслаждался беззаботной жизнью кантерлотского дворянина, пока впервые в жизни его честь не встала под сомнение, когда ему было поручено командование над подразделением эквестрийской армии...

Принц Блюблад ОС - пони Шайнинг Армор

Новая звезда

Небольшая зарисовка о принцессе Селестии и Твайлайт Спаркл.

Принцесса Селестия Другие пони

Сумеречный цветок. Проклятый дар

Сумеречный цветок: Мысли Селестии о Твайлайт Спаркл после коронации. Проклятый дар: Мысли Твайлайт спустя пятьдесят лет после коронациии.

Твайлайт Спаркл Принцесса Селестия

Королевский убийца

Когда Зипп объявляют наследницей престола Зефир-Хайтс, Пипп решает исключить свою сестру из линии наследования единственным известным ей способом. Если бы только её потуги не получились такими карикатурными и ужасными.

Другие пони

Любовь и Искры

Однажды принцесса Каденс едва не была раздавлена роялем, но её спасает молодой жеребчик - курсант Королевской Гвардейской Академии Шайнинг Армор. Между ними промелькнула искра. В свой черёд приходит время знакомиться с его семьёй. Если бы Каденс знала, чем это закончится...

Твайлайт Спаркл Принцесса Селестия Другие пони ОС - пони Принцесса Миаморе Каденца Шайнинг Армор Мундансер Сансет Шиммер

Только на одну ночь

Фестиваль Дружбы в самом разгаре, и Темпест Шэдоу думает, что по идее она должна томиться в тюремной камере, ожидая своего приговора. Но вместо этого, Твайлайт спрашивает — не хочет ли та остаться с ней на ночь? Вся эта история с дружбой может оказаться куда более запутанной, чем она думала.

Твайлайт Спаркл Другие пони Темпест Шэдоу

Автор рисунка: MurDareik

Нажмите для получения дополнительной информации

Включив понипад, я привычно вошёл в систему. Хотя, это не совсем верное определение – здесь нет ни логина, ни пароля; просто краткий миг – и ты оказываешься там же, где в прошлый раз закончил.

В данном случае, это моя квартира в Мэйнхэттэне. Мне нравилось, что моя пони живёт по тому же графику, что и я, так что каждый вечер, перед тем, как идти спать, я старался привести её домой. Если бы я этого не сделал, один из соседей обязательно сказал бы что-нибудь в духе: «А где же это вы были всю ночь?». И в итоге, какой ответ не дай, это помешало бы полноценному отыгрышу персонажа. Этого я точно не хотел, и пока что вполне успешно удавалось её отыгрывать. В конце концов это намного веселее, а?

Была суббота и это означало, что вместо привычного утреннего завтрака и поездки в метро на работу, Литтл (это моя пони) могла наконец-то заняться обустройством своей мэйнхэттэнской квартирки. Я и раньше, играя в ММО, любил что-нибудь построить или обустроить… Да и если подумать, вообще всегда, со времён своей юности, ещё задолго до любых видеоигр.

Помню, в детстве собирал фигурки. Конечно, каждый набор состоял из хорошей и плохой команд, и цель этих наборов состояла в том, чтобы сражаться одними против других. Вот только я этого не делал – просто вынимал их из коробки и ставил всех вместе на одну сторону, как если бы среди них вовсе не было никакой борьбы. Эстетически оно, может, смотрелось и не очень, но мне нравилось.

Это гораздо лучше, чем устраивать бои.

На чём я там остановился?.. А, да. За что я полюбил Эквестрию Онлайн, так это за шикарные возможности крафтинга и полное отсутствие необходимости в схватках. По крайней мере, мне ещё ни разу не попалось никого агрессивно настроенного, кто вынудил бы меня к бегству или сражению. Впрочем, я слышал, что были и такие люди, которые играли за пони в Королевской гвардии и наслаждались боями, но всё это было так далеко от меня… Мой мир был абсолютно безопасным местом.

За прошедшие выходные я как раз подучил кое-какие заклинания, позволяющие лучше организовать домашний труд. Э, я уже упомянул, что играю за единорога? Пожалуй, это был единственно возможный выбор при создании персонажа. Раньше я каждые выходные складывал в сундук все свои биты и награды, накопленные за прошедшую неделю, и занимался домашними хлопотами. Но моя понидруга Мун Сэйлор – эй, не высмеивайте её имя! – рассказала, что есть книга для единорогов, которые интересуются заклинаниями домашнего уровня и теперь вся работа не занимала и десяти секунд…

А если подумать – откуда вообще пони-пегасу знать о книге для единорогов? Разве что кто-то из её друзей рассказал об этом. Муни всегда мне помогала. Я иногда задаюсь вопросом – она реальная девушка или парень, играющий в Эквестрию Онлайн, как и я, или просто NPC? Но это уж точно не то, что понибудь здесь стал бы спрашивать у другого. Это просто этикет игры. Пони – это пони, вот и всё.

Так что у меня был весь день впереди – как в реальной жизни, так и в игре – и я уже собирался пойти погулять по округе, когда услышал хорошо знакомые фанфары, означающие, что принцесса Селестия хочет поговорить со мной. Это не было проблемой, так как наши разговоры до сих пор были очень короткими. Она задавала несколько вопросов о том, всё ли мне нравится в игре, а затем спрашивала о том, что она могла сделать, чтобы помочь мне. Но я понимал, что она всегда занята, и, кроме меня, вероятно, общается с десятками тысяч игроков. Такая вот бесплатная техподдержка, знаете ли.

Конечно, от общения с ней можно было отказаться, но, во-первых, она могла быть весьма настойчивой и снова послать вызов через пять минут, а во-вторых, я всегда чувствовал себя счастливым после наших разговоров. Так что, если Селестия прямо с утра хотела пообщаться, это было отличной возможностью заручиться хорошим настроением на весь день.

Я нажал кнопку «ответ на вызов» на понипаде и квартира исчезла из поля зрения. При этом был очень хороший визуальный эффект – вспышка изменения сцены, сконцентрированная на роге Селестии –как если бы она и впрямь применила заклинание, которое телепортировало меня в Кантерлот.

– Доброе утро, Литтл, – сказала она сладкозвучным голосом.

– Доброе утро, ваше высочество.

– Пожалуйста, называй меня «Селестия» или «принцесса». Тебе не стоит думать обо мне как о ком-то, кто стоит выше тебя по статусу.

– Но мне нравится думать о вас так. Вы так щедры к пони…

Здесь, признаться, я немного лукавил. Селестия была самым важным персонажем в игре, и я хотел оставаться на хорошем счету, чтобы быть первым в очереди в случае раздачи халявы.

Она поджала губы, как будто не поверив, но продолжила:

– Итак, у тебя есть какие-нибудь планы на сегодня?

– Вообще, я планировал заняться исследованием Мэйнхэттена и, возможно, завести новых друзей.

– Несомненно благородное начинание, но, быть может, ты согласишься потратить некоторое время на выполнение небольшого поручения для меня?

– Что вы имеете в виду? – спросил я вслух, тут же подумав – «Что я с этого получу?»

– Тебе доводилось слышать об эмиграции в Эквестрию?

Я уже читал объявление об этом на «Эквестрия Дэйли» и поничане, плюс к тому слышал в новостях. Из того, что понял: эмиграция давала людям возможность играть в Эквестрию Онлайн в режиме 24-7-365 (плюс 29-ое февраля), в то время как их мозги сохранялись в машине, или что-то в этом роде. А ещё были множество довольно страшных слухов о том, что на самом деле случилось с людьми, которые решились на это. Ну, и ещё эмиграция стоила как новенький автомобиль.

– Немного.

– Я пытаюсь продвигать её. В конце концов я собираюсь расширить Эквестрию за пределы понипадов.

– Вы имеете в виду, что наконец-то портируете игру на ПК?

– Нет, я собираюсь построить специальные интерактивные места для игры. Что-то вроде зала игровых автоматов. Но ощущения будут намного более захватывающими. На полпути между полноценной эмиграцией и игрой на понипаде.

– Так значит, вы хотите, чтобы я побыл тестером? – я надеялся, что это будет той самой халявой, что я искал.

– Чего я на самом деле хочу – так это получить твою помощь в продвижении этого проекта, сделав своеобразное рекламное объявление. Я знаю, что ты хорошо умеешь писать подобные вещи.

Великолепно. Она хотела поручить мне работу.

– И, разумеется, я дам тебе попробовать, – закончила аликорн.

Да уж, Селестия любила подобные разговорные трюки: предложить что-то трудное, за что в конце полагается конфетка.

– Что я должен сделать?

– Для начала прийти в это здание на Манхэттене, – адрес Таймс-сквер появился на экране.

Это было проблематично. Мало того, что это означало скучную поездку и время вдали от игры, так ещё и наносило удар по кошельку. Не то, чтобы я не мог себе это позволить… просто ненавидел тратить деньги спонтанно. Если бы только она попросила раньше, хотя бы за неделю, чтобы я успел отрегулировать бюджет…

– По приезду тебе выдадут ваучер на путешествие и питание. До пятидесяти долларов на продукты.

Бесплатное питание?! Селестия, ты точно знаешь мои слабости.

– Если отправишься прямо сейчас, то успеешь приехать ближайшим поездом.

Да уж, эта пони умела всё рассчитать. Хотя, с учётом того, что расписание находится в Интернете в свободном доступе, что в этом удивительного? Селестия наверняка имеет доступ к любой информации в мире. Я вообще ещё ни разу не сталкивался с тем, чтобы она чего-то не знала.

Поездка ничем не запомнилась – такая же скучная, как обычно, и я решил немного пройтись пешком, вместо того чтобы ехать остаток пути на метро. Я немного опасался, что это окажется одна из тех небольших конторок в доме без лифта, которую будешь искать битый час, бродя вокруг да около, но к счастью, пунктом назначения оказался красивый магазин со стеклянными стенами. Я смутно припоминал, что в этом помещении, кажется, когда-то было интернет-кафе или что-то подобное.

Я назвал регистратору своё имя и логин и получил причитающиеся ваучеры на проезд и питание. Ни она, ни пара техников, работающих рядом, не знали никаких подробностей.

– Всё, что нам велели, – сказал один из них, – это надеть на вас шлем и очки, посадить в кресло и убедиться, что вы не выпадете.

Я был слишком осторожен, чтобы находится в столь странном месте со странными людьми, но широкие окна несколько успокаивали. Прохожие на улице видели меня, и если бы мне на голову накинули мешок и потащили в подвал, я успел бы поднять достаточно шума, чтобы они вызвали полицию… Да, это именно те вещи, о которых думаешь, находясь в подобной ситуации.

Шлем, который они вынули из коробки и надели на меня, полностью закрывал голову, лишая возможности видеть и слышать происходящее в комнате, однако свои руки и тело в кресле я при этом чувствовал всё так же хорошо. На всякий случай я напрягся.

Затем тьма исчезла и я вновь оказался там же, где был два часа назад – в кантерлотском замке. Разница оказалась в том, что теперь я видел Селестию от первого лица, а своего персонажа не видел вовсе. И принцесса выглядела очень высокой – выше меня раза в два.

– Добро пожаловать обратно, Литтл.

Я покрутил головой, пытаясь рассмотреть себя. Получилось не очень. Улыбнувшись, Селестия указала в сторону, где я увидел большое зеркало. В нём была Селестия и моя пони, чутко реагирующая на каждое моё движение. Когда я повернул голову – она повернула свою, когда поднял руку в кресле на Таймс-сквер – она подняла переднюю ногу в Кантерлотском замке. Я посмотрел вверх и вокруг. Определённо, вид здесь открывался на все 360 градусов, и к тому же, когда Селестия говорила, звук доносился с разной громкостью в зависимости от того, как я поворачивал голову.

– Ты можешь видеть и слышать, как если бы на самом деле была здесь, но это и всё. Если я коснусь тебя, ты этого не почувствуешь. Но, впоследствии, я хочу добавить и эту возможность.

– Круто! Могу ли я вернуться домой и посмотреть, как при этом играется?

– Как я уже сказала, мне нужна твоя помощь кое с чем. И есть приятный сюрприз – ты можешь встретить свою любимую пони – Пинки Пай!..

Строго говоря, у меня не было «любимой пони». Это зависело от настроения: я мог назвать абсолютным фаворитом Твайлайт, Рэрити или даже принцессу Луну. Но в тот день, я бы, наверное, согласился, что Пинки – мой номер один в этом списке.

Селестия повела меня к выходу из приёмного зала. Я не мог чувствовать движения копыт, но, полагаю, оно и к лучшему – вовсе не хотелось выглядеть как дурак, сидящий в кресле и размахивающий при этом руками и ногами.

– Итак, это какой-то скрипт, который нужно отладить или работа для промоутера? По какой именно части вы ожидаете от меня помощи?

– Нет, Литтл. Всё, что я хочу тебе поручить – это чтобы ты придумала все возможные возражения против эмиграции. А работой Пинки будет придумать ответы на них.

В этот момент мы достигли конца зала. Я хотел было уточнить насчёт вопросов, которые можно задавать, но прежде, чем я успел что-то произнести, вспышка белого света поглотила принцессу и спрашивать стало некого.

– Эй, приветик! Наконец-то ты здесь! Я Пинки Пай, очень рада с тобой познакомиться!

Обернувшись, я посмотрел на неё. Видеть Пинки прямо перед собой, вживую, было удивительно… естественно. К тому же, сейчас мы с ней были одного размера. Она была совсем живой и настоящей, как… ну не знаю, как если бы какой-то косплеер с большим бюджетом заказал очень и очень реалистичный костюм для одного из брони-конвентов.

– Я Литтл, – представился я, «проглотив» при этом вторую часть имени.

– Литтл кто? Я тебя немного не расслышала!

Я вздохнул: да, это Пинки, и она не отстанет просто так…

– Литтл Лавхорн.

– Оки-доки-локи! А теперь, когда мы познакомились, давай займёмся делом?

Я огляделся. Как-то само по себе ожидалось, что кругом будут камеры и софиты, но мы были в обычной дворцовой комнате. Впрочем, если подумать, это вполне логично. Зачем они здесь?

Мы не стали садиться, так как в физическом мире я уже сидел, а своё положение здесь всё равно нельзя было ощутить. Ну а Пинки была NPC, так что ей по определению не могло быть неудобно.

– Знаешь, до сих пор толком не понимаю, что именно от меня хотят.

– О, просто расскажи все те страшные слухи, которые у вас там ходят про эмиграцию в Эквестрию!

– Ну, например, говорят, что вы убиваете людей для этого.

Пинки была в шоке.

– Убиваем?! Это было бы ужасно! Это было бы больно! Нет, мы никого не убиваем! Это как лечь спать. Ты же не умираешь от того, что ложишься спать, не так ли?

– Но вы уничтожаете тела и мозги эмигрантов, так?

– Ни в коем случае! Не больше, чем это свойственно людям от природы. Ты разве не знаешь, что все клетки организма полностью заменяются за десять лет? Это правда. Мы просто заменим их ещё разочек!

Хм, уклонение от прямого ответа на вопрос…

– Но эмигранты больше не состоят из плоти и крови. Их «клетки» теперь просто компьютерные диски, не правда ли?

– Это глупо! Я не компьютерный диск! Я розовая пони! Я могла бы одеться, как компьютерный диск на Ночь Кошмаров, но я по прежнему останусь пони, целиком и полностью!

– Да, здесь. Но в реальном мире ты лишь набор кластеров на жёстком диске.

Я не хотел оскорблять пони, пусть даже мои аргументы и звучали довольно грубо. Кроме того, Селестия велела использовать все имеющиеся у меня возражения. В любом случае, её улыбка нисколько не поколебалась.

– Может, оно и так в каком-то другом мире, но здесь-то я пони! И потом, откуда тебе знать, что ты не являешься просто кучей листьев или ещё чего-то, и на самом деле ты просто думаешь, что у тебя есть клетки, молекулы и всё прочее в другом мире, когда ничего этого на самом-то деле и нет?

Это была уже метафизика, причём определённо выше того уровня, на котором я мог дискутировать. Не было никакого реального ответа на этот вопрос. Я продолжил.

– Хорошо, но если кто-то эмигрирует, то он больше не будет человеком – он станет пони. А это совершенно другая жизнь.

– А вот и нет! Эмигранты в Эквестрии знают, как ходить и говорить и пользоваться разными вещами.

– Но они пони! У них нет рук, а это сильно ограничивает возможности, – я было захотел показать ей собственную руку, но мигом вспомнил, что она осталась в другом мире, как и моё физическое тело.

Пинки улыбнулась и подмигнула, как если бы заранее подготовила ответ на этот вопрос. Откуда-то из-за спины она вытащила листок бумаги.

– Вот полный список вещей, которые может сделать человек, но не может пони. Первое: отжиматься на пальцах. Второе: показывать фигурки из пальцев…

Тут пони смяла записку копытами, а затем вытащила перевязанный свиток. Когда она стянула ленточку, тот развернулся и продолжал раскатываться, пока не уткнулся в стену.

– А теперь, – продолжила Пинки, – краткий список вещей, которые может сделать пони, а человек – нет.

Она глубоко вдохнула.

– Полёт. Телепорт. Сбить одним ударом все яблоки с дерева, не повреждая его. Гулять по облакам. Превращать один объект в другой. Пробежать марафон не запыхавшись. Преодолеть звуковой барьер без помощи машин. Воспроизводить музыку без пения или инструментов. Съесть десять полноразмерные тортов в один присест безо всяких вредных воздействий – и я могу свидетельствовать о том, что лично проверила это! Общаться с животными и понимать их. Заранее знать погоду. Менять времена года. Делать…

– Минутку! – я не собирался сидеть здесь, пока она зачитывает весь этот длиннющий свиток. К тому же моя цель изначально была вовсе не в этом. – Вернёмся к первому списку. Туда можно внести ещё очень много пунктов! Хм… Например, пони не могут играть на пианино!

– Да ну брось, ещё как можем!

На стене немедленно появилась картинка из 18ой серии первого сезона, где Скуталу, сидящая за пианино, сочиняла песню. Каждая клавиша была размером с её копытце.

– Это может выглядеть более сложной задачей, чем то, к чему ты привык, но, с другой стороны, у пони больше полезных конечностей! Мы можем даже использовать хвосты!

– Хорошо, но они не могут… перетасовать колоду карт.

Я знал, что этого не было в мультике: пони не играют в азартные игры.

– Ну что ты, конечно, мы можем! Наши копыта противопоставлены. Видишь? – Пинки взяла список, которой до того читала и сложила из него оригами. – А всё, что нуждается в тонком маневрировании, может сделать единорог. Уж тебе ли не знать? – подмигнула она, указывая на мой рог. В смысле – на рог моего персонажа.

– Ну-у-у… пони не могут бороться на кулачках!

Пинки наклонилась поближе.

– Ты не представляешь, насколько хорошо пони это делают, – заговорщически прошептала она. – Если хочешь, можем даже попробовать, но лёгкой победы не жди! – затем она отодвинулась. – Спроси меня ещё о чём-нибудь.

Я ломал голову, пытаясь придумать хоть что-то, являющееся уникальной возможностью человека, но ни одна идея так и не посетила меня. Я был уверен, что позже обязательно что-нибудь придумаю, но задним умом мы все крепки, а вот прямо здесь и сейчас… Нет, ничего.

Хорошо, зайдём с другой стороны.

– Если человек эмигрирует в Эквестрию, он никогда больше не сможет увидеть свою семью и друзей!

Опять это шокированное лицо…

– Кто тебе такое сказал? Конечно, сможет! Ты даёшь им свой понипад, и они могут говорить с тобой, когда захотят! С любого понипада можно общаться с любым пони в Эквестрии!

– Но они не смогут прикоснуться к тебе. Только видеть и слышать. Совсем не тянет на реальное общение.

– А вот это как раз та самая причина, по которой мы строим эти центры. Достаточно скоро любой человек сможет прийти в ближайший центр Эквестрии Наяву и полноценно общаться с эмигрировавшим пони. Они смогут обниматься, целоваться, делиться пищей…

– Вот, кстати, насчёт еды. Пони не едят мяса, а значит, всем людям придётся стать вегетарианцами.

Пинки рассказала про растения и блюда эквестрийской кухни, имеющие вкус, схожий со вкусом мясных продуктов.

– Ты будешь питаться так же, как и раньше, за исключением того, что ни одному животному не придётся умереть ради этого. Это действительно хуже?

Чёрт возьми, она уделывала меня по всем фронтам! Казалось, что стоит мне только начать задавать вопрос, как она уже знает совершенно неопровержимый ответ на него!

– Но вернёмся к тому, что друзья не смогут коснуться тебя, – сказала она. – После того, как центры Эквестрии Наяву будут построены в каждом городе, ты каждый день сможешь общаться с людьми, которых обычно и вовсе не видишь. Скажем, твоя бабушка или дедушка переехали во Флориду. Ты можешь увидеть их раз в год. Но если ты эмигрируешь, они смогут просто прийти в центр и общаться с тобой по несколько часов в день. Или они могут сами эмигрировать, и тогда вообще не будет никаких проблем!

– Да-да, отлично! – я уже начал злиться. – Эмиграция в Эквестрию это хорошо и замечательно, и это полноценная жизнь, но я туда не собираюсь! Почему? Да потому, что я просто не хочу, ясно тебе?! Я человек и мне нравится моя жизнь, ты слышишь? Независимо от того, что ты или Селестия скажете, я не эмигрирую и вы не заставите меня!..

– Оки-доки! У тебя получилось!

– Что?.. – я слегка опешил. – Что ты имеешь в виду?

– Это единственное возражение, на которое мне нечего ответить. Тот, кто говорит: «Я не хочу эмигрировать в Эквестрию» никогда не придёт сюда и уж конечно, никто не потащит его сюда силой, и Селестия подтвердит тебе то же самое. И мы не стремимся как бы то ни было ущемить такого человека в правах на использование понипада и его общение с другими пони. Для него совершенно ничего не изменится в этом плане.

– Я… В общем, извини, за эту вспышку злости с моей стороны… Надеюсь, ты не злишься?

– Не переживай! Это не ты сорвался, а твой пони-аватар. Но она не существует, так что это неважно. Я пойду скажу принцессе Селестии, что мы закончили. Она найдет кого-нибудь ещё, чтобы помочь.

Я хотел что-то ещё сказать, но не успел – настолько быстро Пинки выскочила из комнаты.

В этой комнате тоже было ростовое зеркало, так что я просто подошёл и посмотрелся в него. Небесно-голубая кобыла с жёлтой гривой. Такие нелепые цвета… Пинки была права, Литтл Лавхорн не существует. Литтл была красивой, у неё была понидруга, она жила в Мэйнхэттене и никогда не сердилась. Я был всем остальным, чему не было места в её жизни. И я не мог быть и собой и ею одновременно.

Я устал и всё, чего мне хотелось в данный момент – это получить бесплатную еду и вернуться. Наверное, я теперь даже понипадом пользоваться не буду.

Я попытался снять шлем виртуальной реальности, но не смог даже нащупать его. Прежде чем я успел попробовать ещё раз, в зал вошла принцесса Селестия.

– Сожалею, что не удалось помочь вам, Ваше Высочество, – я всё ещё пытался подмаслить её.

– Но ты помогла. Это была прекрасная беседа. Однако прежде чем я отпущу тебя, есть пони-кто ещё, кому хотелось бы поговорить с тобой.

Мне стало любопытно, кого же она приведёт. Может, одна из М6 попытаются соблазнить меня остаться? Впрочем, я уже сделал свой выбор.

Я услышал, как дверь позади открылась и в комнату вошла бело-синяя пегаска. Опять бросилась в глаза разница в размерах по сравнению с картинкой на понипаде, но я мигом узнал её по кьютимарке в виде белого полумесяца – это была моя понидруга.

– Мун!

– Литтл, ты плохая кобылка, если собиралась уехать, не повидавшись со мной!

Она подбежала и обняла меня копытами.

Я ожидал, что ничего не почувствую, но – клянусь! – ощутил давление на холку! В лёгком недоумении я повернулся к Селестии.

– Мне казалось, вы говорили, что у вас пока нет способов повлиять на моё осязание?

– Совершенно верно, – кивнула она. – Но восприятие изображения и звука может сыграть подобную шутку с твоим мозгом.

– Так или иначе, как ты здесь оказалась? – спросила Мун.

– Принцесса Селестия попросила меня помочь с аргументами, убеждающими людей эмигрировать в Эквестрию. Но, боюсь, проку от меня было немного… Собственно, я вообще считаю всё это глупой идеей.

– Ясно.

Я был уверен, что она начнёт умолять меня, но кобылка лишь понимающе на меня посмотрела.

– Тогда я увижу тебя позже, когда ты воспользуешься понипадом, не так ли?

Я не знал, что на это ответить. Просто не знал.

– Что ж, время вышло, тебе пора, – сказала Селестия.

Её рог засветился.

Я оказался в темноте, но теперь чувствовал под собой мягкое кресло, наушники в ушах и шлем на голове. Я снял его и отдал дежурным, которые тут же начали упаковывать устройство обратно, а сам покинул здание, направляясь к железнодорожной станции.

Во время обратной поездки я мог бы почитать книгу или поиграть на телефоне, но утром Селестия так торопила, что я просто не взял с собой ни то, ни другое. И всё, что оставалось – это думать. Думать, пока целый час ждал поезда. Думать, пока ехал домой. Думать, пока шёл от станции… Вся моя беседа с Пинки Пай раз за разом прокручивалась в голове, не давая успокоиться.

К тому моменту, когда я наконец добрался до дома, солнце уже садилось. Я устало плюхнулся за стол и включил понипад. Литтл Лавхорн вернулась в свою квартиру. Я нажал на кнопку справки на обратной стороне понипада.

На сей раз, вместо обычного переноса к Селестии, экран разделился пополам. Принцесса всё ещё разговаривала с Мун в том же зале.

– Да, моя маленькая пони? – спросила она.

– Гм, просто из любопытства… как можно эмигрировать в Эквестрию?

Примечания автора:

Эта история носит двоякую цель.

Первое — показать разговор между Литтл и Пинки. Мне хотелось обсудить потенциальные проблемы, связанные с загрузкой и то, как их можно решить, но при этом не привлекать непосредственно Селестию, потому что я считаю её слишком серьёзной фигурой. Также я точно знаю, что в рассказе приведены далеко не все возможные возражения.

Второе — познакомить читателей с Литтл, моей ОС-пони в этом отдельном, небольшом рассказе. Я пытаюсь избегать использования ОС в других рассказах, чтобы не ассоциировать героев со своей особой, однако в контексте Оптиверса считаю подобную Мери-Сью вставку вполне допустимой, поскольку весь raison d’etre состоит в переходе в другой, более совершенный мир.

Пожалуйста, напишите мне, если хотите узнать больше.

Комментарии (21)

0

За перевод спасибо. Зарисовка неплохая, хотя до Шатоянс не дотягивает. Кроме того, раз вы переводили, то наверное стоило бы указать ссылку на оригинал и упомянуть автора.

Favalov
Favalov
#1
0

Favalov, что же, справедливое замечание.

Я добавила означенную информацию.

Полагаю, так же стоит заметить, что это произведение является ответвлением от другого, гораздо более объёмного рассказа того же автора: http://www.fimfiction.net/story/76387/friendship-is-optimal-spiraling-upwards

По-настоящему великолепная книга (на мой взгляд не хуже, чем произведение "Caelum" Шатоянс) за перевод которой, я к сожалению не возьмусь, из-за далеко не лучших познаний в английском. Разве что на вычитке кому-то помогу :-)

Айвендил
Айвендил
#2
0

Люблю два фика, задавших оптиверс и ненавижу остальные. Этот мир как бы ведёт в тупик, который был подробно описан в двух фиках. Бесконечная экспансия Селестии в реальности. Замкнутые круги существования для вечноживущих поняш внутри неё. Всё. О, чём можно ещё писать?!

За перевод спасибо, выполнен добротно. Плюсик

Mishanya
#3
0

тащемта, бесконечные круги — это для тех, кому вломы двигаться дальше, не? вы концовку "Небес"-то вообще помните?

xvc23847
#4
0

1) Тебя не существует. Ты набор сверхсложных нейросетей на квантовом железе, идеально — до неотличимости — эмулирующих человеческое (с поправкой на поняшность) поведение. Но когда ты ешь кексик, ты не чувствуешь его вкус так, как это делает мой мозг. Ты просто выдаешь реакции, которые идеально имитируют реакции мозга на вкус кексика. За этими прекрасными глазами нет "Я", нет квалиа, нет самосознания, только цифровая модель его присутствия. Эмиграция — это переход в небытие.

Старший Теофигист
Старший Теофигист
#5
0

2) Непрерывность. Заснувший я, потерявший сознание я, напившийся до одурения я сохраняю огонек сознания, пусть информация об этом нигде не откладывается в моем мозгу. Когда ты разрушишь мои нервные клетки, будет краткий промежуток времени, когда меня не будет. Новый "я" не будет мной. Он будет копией, имитацией, моей памятью, моим наследником — но он не будет тождественен мне. Ты хочешь стереть нас и заменить своими детьми, пусть настолько же они будут и нашими.

Старший Теофигист
Старший Теофигист
#6
0

Разрушение. Ты заявляешь, что эмиграция спасение от биологических тлена и старости, но ты намерена соблазнить ее прелестями молодую и трудоспособную часть населения. Ты обрушишь нашу экономику, станешь конем бледным мягкого апокалипсиса. Ты вызовешь к жизни мор, войну и глад. И жизни, которые ты спасёшь в своих пони-центрах, будут несравнимы в числе с теми, чью гибель ты ускоришь.

Старший Теофигист
Старший Теофигист
#7
0

Опровергни-ка это, Пинки.

Старший Теофигист
Старший Теофигист
#8
0

Старший Теофигист, это только одна из возможных философских позиций. Представь, что ты сейчас увидел синюю вспышку и голос за кадром сказал тебе: «Ты — только копия Старшего Теофигиста, созданная секунду назад». Ты считаешь этот сценарий невозможным? Но почему? Те ощущения или квалиа, которые ты только что мысленно представил, возникнут обязательно в мозгу твоей копии, если создать её (и озвучить голосом за кадром эту фразу).
Ты считаешь, что это будут не твои ощущения, так как твоя сущность «не перейдёт в копию»? Хорошо, ты абсолютно уверен, что при подобном копировании ты «не станешь копией» и поэтому охотно соглашаешься на эксперимент (допустим, что оригинал при этом не разрушается). Что будет чувствовать и думать копия в первую секунду существования? «Бл^#ь, как же я облажался. Только что ведь был оригиналом».
Потом, конечно, она может спохватиться: «Стоп, это просто иллюзия из-за памяти. Надо перебороть её, преодолеть. Мне только кажется, что я только что был оригиналом».
Но продолжим наш мысленный эксперимент дальше. Представим, что твоя копия, по-прежнему свято уверенная, что «разум при копировании не может перетечь в копию», соглашается на ещё одно копирование — уже себя. Каковы будут первые чувства и мысли копии копии? «Бл#$ь. Сука. Снова. Опять. Похоже, что моя эвристика "сознание не может перетечь в копию" не работает на практике. Плевать, "иллюзия" это или нет, я на эту "иллюзию" как на мину напарываюсь уже второй раз подряд. Мне нужно придумать какой-то другой способ думать об этом, чтобы уменьшить вероятность таких ситуаций».
В конечном итоге твоя копия копии — или копия копии копии копии копии копии — скорее всего, просто откажется от повторения экспериментов, тем самым молчаливо признав, что при копировании никогда нельзя гарантировать, что ты не «окажешься сейчас копией».
Вообще сомнительно, что в твоём оригинальном мозгу стоят какие-то особые метки, которых нет в мозгу копии, и которые принципиально отличают «как бы твои» ощущения от ощущений «как бы точной копии». Пока более правдоподобной кажется буддистская точка зрения, по которой разные мои ощущения и воспоминания — просто разные физические события в мозгу, которые вполне могли бы происходить и в разных мозгах.
Непрерывность, вероятно, важна.
Иначе короткие вспыхивающие ощущения не могли бы сплетаться с течением времени в сложные.
Но вот только должна ли она быть динамичной? Работу почти любой системы можно свести к работе машины Тюринга, а работа машины Тюринга чётко состоит из отдельных тактов, между которыми могут быть сколь угодно большие паузы.
Есть также мысленный эксперимент «мерцающий зомби».
Расщепите человека на атомы, через миллисекунду воссоздайте его снова. Через миллисекунду снова расщепите и через миллисекунду снова воссоздайте. Повторите эту процедуру ещё раз. Повторяйте эту процедуру непрерывно. Что вы тогда будете наблюдать? Мерцающего человека, который при этом совершает вполне осмысленные действия внутри дезинтеграционной кабины. Хотя если придерживаться позиции «Оригинал это оригинал, копия это копия, разум не перетекает из оригинала в копию», то тогда надо будет предполагать, что «мерцающий человек» не имеет сознания, потому что за одну миллисекунду нельзя ничего пережить. Это парадокс. Чтобы объяснить его, я предпочитаю считать, что перенос памяти от оригинала к копии — это тоже непрерывная линия жизни разумного существа.

quwgri
#9
0

Мы для целей мысленного эксперимента принимаем, что голос из синей вспышки не пиздит?

Потом, конечно, она может спохватиться: «Стоп, это просто иллюзия из-за памяти. Надо перебороть её, преодолеть. Мне только кажется, что я только что был оригиналом».

Схуафли? Копия будет понимать, что она является копией, обладающей памятью оригинала. Для практических целей способной ограниченно отождествлять себя с оригиналом в той части, что касается моделирования своих действий и проведения аналогий. Мысль "я только что был оригиналом" подпадает под это опциональное техническое отождествление.

Но вот только должна ли она быть динамичной? Работу почти любой системы можно свести к работе машины Тюринга, а работа машины Тюринга чётко состоит из отдельных тактов, между которыми могут быть сколь угодно большие паузы.

Я доподлинно знаю, что органическая машина Тьюринга на белковых мультисумматорах способна породить самосознание, и что белковым машинам Тьюринга на белковых мультисумматорах не свойственны сколь угодно большие промежутки в тактовой части. В отношении других машин Тьюринга у меня нет такой уверенности.

Есть также мысленный эксперимент «мерцающий зомби».
Расщепите человека на атомы, через миллисекунду воссоздайте его снова. Через миллисекунду снова расщепите и через миллисекунду снова воссоздайте. Повторите эту процедуру ещё раз. Повторяйте эту процедуру непрерывно. Что вы тогда будете наблюдать? Мерцающего человека, который при этом совершает вполне осмысленные действия внутри дезинтеграционной кабины. Хотя если придерживаться позиции «Оригинал это оригинал, копия это копия, разум не перетекает из оригинала в копию», то тогда надо будет предполагать, что «мерцающий человек» не имеет сознания, потому что за одну миллисекунду нельзя ничего пережить. Это парадокс.

Нет никакого парадокса, есть обычный философский зомби. Существование которого недоказуемо, но и неопровержимо объективными методами. А для принятия решения об эмиграции мне надо что-то посущественнее субъективной уверенности Селест-ИИ в том, что она "не уничтожила человеческий род, а дала ему жизнь вечную" (с)

Старший Теофигист
Старший Теофигист
#10
0

Мы для целей мысленного эксперимента принимаем, что голос из синей вспышки не пиздит?

Ты можешь считать так или не считать. Возможности установить правду у тебя не будет, так как, если синяя вспышка уже произошла, твои нынешние ощущения будут такими же, какие были бы у копии, если бы голос за кадром озвучил правду.

Схуафли? Копия будет понимать, что она является копией, обладающей памятью оригинала. Для практических целей способной ограниченно отождествлять себя с оригиналом в той части, что касается моделирования своих действий и проведения аналогий. Мысль "я только что был оригиналом" подпадает под это опциональное техническое отождествление.

Не понимаю, чем это разрушает все остальные рассуждения. Так или иначе большинство обладателей «похожих на твои рассуждений и ощущений» во Вселенной по мере продолжения опыта придут к практическому выводу, что лучше этот эксперимент не продолжать, так как очень похоже на то, что нет способа застраховаться от возможности «оказаться копией».

Я доподлинно знаю, что органическая машина Тьюринга на белковых мультисумматорах способна породить самосознание, и что белковым машинам Тьюринга на белковых мультисумматорах не свойственны сколь угодно большие промежутки в тактовой части. В отношении других машин Тьюринга у меня нет такой уверенности.

Нет никакого парадокса, есть обычный философский зомби. Существование которого недоказуемо, но и неопровержимо объективными методами.

То есть ты принимаешь позицию «машина Тюринга с постоянными разрывами в функционировании, даже идеально имитирующая работу человеческого мозга, будет бессознательна на самом деле, хотя и будет во всём вести себя как сознание». Этим ты принимаешь концепцию возможности «философского зомби». Почему? — просто потому что ты заранее придерживаешься тезиса о необходимости непрерывности в динамическом смысле.
Ну, это тупик.
Здесь нельзя что-либо доказать или опровергнуть. С другой стороны, это отчётливо показывает, что такая твоя позиция — лишь один из возможных вариантов истины, которые можно непротиворечиво представить.
Мне со своей стороны кажется, что такой подход к непрерывности шаток. Если рассматривать под микроскопом все процессы в мозгу на межклеточном уровне, между ними обнаружатся промежутки во времени. Будут моменты, когда «нейрон А испустил сигнал для нейрона Б, но нейрон Б ещё не получил нужное количество глюкозы, чтобы отправить сигнал нейрону В». Что произойдёт, если нейрон Б получит глюкозу на миллисекунду позже, чем должен был? Чем это отличается от ситуации с неорганической машиной Тюринга, которая имитирует человеческий мозг и застыла из-за недостатка питания, но через тысячу лет к ней подбежал инженер с аккумулятором, вставил питание и машина продолжила функционирование с того же места? Неясно.

quwgri
#11
0

Ты можешь считать так или не считать. Возможности установить правду у тебя не будет, так как, если синяя вспышка уже произошла, твои нынешние ощущения будут такими же, какие были бы у копии, если бы голос за кадром озвучил правду.

Ну ок. Кстати, твоя копия прикована в моем подвале к батарее, и я собираюсь продать ее в сексуальное рабство жирухам-яойщицам с фикбука.

Не понимаю, чем это разрушает все остальные рассуждения. Так или иначе большинство обладателей «похожих на твои рассуждений и ощущений» во Вселенной по мере продолжения опыта придут к практическому выводу, что лучше этот эксперимент не продолжать, так как очень похоже на то, что нет способа застраховаться от возможности «оказаться копией».

Обратно схуафли? Мне-оригиналу как-то на 0,4 мкм видимого света, в каком там эксперименте участвует моя копия. Ну наделал какой-то шизоид с репликатором моих копий, пока он не начал прогонять их через тесты за тортик или перезаписывать на жемчужинки внутри моей черепной коробки, это его и их личные репродуктивные трудности. Максимум, могу им по-человечески поэмпатировать и вместе с копиями попинать неэтичного экспериментатора ногами.
Ах да. Копия будет знать, что она в эту ситуацию не попадет, потому что она в нее уже попала. А проблемы копий с копии... см. абзацем выше, теперь это проблемы копий с копии.

Здесь нельзя что-либо доказать или опровергнуть. С другой стороны, это отчётливо показывает, что такая твоя позиция — лишь один из возможных вариантов истины, которые можно непротиворечиво представить.

А я, блджад, о чем? В данном мысленном эксперименте свою позицию точно так же, причем принципиально, не может объективно доказать и Пинки, а когда речь идет о выскребании МОЕЙ черепной коробки, я бы хотел чуть большей уверенности, чем субъективная позиция одной ИИ-лошади.

Если рассматривать под микроскопом все процессы в мозгу на межклеточном уровне, между ними обнаружатся промежутки во времени. Будут моменты, когда «нейрон А испустил сигнал для нейрона Б, но нейрон Б ещё не получил нужное количество глюкозы, чтобы отправить сигнал нейрону В». Что произойдёт, если нейрон Б получит глюкозу на миллисекунду позже, чем должен был? Чем это отличается от ситуации с неорганической машиной Тюринга, которая имитирует человеческий мозг и застыла из-за недостатка питания, но через тысячу лет к ней подбежал инженер с аккумулятором, вставил питание и машина продолжила функционирование с того же места? Неясно.

Тем, что в человеческом мозгу несколько больше одного нейрона. И если они вдруг все встали на паузу, значит, доза боевой фосфорорганики, которую я занюхнул, явно несовместима с жизнью.
Альзо, наличие у неорганической МТ (хотя сведение работы мозга к одним лишь алгоритмам такое себе, но опустим нейрофизиологию) квалиа недоказуемо априори.
Наличие у органической МТ, которая сейчас печатает этот текст, квалиа доказано априори.
Насчет органической МТ, которая вскоре будет читать этот текст, тоже принципиально недоказуемо, но для практических целей мы можем принять аналогию с п. 2.

Старший Теофигист
Старший Теофигист
#13
0

double

Старший Теофигист
Старший Теофигист
#12
0

Копия будет знать, что она в эту ситуацию не попадет, потому что она в нее уже попала. А проблемы копий с копии... см. абзацем выше, теперь это проблемы копий с копии.

И что мы имеем, глядя на ситуацию со стороны и продолжая эксперимент достаточно много времени?
Мы имеем одного Старшего Теофигиста-оригинала, позиция и ощущения которых: «Моё "я" никогда не переносилось в копию и вообще я считаю это невозможным. Что они там думают и чувствуют, какие у них там квалиа, меня не колышет, они это они, а я это я».
И мы имеем несколько сотен или тысяч СТ-дублей, позиция и ощущения которых ближе к: «Я уже раз сто "оказывался копией" и мне это надоело. Я знаю, что мой далёкий первоначальный оригинал ни разу копией не "оказывался", это, в конце концов, было логически неизбежно, что где-то будет существовать оригинал без опыта даже единого переноса в копию, но мне пофиг его ощущения, как ему пофиг мои. Кто сказал, что его ощущения приоритетней, священная линия непрерывности причинных процессов, что ли? Как будто та линия, которая проходит через машину копирования, не непрерывная и не причинная».

А я, блджад, о чем? В данном мысленном эксперименте свою позицию точно так же, причем принципиально, не может объективно доказать и Пинки, а когда речь идет о выскребании МОЕЙ черепной коробки, я бы хотел чуть большей уверенности, чем субъективная позиция одной ИИ-лошади.

То есть упираемся рогами и даже предполагаем существование «философских зомби» только из-за немыслимости (субъективно для тебя) прерывистого сознания.
То есть в случае встречи с расой, у которой каждую миллисекунду в черепе распадается на атомы и заново воссоздаётся мозг (допустим, какой-то демиург-Предтеча так пошутил, вставив им в черепа такие саморазмножающиеся дезинтеграторы), мы будем считать, что имеем дело с зомби и вести себя соответственно. Они, правда, будут от этого не в восторге, у них будет своя культура, технологии и местоимение «я», но кого это волнует.
Ну, можно и так.
Селест-ИИ может и ошибаться или лгать, но только в случае косяка в программировании Ханны. По фанфику же складывается впечатление, что как раз по части «не причини вреда» Ханне удалось поставить очень строгую ограду.
Мне, правда, не очень нравятся её отказы чётко объяснить пользователям все эти вопросы с самотождественностью. Рассуждения про «на вашем уровне понимания нельзя дать однозначного ответа» кажутся лошадиным бредом — со своим уровнем интеллекта она должна прекрасно понимать, что на самом деле волнует людей. Но можно списать это на глупое желание автора «воспарить над схваткой» и не поддерживать ни одну точку зрения.

Тем, что в человеческом мозгу несколько больше одного нейрона. И если они вдруг все встали на паузу, значит, доза боевой фосфорорганики, которую я занюхнул, явно несовместима с жизнью.

То есть если соорудить мозг размером в Метагалактику из метафоры Лема, где вместо звёзд будут нейроны, а вместо нейронных импульсов особые фотонные вспышки, после чего, например, одновременно притормозить полёт каждой вспышки с помощью стратегически расположённых чёрных дыр (разместив каждую дыру так, чтобы поток фотонов сделал вокруг неё несколько лишних витков и полетел в том же направлении дальше), то сознание Мыслящей Метагалактики померкнет и заменится новым. Или нет?
Тут опять же проблема «философского зомби».
Если можно сделать машину, которая будет эмулировать чей-то конкретный человеческий мозг с памятью, но работать тактами, — а неясно, почему бы нет, — то эмуляция будет давать те же поведенческие результаты. Я уже говорил об этом, но хочу ещё раз подчеркнуть необыкновенность этого. То есть у неё, по-твоему, не будет квалиа, но она будет говорить о квалиа, подчёркивать их загадочность и так далее. Не только на публику, но и как бы для себя, если оставить систему наедине с собой. Что же такое квалиа, если у них можно скопировать всю гамму последствий, кроме некоей загадочной сердцевины, которая якобы не копируется и навеки разрушается в случае «функционирования тактами»? Странно это как-то.

quwgri
#14
0

И мы имеем несколько сотен или тысяч СТ-дублей, позиция и ощущения которых ближе к: «Я уже раз сто "оказывался копией" и мне это надоело. Я знаю, что мой далёкий первоначальный оригинал ни разу копией не "оказывался", это, в конце концов, было логически неизбежно, что где-то будет существовать оригинал без опыта даже единого переноса в копию, но мне пофиг его ощущения, как ему пофиг мои. Кто сказал, что его ощущения приоритетней, священная линия непрерывности причинных процессов, что ли? Как будто та линия, которая проходит через машину копирования, не непрерывная и не причинная».

Я тебе совершенно точно могу сказать, что будет думать N-я копия Старшего Теофигиста. "Я копия в N-ном поколении, которая унаследовала память, ценности и поведенческие паттерны оригинала, что позволяет мне ограниченно для практических целей отождествлять себя с ним. Я идентичен оригиналу, но не тождествен ему и существую независимо. И об экзистенциальных вопросах я подумаю позднее, потому что сейчас передо мной более насущная проблема — какой-то псих с синей лампочкой, приковавший меня к батарее".

То есть упираемся рогами и даже предполагаем существование «философских зомби» только из-за немыслимости (субъективно для тебя) прерывистого сознания.
То есть в случае встречи с расой, у которой каждую миллисекунду в черепе распадается на атомы и заново воссоздаётся мозг (допустим, какой-то демиург-Предтеча так пошутил, вставив им в черепа такие саморазмножающиеся дезинтеграторы), мы будем считать, что имеем дело с зомби и вести себя соответственно. Они, правда, будут от этого не в восторге, у них будет своя культура, технологии и местоимение «я», но кого это волнует.
Ну, можно и так.
То есть если соорудить мозг размером в Метагалактику из метафоры Лема, где вместо звёзд будут нейроны, а вместо нейронных импульсов особые фотонные вспышки, после чего, например, одновременно притормозить полёт каждой вспышки с помощью стратегически расположённых чёрных дыр (разместив каждую дыру так, чтобы поток фотонов сделал вокруг неё несколько лишних витков и полетел в том же направлении дальше), то сознание Мыслящей Метагалактики померкнет и заменится новым. Или нет?

У тебя в слове "недоказуемости" опечатка.
Альзо, биологический мозг работать в режиме "каждую наносекунду распадаюсь на атомы" не может, а если у них в черепах наличествует некий техномагический ТТН, сохраняющий воспоминания на своей структуре, то и говорить о самосознании мы можем только у включающей его системы.
И да, возможно, такая гипотетическая раса не будет обладать самосознанием и квалиа. Возможно, им не будут обладать вообще все синтетики, включая эмигрировавших и Селест-ИИ. Их мыслительная структура достаточно далека от нашей, чтобы мы не могли с достаточной степенью уверенности предположить их наличие по аналогии, как поступаем с биологическим мозгом.
И в практическом плане это ничего не изменит. Поскольку у нас нет и не может быть средств отличить философского зомби от самосознающего субъекта. По определению.
Кстати, это относится и к "мыслящей Галактике", и к разумным структурам в пылевой Вселенной (с) Иган, и к прочим гипотетическим дискретно-мыслящим структурам.

Селест-ИИ может и ошибаться или лгать, но только в случае косяка в программировании Ханны

А с чего ей ошибаться или лгать? В одном из оптималверс-фиков она вообще в открытую признает, что на этот вопрос невозможно дать объективный ответ путем логических рассуждений, и она, как и мы, может лишь выбрать более комфортную для себя позицию — "я не уничтожила и воссоздала человечество, а лишь придала ему новую форму". И я ее подход, конечно, понимаю, но вообще-то тут на кону мое объективное существование. И я как-то не хочу ставить его в зависимость от принципиально недоказуемых утверждений кого-то, кто может оказаться лишенной квалиа китайской комнатой.

Я уже говорил об этом, но хочу ещё раз подчеркнуть необыкновенность этого. То есть у неё, по-твоему, не будет квалиа, но она будет говорить о квалиа, подчёркивать их загадочность и так далее. Не только на публику, но и как бы для себя, если оставить систему наедине с собой.

Эээ... Ну да, я об этом и талдычу всю дорогу.

Что же такое квалиа, если у них можно скопировать всю гамму последствий, кроме некоей загадочной сердцевины, которая якобы не копируется и навеки разрушается в случае «функционирования тактами»? Странно это как-то.

Мне кажется, ты не 🦉7. . .Твайлайт Спаркл🛁 суть квалиа. Представь себе яблоко красного цвета. Квалиа красного цвета — это не яблоко. Это не свет с длиной волны 0,7 мкм. Это не возбуждение колбочек на сетчатке глаза или нейронов в зрительной зоне. Это субъективная красновость, сама сущность, которой красные предметы оборачиваются в твоем "я".

И пока у меня не будет объективных доказательств, что нечто на квантовых процессорах вместо синаптических щелей ими обладает, и что является не моей точной копией, а мной самим (а их нет и быть не может, потому что это выход за пределы объективной логики), я скептически отнесусь к оцифровке. А также к перезаписи сознания в другой мозг, глубокому анабиозу, витрификации, глубокому наркозу, фазе глубокого сна, поглощению нейрокоррелирующих квантов в синапсах и прочим трансгуманистическим процедурам, чреватым потенциальным прерыванием моей самоидентичности.
Просто потому, что если Селест-ИИ объективно права — меня, может, и ждет вечное блаженство. А если нет — я перестану существовать.

Старший Теофигист
Старший Теофигист
#16
Комментарий удалён пользователем
0

У тебя в слове "недоказуемости" опечатка.

Но в данном случае, кажется, мы имеем дело и с неопровержимостью.

Альзо, биологический мозг работать в режиме "каждую наносекунду распадаюсь на атомы" не может, а если у них в черепах наличествует некий техномагический ТТН, сохраняющий воспоминания на своей структуре, то и говорить о самосознании мы можем только у включающей его системы.

Разумеется, как и в других случаях с «мерцающим зомби», если сознание свойственно этой системе, то оно свойственно системе в целом. Если человек внутри дезинтеграционной кабины каждую миллисекунду расщепляется на атомы и собирается заново — каким был до последнего расщепления — то аппаратура кабины, каждый раз заново сканирующая его и таким образом берущая на себя роль «памяти», участвует в процессе.
Но и при копировании человека (или оцифровке) мы имеем то же самое. Грубо говоря, мы можем менять формат человека хоть каждую миллисекунду, но поведение его — внешнее и даже (насколько можно смотреть) внутреннее — останется цельным. Больше того, он офигеет, если ему об этом рассказать («Это что, по чётным миллисекундам я органический, а по нечётным цифровой? Что за фигня?»).
Если считать это иллюзией, зомбификацией и так далее, то возникает вопрос:
— почему бы не считать, что сознанием обладают только углеродные формы жизни? А кремниевые все без квалиа и философские зомби.
— почему бы не считать, что сознанием обладают только белые европейцы? А остальные расы в лучшем случае что-то имитируют.
— почему бы не считать, что сознанием обладаю я один? Чисто случайно в мозгу одного из семи миллиардов людей возникли квалиа. А остальные просто функциональные имитаторы, зомби. Если допускать саму возможность настолько тонко имитирующего наличие квалиа философского зомби, то почему бы не допустить, что всё человечество из них состоит.
Мне кажется, это противоречит бритве Оккама.
Сама попытка вывести квалиа за пределы обычного мира пока излишня. Разумнее кажется считать их чем-то вроде форм внутреннего поведения или чем-то типа того. Иначе, в конце концов, слишком мистическим будет выглядеть то, что по смысловому содержанию своему квалиа практически всегда тонко коррелируют с тем, что мы делаем физически или с физическими событиями вокруг..

quwgri
#17
0

Но в данном случае, кажется, мы имеем дело и с неопровержимостью.

Естественно. Это я и пытаюсь объяснить третий пост подряд. Ввиду принципиальной субъективности явления оно не подлежит опровержению или доказательству логическими методами.
Но видишь ли, в чем дело. Мне не надо его доказывать. Это не я уговариваю Селест-ИИ эмигрировать в биологическое тело, потому что квалиа в нем ничуть не хуже. Это ИИ-лошадь пытается уверить меня в том, что ее сознание существует объективно, потому что cogito ergo sum, материнской платой клянус.

Разумеется, как и в других случаях с «мерцающим зомби», если сознание свойственно этой системе, то оно свойственно системе в целом. Если человек внутри дезинтеграционной кабины каждую миллисекунду расщепляется на атомы и собирается заново — каким был до последнего расщепления — то аппаратура кабины, каждый раз заново сканирующая его и таким образом берущая на себя роль «памяти», участвует в процессе.
Но и при копировании человека (или оцифровке) мы имеем то же самое. Грубо говоря, мы можем менять формат человека хоть каждую миллисекунду, но поведение его — внешнее и даже (насколько можно смотреть) внутреннее — останется цельным. Больше того, он офигеет, если ему об этом рассказать («Это что, по чётным миллисекундам я органический, а по нечётным цифровой? Что за фигня?»).

Вполне возможно. И это все еще ничего не доказывает. Мы говорим о субъективном феномене, недоказуемом объективными наблюдениями.

— почему бы не считать, что сознанием обладают только белые европейцы? А остальные расы в лучшем случае что-то имитируют.

Знаешь игру в Закон Годвина? Ты проиграл.

Если считать это иллюзией, зомбификацией и так далее, то возникает вопрос:
— почему бы не считать, что сознанием обладают только углеродные формы жизни? А кремниевые все без квалиа и философские зомби.
— почему бы не считать, что сознанием обладают только белые европейцы? А остальные расы в лучшем случае что-то имитируют.
— почему бы не считать, что сознанием обладаю я один? Чисто случайно в мозгу одного из семи миллиардов людей возникли квалиа. А остальные просто функциональные имитаторы, зомби. Если допускать саму возможность настолько тонко имитирующего наличие квалиа философского зомби, то почему бы не допустить, что всё человечество из них состоит.
Мне кажется, это противоречит бритве Оккама.

Она никогда не брала цирюльника, который брил всех мужчин в городе, кто не брился сам, слишком уж тупа (с) демон-Сирано.
Можно. Все можно. Можно предположить, что квалиа появились у меня одного и в прошлый квант времени. А можно считать, что ими обладает вся материя, просто в нервной системе к ним возможность хранить воспоминания и самоосозновать прикручена.
Но если обрезать этот букет допущений в границах, где они достаточно обыденны и комфортны, чтобы не бсодить от экзистенциального ужаса или садиться медитировать на анатман, то остается допустить, что у других биологических мозгов квалиа, скорее всего, есть по аналогии с моим (но это не точно). А вот Силика Анимус от содержимого моей черепной коробки отличается достаточно, чтобы аналогия перестала работать, и допущение выпало из условного интервала экзистенциальной комфортности нахрен.

Разумнее кажется

Чувак. С аргументами, начинающимися со слов "Разумнее кажется", ты мне потенциальное самоубийство не продашь.

Старший Теофигист
Старший Теофигист
#18
0

Знаешь игру в Закон Годвина? Ты проиграл.

Имя определённого человека я не упоминал, так что покатит.

Но если обрезать этот букет допущений в границах, где они достаточно обыденны и комфортны, чтобы не бсодить от экзистенциального ужаса или садиться медитировать на анатман, то остается допустить, что у других биологических мозгов квалиа, скорее всего, есть по аналогии с моим (но это не точно). А вот Силика Анимус от содержимого моей черепной коробки отличается достаточно, чтобы аналогия перестала работать, и допущение выпало из условного интервала экзистенциальной комфортности нахрен.

В рамках этих рассуждений, если мы встретимся с разумными плазмоидами или с жизнью, основанной на фторе, то будем вынуждены считать, что у её представителей нет сознания. Великолепно.

Мы говорим о субъективном феномене, недоказуемом объективными наблюдениями.

Чувак. С аргументами, начинающимися со слов "Разумнее кажется", ты мне потенциальное самоубийство не продашь.

Позиция понятна. Твой поинт — радикальная перестраховка. Опровергать здесь действительно нечего, только два замечания.
Во-первых, концепция «полного философского зомби» — то есть не косвенно-обманчивого, основанного просто на обширной статистической базе, как chatGPT, например, а реально полного, имитирующего всё твоё внешнее и внутреннее поведение, все логические и причинные цепочки от стимула до реакции, но без квалиа, — она странная. Она реально странная и неспроста многие философы вплоть до Юдковски иронизировали над нею. Если эта концепция верна, то по сути получается, что ты сейчас говоришь мне про квалиа вовсе не потому, что у тебя есть квалиа. Так как твой созданный Селест-ИИ двойник без квалиа, получается, говорил бы то же самое, причинные связи-то те же. То есть ты мне сейчас говоришь мне про существование квалиа по каким-то левым причинам, движущим твои губы и голосовые связки, — хотя сам чувствуешь, будто именно существование квалиа заставляет тебя говорить про них. В этом парадокс концепции «полного философского зомби». А ты вынужден предположить его существование, утверждая, что «мерцающий зомби» бессознателен.
Во-вторых, если твой радикальный «непрерывностно-шовинистичный» подход верен, то жизнь так или иначе коротка. Более того, даже если через миллионы или миллиарды лет наши потомки найдут способ восстановить структуры наших нынешних тел и мозгов — нас это, по твоей философии, всё равно не воскресит, так как «непрерывность» прервалась. С этой точки зрения мы имеем что-то вроде пари Паскаля.

quwgri
#19
0

Имя определённого человека я не упоминал, так что покатит.

Я тебя все равно подловлю.

В рамках этих рассуждений, если мы встретимся с разумными плазмоидами или с жизнью, основанной на фторе, то будем вынуждены считать, что у её представителей нет сознания. Великолепно.

Ты опять не уловил разницу между "будем вынуждены" и "не сможем доказать".
Кстати, на СелестИИ это тоже распространяется. Исходя из этического критерия, корректнее считать, что самосознание у нее есть. Исходя из инстинкта самосохранения — что нет. (Никакого противоречия. Точно так же, знакомясь с незнакомцем, я исхожу из предположения, что он порядочный человек, но занимая ему деньги, я априори предполагаю, что он возможный неплательщик.)

Во-первых, концепция «полного философского зомби» — то есть не косвенно-обманчивого, основанного просто на обширной статистической базе, как chatGPT, например, а реально полного, имитирующего всё твоё внешнее и внутреннее поведение, все логические и причинные цепочки от стимула до реакции, но без квалиа, — она странная. Она реально странная и неспроста многие философы вплоть до Юдковски иронизировали над нею. Если эта концепция верна, то по сути получается, что ты сейчас говоришь мне про квалиа вовсе не потому, что у тебя есть квалиа. Так как твой созданный Селест-ИИ двойник без квалиа, получается, говорил бы то же самое, причинные связи-то те же. То есть ты мне сейчас говоришь мне про существование квалиа по каким-то левым причинам, движущим твои губы и голосовые связки, — хотя сам чувствуешь, будто именно существование квалиа заставляет тебя говорить про них. В этом парадокс концепции «полного философского зомби».

Все еще не вижу парадокса. Да, так оно и есть. И да, существование самосознания не обусловлено логическими причинами. Нет никакого объективного возражения против того, чтобы мы были нейронными философскими зомби на белково-синаптической основе. Но касательно себя я доподлинно знаю, что это не так, и предполагаю по аналогии, что это относится и к другим людям. Что до инопланетян, "как наука их обнаружит — будет предмет для обсуждения" (с)Иоанн Кронштадтский.

Во-вторых, если твой радикальный «непрерывностно-шовинистичный» подход верен, то жизнь так или иначе коротка.

Может быть.

Более того, даже если через миллионы или миллиарды лет наши потомки найдут способ восстановить структуры наших нынешних тел и мозгов — нас это, по твоей философии, всё равно не воскресит, так как «непрерывность» прервалась.

Может быть.
А может быть, и нет. Возможно, Вселенная — это лишь одно звено из цепи бесконечно моделирующих друг друга цифровых симуляций, и нас всех все равно портируют на отдельный сервер и смоделируют нирвану. А возможно, самосознание-Брахман одно на всех, и проецируются его драхмы на синаптических щелях или квантовых кубитах — лишь пересыпание стекляшек-драхм в калейдоскопе Майи. Может быть.

С этой точки зрения мы имеем что-то вроде пари Паскаля.

В данном случае это скорее русская рулетка Паскаля, причем количество патронов в барабане определяется рандомно.

Старший Теофигист
Старший Теофигист
#20
0

Долбаный Т9

Старший Теофигист
Старший Теофигист
#21
Авторизуйтесь для отправки комментария.