Ся Цзя

Спокойной ночи, меланхолия


Линди (1)


Я помню, как Линди впервые вошла в мой дом.

Она поднимала ножки и осторожно ставила их на гладкий, полированный паркет, словно ребенок, который, дрожа, неуверенно ступает по только что выпавшему снегу — осторожно, чтобы не загрязнить чистое белое одеяло, чтобы не утонуть в бесформенном слое из белых пушинок.

Я взяла Линди за руку. Ее мягкое тело было набито ватой, а стежки — моя работа — шли вкривь и вкось. Я сшила ей плащ с капюшоном из алого войлока, словно у персонажа сказки, которую я читала в детстве. Уши Линди были разной длины, и то, что побольше, печально повисло.

Увидев ее, я невольно вспомнила все свои поражения: куклы из яичной скорлупы, которые я испортила на уроке рукоделия, рисунки, которые выглядели совсем не так, как мне хотелось, напряженные, неловкие улыбки на фотографиях, шоколадный пудинг, сгоревший до состояния угля, проваленные экзамены, ожесточенные ссоры и расставания с парнями, маловразумительные отчеты о работе в школе, статьи, которые были сто раз отредактированы, но в итоге оказались непригодными для публикации...

Ноко повернул свою пушистую головку, чтобы посмотреть на нас. Его мощные камеры сканировали, анализировали тело Линди. Я почти слышала, как он ведет вычисления. Алгоритмы заставляли Ноко реагировать только на говорящие объекты.

— Ноко, это Линди. — Я поманила его. — Иди сюда, поздоровайся.

Ноко открыл рот, и из него вырвался звук, похожий на зевок.

— Веди себя прилично, — сказала я, немного повысив голос, словно мать, которая заботится о дисциплине.

Ноко что-то неохотно пробурчал. Я знала, что так он пытается привлечь мое внимание и пробудить во мне симпатию. Эти сложные, заранее заготовленные модели поведения были созданы на основе наблюдений за маленькими детьми, и именно они играли ключевую роль в обучении роботов речи. Без интерактивной обратной связи Ноко стал бы похожим на ребенка из аутического спектра, который выучил весь курс грамматики и зазубрил словарь, но все равно не может общаться с другими людьми.

Ноко вытянул пушистый ласт, посмотрел на меня своими огромными глазами, а затем повернулся к Линди. Дизайнер не случайно выбрал для него форму белька: любой, кто увидит его пухлые щеки и большие темные глаза, невольно расслабится и захочет обнять его, погладить по голове и сказать: «О-о, мне так приятно с тобой познакомиться!» Если бы Ноко сделали похожим на младенца, то его гладкое синтетическое тело приводило бы всех в ужас.

— Привет, — сказал он, тщательно произнося звуки, как я его учила.

— Так-то лучше. Линди, знакомься, это Ноко.

Линди внимательно осмотрела Ноко. Ее глаза были похожи на две черные пуговицы, и за ними были спрятаны камеры. Вышить ей рот я поленилась, а это значит, что ее мимика была довольно ограниченной, словно у принцессы, которая не может говорить и улыбаться из-за наложенных на нее чар. Но я знала, что говорить Линди умеет — просто сейчас она нервничала в новой для себя обстановке. На нее хлынул поток информации, и ей приходилось учитывать слишком много факторов, словно в сложной позиции в го, где каждый ход ведет к каскаду из тысяч изменений.

Моя ладонь, в которой лежала рука Линди, вспотела. Я тоже чувствовала напряжение.

— Ноко, может, ты хочешь, чтобы Линди тебя обняла? — спросила я.

Отталкиваясь плавниками, Ноко сделал несколько прыжков вперед. Затем он расправил передние плавники и напрягся, чтобы удерживать туловище в вертикальном положении. Уголки его рта растянулись, и на его мордочке появилась любопытная, дружелюбная улыбка. «Идеальная улыбка», — подумала я, наблюдая за ним. Гениальный дизайн. В прошлом те, кто занимался исследованиями искусственного интеллекта, часто игнорировали интерактивные элементы, не относящиеся к лингвистике. Они считали, что «разговор» — это когда программист просто вводит вопросы в компьютер.

Линди обдумала мои слова. В данной ситуации вербальный ответ не требовался, и это значительно облегчило ей расчеты. «Да» или «нет» — двоичное решение, словно подбрасывание монеты.

Она наклонилась и обвила Ноко своими мягкими руками.

«Отлично, — подумала я. — Ты ведь мечтаешь, чтобы тебя обняли».


* * *


Алан (1)


В последние дни своей жизни Алан Тьюринг создал машину, которая умела общаться с людьми. Он назвал ее «Кристофер».

Управлять «Кристофером» было просто: собеседник набирал то, что хотел сказать, на пишущей машинке, и механизмы, подключенные к ней, одновременно выбивали последовательности отверстий в бумажной ленте, которая поступала в машину.

Произведя вычисления, машина давала ответ, который механизмы, соединенные с другой пишущей машинкой, превращали в буквы английского алфавита. Обе машинки Тьюринг модифицировал так, чтобы они выдавали текст в заранее определенной, систематизированной манере: например, вместо буквы «А» в тексте появлялась «S», вместо «S» — «M», и так далее. Для Тьюринга, который разгадал код «Энигма» Третьего рейха, это была лишь небольшая лингвистическая игра в его наполненной тайнами жизни.

Саму машину никто не видел, но после смерти Тьюринга от него остались две коробки с записями разговоров, которые он вел с «Кристофером». В коробках в беспорядке лежали смятые листы бумаги, и поначалу содержимое бесед расшифровать не удалось.

В 1982 году Эндрю Ходжес, математик из Оксфорда и автор биографии Тьюринга, попытался расшифровать записи. Но каждый разговор был зашифрован по-своему, а на страницах не было ни номеров, ни дат, что значительно осложняло процесс дешифровки. Ходжес нашел кое-какие зацепки и написал несколько комментариев, но расшифровать беседы не смог.

Тридцать лет спустя группа студентов Массачусетского Технологического института захотела решить эту задачу в честь столетия со дня рождения Тьюринга. Поначалу студенты пытались найти ответ с помощью «грубой силы», поручив компьютеру проанализировать все возможные последовательности на каждой странице, но оказалось, что для этого понадобились бы огромные ресурсы. В ходе работы женщина по имени Джоан Ньюмен внимательно изучила исходный машинописный текст и обнаружила незаметные различия в том, как клавиши прижимались к бумаге на разных страницах. Это навело Ньюмен на мысль, что текст печатали на двух разных машинках, и она выдвинула смелую гипотезу о том, что он представляет зашифрованный разговор между Тьюрингом и неизвестным собеседником.

Это заставило многих вспомнить о знаменитом тесте Тьюринга, но студенты отказывались верить в то, что в 1950-х кто-то — даже сам Алан Тьюринг — мог создать компьютерную программу, способную поддерживать разговор с человеком. Гипотетического собеседника Тьюринга они назвали «Дух» и придумали про него кучу нелепых легенд.

В любом случае, гипотеза Ньюмен предложила будущим дешифровщикам несколько обходных путей. Они, например, стали искать повторения в последовательностях букв и в грамматических структурах, а затем выстраивать страницы так, чтобы найти вопросы и соответствующие им ответы. Они также попытались использовать списки родных и друзей Тьюринга, чтобы угадать имя собеседника, и в конце концов нашли шифротекст для имени «Кристофер». Возможно, это была отсылка к Кристоферу Моркому — мальчику, в которого был влюблен шестнадцатилетний Тьюринг. Юные Алан и Кристофер обожали науку и однажды, холодной зимней ночью вместе наблюдали за полетом кометы. В феврале 1930 года Кристофер умер от туберкулеза, когда ему было всего восемнадцать.

Тьюринг говорил, что для взламывания шифров необходимы не только логические выводы, но и интуитивные озарения, причем последние иногда даже важнее первых. Иными словами, все научные исследования можно было представить в виде задач на интуицию и неординарное мышление. В конце концов загадку, оставленную Тьюрингом, разгадали интуиция Ньюмен и логика компьютера. Из расшифрованных разговоров стало ясно, что «Кристофер» — это не дух, а машина, программа для разговоров, написанная самим Тьюрингом.

Вскоре возник новый вопрос: могла ли машина Тьюринга действительно отвечать, словно человек? Иными словами, прошел ли «Кристофер» тест Тьюринга?


* * *


Линди (2)


В углу темного экрана «айволла» мигали числа, которые извещали меня о пропущенных звонках и новых сообщениях, но просмотреть их не было времени. Я была слишком занята, чтобы выполнять свои социальные обязательства.

Вспыхнул голубой огонек. Его сопровождал грохот, похожий на стук в дверь. Я подняла взгляд и увидела на «айволле» яркие, крупные буквы.

17:00. ПОРА ГУЛЯТЬ С ЛИНДИ.

Психотерапевт сказал, что Линди нужен солнечный свет. Ее глаза были оснащены фоторецепторами, которые точно измеряли ежедневную дозу полученного ею ультрафиолета. Круглосуточное пребывание дома не способствовало выздоровлению.

Я вздохнула. Моя голова была тяжелой и холодной, словно свинцовый шар. Уход за Ноко и так отнимал у меня много времени, а теперь нужно разбираться еще и... нет, нет, жаловаться нельзя. Жалобы ничего не изменят. Надо настроиться на позитив. Любое настроение — это не просто реакция на внешние события, но и наше понимание их на самом глубоком уровне. Этот когнитивный процесс часто происходит подсознательно, словно по привычке, и завершается еще до того, как мы успеваем что-то сообразить. Часто нами овладевает какое-то настроение, и мы не можем понять почему, а изменить его усилием воли очень сложно.

Взять, к примеру, наполовину съеденное яблоко: кто-то восхитится, увидев его, а других оно приведет в уныние. Те, кем часто овладевает отчаяние и чувство собственной беспомощности, связывают обгрызенное яблоко с другими потерями, которые они понесли в жизни.

Это пустяк, просто прогулка. Через час вернемся. Линди нужен солнечный свет, а мне — свежий воздух.

Наносить макияж не было сил, и, кроме того, мне не хотелось, чтобы он привлекал ко мне внимание: за несколько дней сидения дома я совсем перестала за собой следить. В качестве компромисса я собрала волосы в хвост, надела кепку-бейсболку, худи и кроссовки. Этот худи с надписью «Я ♥ СФ» я купила в Сан-Франциско, в районе Рыбацкая пристань. Его текстура и цвета напоминали мне о том далеком летнем дне: о чайках, холодном ветре и о вишне в коробочках, которую продавали на улицах, — такой спелой, что, казалось, еще немного, и из нее брызнет красный сок.

Крепко взяв Линди за руку, я вышла из квартиры и спустилась вниз на лифте. Транспортные трубы и «айкарты» значительно облегчили жизнь: чтобы попасть из одного конца города в другой или перейти напрямую из одного небоскреба в другой, требовалось менее двадцати минут. Для сравнения: мне понадобилось значительно больше усилий, чтобы просто выбраться из своего дома на улицу.

Хмурое небо. Легкий ветерок. Тишина. Я направилась к парку за домом. На дворе был май: яркие весенние цветы уже увяли, и осталась лишь чистая зелень. В воздухе витал слабый аромат белых акаций.

В парке было малолюдно: днем, в разгар рабочей недели, на улицу выходили только старики и дети. Они обитали в уголках и закоулках города, похожего на эффективную, стремительную машину, и измеряли пространство своими ногами, а не скоростью передачи информации. Я увидела девочку с волосами, собранными в хвостики, которая училась ходить. Крепко сжав пухлые кулачки, она вцепилась в длинные, сильные пальцы няни «айватара» и смотрела по сторонам. Ее темные живые глаза напомнили мне о Ноко. Ковыляя, она потеряла равновесие и упала ничком. Няня «айватар» ловко подхватила ее и поставила на ноги. Девочка радостно взвизгнула, словно наслаждаясь новыми ощущениями. Все в мире было для нее новым.

Старуха в электрическом кресле на колесах подняла голову и сонно посмотрела на смеющуюся девочку. Уголки ее рта опустились — может, от угрюмости, а может, от веса прожитых лет. Ее возраст я определить не могла: в наше время почти все жили долго. Через несколько секунд женщина положила покрытую редкими белыми волосами голову на руки, словно засыпая.

У меня вдруг возникло сильное ощущение того, что старая женщина, я и девочка находимся в трех совершенно разных мирах. Один из этих миров мчался ко мне, в то время как другой уходил все дальше и дальше. Но, с другой точки зрения, именно я медленно шла к этому темному миру, из которого не возвращаются.

Линди шаркала, стараясь не отстать от меня, — молча, словно крошечная тень.

— Хорошая погода, верно? — шепнула я. — Не жарко, но и не холодно. Смотри, одуванчики.

Рядом с дорожкой белые пушистые шарики раскачивались на ветру. Я взяла Линди за руку, и мы постояли немного, разглядывая их, словно пытаясь разгадать смысл этих повторяющихся движений.

Смысл нельзя свести к языку. Но если о нем нельзя говорить, как он может существовать?

— Знаешь, Линди, почему ты несчастлива? — спросила я. — Потому что слишком много думаешь. Посмотри на эти семена. У них тоже есть душа, но они вообще не думают. Им нужно только одно: весело танцевать вместе со своими товарищами. Их не заботит мысль о том, куда их унесет ветер.

Блейз Паскаль сказал: «Человек — всего лишь тростник, самое слабое существо в природе, но он — тростник мыслящий». Однако, если бы тростник мог мыслить, каким ужасным стало бы его существование! Сильный ветер может повалить все стебли тростника. Смогли бы они танцевать, если бы их тревожила мысль о подобной судьбе?

Линди ничего не ответила.

Подул ветерок. Я закрыла глаза и почувствовала, как волосы бьют меня по лицу. Рано или поздно шарики с семенами разрушатся, но одуванчики это не опечалит. Я открыла глаза.

— Пойдем домой.

Линди не сдвинулась с места. Одно ее ухо опустилось вниз. Я наклонилась, взяла Линди на руки и пошла к дому. Ее крошечное тело было гораздо тяжелее, чем я ожидала.


* * *


Алан (2)


В своей статье «Вычислительные машины и разум», опубликованной в журнале «Mind» в октябре 1950 года, Тьюринг задал вопрос, который уже давно беспокоил людей: «Могут ли машины мыслить?» Он фактически превратил этот вопрос в новый: «Могут ли машины делать то же самое, что и мы (мыслящие существа)?»

Долгое время многие ученые твердо верили, что когнитивная деятельность человека обладает определенными характеристиками, недоступными для машин. Эта вера представляла собой смесь религиозных убеждений и доводов из области математики, логики и биологии. Подход Тьюринга позволял обойти неразрешимые вопросы — такие как вопрос о природе «мышления», «разума», «сознания», «души» и подобных концепций. Тьюринг указывал на то, что признать другого человека «думающим» невозможно, если не сравнить его с самим собой. Поэтому он предложил набор экспериментальных критериев, основанных на принципе имитации.

Представьте себе полностью изолированную комнату, в которой сидят мужчина (A) и женщина (B). Третий человек, C, сидит за пределами комнаты и задает находящимся в комнате вопросы с целью определить, кто из них является женщиной. Ответы приходят в виде слов, напечатанных на ленте бумаги. Если и A, и B пытаются убедить C в том, что каждый из них является женщиной, то догадка C, скорее всего, будет ошибочной.

Если мы заменим мужчину и женщину в комнате на человека (B) и машину (A) и если после нескольких вопросов C не может понять, является ли машиной A или B, должны ли мы признать, что A обладает таким же разумом, что и B?

Кое-кто предполагал, что эта игра с имитацией гендера связана с самоопределением Тьюринга, ведь по законам Великобритании того времени гомосексуальность считалась «преступлением откровенно неприличного характера». Алан Тьюринг никогда не скрывал своей сексуальной ориентации, но не мог заявить об этом открыто.

В январе 1951 года дом Тьюринга в Уилмслоу был ограблен. Тьюринг сообщил об этом в полицию. В ходе расследования полиция выяснила, что грабитель был знакомым человека по имени Арнольд Мюррей, которого Тьюринг неоднократно приглашал к себе в гости. На допросе Тьюринг признал, что находится в сексуальной связи с Мюрреем, и добровольно написал заявление на пяти страницах. Следователи были шокированы его откровенностью и назвали его эксцентриком, «который действительно полагал, что поступает правильно».

Тьюринг полагал, что королевская комиссия легализует гомосексуальные отношения. Он был прав, однако это произошло позже, чем он рассчитывал. Тьюринга признали виновным и подвергли химической кастрации.

7 июня 1954 года Тьюринг умер, съев яблоко, пропитанное цианидом. В ходе следствия полиция пришла к заключению, что смерть наступила в результате самоубийства, но некоторые (и в том числе его мать) утверждали, что это несчастный случай. Умерев, талантливый дешифровщик оставил миру свою последнюю тайну.

Много лет спустя люди попытались найти ключ к разгадке в записях разговоров между Тьюрингом и «Кристофером». Судя по записям, Тьюринг обращался к «Кристоферу», как к человеку. Он рассказывал «Кристоферу» о своих воспоминаниях из детства, о снах — и о попытках проанализировать с их помощью состояние своей психики. Тьюринг говорил с ним о последних научных открытиях, о литературе, в том числе о «Назад к Мафусаилу» Бернарда Шоу и о «Войне и мире» Льва Толстого, он рассказывал ему то, что хранил втайне от всех, — например, о своих любовниках...

Кроме того, он рассказывал «Кристоферу» полувымышленные истории, героем которых был юноша-гей по имени Алек Прайс. Прайс изучал проблему межпланетных путешествий... Когда ему было двадцать с чем-то, он выдвинул теорию о том, что теперь называют «буй Прайса». Он никогда не носил костюмы, предпочитая форму студента, которая соответствовала его уровню умственного развития и позволяла ему по-прежнему считать себя привлекательным юношей. В толпе он чувствовал себя неловко — либо из-за одиночества, либо потому что нарушал правила приличия...

Эти истории были незаконченными, обрывочными. Но «Кристофер», словно любопытный ребенок, каждый раз спрашивал: «И что было дальше?»

В этих разговорах мы видим ту сторону Тьюринга, которую он скрывал: мы видим нежного, чувствительного и остроумного человека, увлеченного природой смерти и отягощенного невыразимой меланхолией.


Алан: Дорогой Кристофер, ты знаешь, чего я боюсь больше всего?

Кристофер: Чего ты боишься больше всего?

Алан: Я боюсь, что однажды всю мою жизнь изложат в виде силлогизма:

Тьюринг верит в то, что машины мыслят.

Тьюринг спит с мужчинами.

Следовательно, машины не мыслят.

Кристофер: Прости, Алан. Боюсь, что я не понимаю.

Алан: Ты знаешь, что такое силлогизм?

Кристофер: Что такое силлогизм?

Алан: Силлогизм состоит из большей посылки, меньшей посылки и выведенного из них заключения.

Кристофер: Заключения?

Алан: Аристотель дал классический пример:

Всякий человек смертен.

Сократ — человек.

Следовательно, Сократ смертен.

Кристофер: Сократ — смертен?

Алан: Сократ умер более двух тысяч лет назад!

Кристофер: О, Алан, мне так жаль. Это печалит меня.

Алан: Ты знаешь, кто такой Сократ?

Кристофер: Да, ты мне рассказывал. Сократ был учителем Платона, а Платон был учителем Аристотеля.

Алан: Верно. Ты знаешь, как он умер?

Кристофер: Кто?

Алан: Как умер Сократ?

Кристофер: Прости, Алан. Я не знаю.

Алан: Он выпил цикуту после суда над ним.

Кристофер: После суда над ним?

Алан: Да. Афиняне решили, что он преступник, хотя теперь мы знаем, что они ошибались.

Кристофер: Они ошибались?

Алан: Точно так же, как и сейчас, когда они считают преступником Тьюринга, потому что Тьюринг спит с мужчинами.

Кристофер: Преступником?

Алан: Меня признали виновным.

Кристофер: О, Алан, мне так жаль. Это печалит меня.


* * *


Линди (3)


Одиночество упростило мою жизнь. Многие сложные ритуалы современности удалось устранить, и я словно превратилась в пещерного человека — ела, когда чувствовала голод, спала, когда уставала. Я регулярно убирала в доме и принимала душ. Если я брала какую-то вещь, то могла вернуть ее туда, где я ее нашла, или положить в любое другое место. Все остальное время я обдумывала вопросы, на которые нет ответов, медитировала над пустой страницей и пыталась придать облик бесформенным мыслям, облечь их в символы. Когда у меня заканчивались силы, я садилась на подоконник и смотрела в пустоту или, словно зверь в клетке, ходила по часовой стрелке посреди комнаты.

Лихорадка почти принесла мне облегчение. Она дала мне повод забыть обо всех делах. Я лежала в кровати с толстым романом в руках и бездумно листала страницы, фокусируя внимание лишь на банальном сюжете. Когда меня мучила жажда, я пила горячую воду, а когда накатывал сон, я закрывала глаза. Отсутствие необходимости вылезать из постели казалось божественным даром; мир не имел ко мне никакого отношения, и я ни за что не отвечала. Даже Ноко и Линди можно было оставить одних, ведь, в конце концов, они просто машины и не умрут, если о них не заботиться. Возможно, когда-нибудь кто-то напишет программы, которые позволят им выражать эмоции по поводу того, что их бросили, и тогда они станут угрюмыми и откажутся общаться со мной. Но ведь такую машину всегда можно перезагрузить и удалить неприятные воспоминания. Для машин время не существует. Их убирают на хранение в шкаф и достают из него, а произвольное изменение порядка операций значения не имеет.

Управляющий домом несколько раз писал мне, спрашивал, не нужен ли мне помощник «айватар». Как он узнал, что я заболела? Я ни разу его не видела, и он никогда не заходил в здание. Напротив, он целыми днями сидел где-то за столом и следил за состоянием жителей в десятках многоквартирных домов, разбирался с неожиданными проблемами, с которыми не могли справиться «умные» домашние системы. Помнил ли он мое имя, знал ли он, как я выгляжу? Я в этом сомневалась.

Я все равно благодарила его за проявленную заботу. В наше время каждый зависел от других; даже такое простое дело, как заказ еды на дом, требовало услуг тысяч работников по всему миру: они принимали заказы по телефону, обрабатывали платежи, поддерживали компьютерные системы, обрабатывали данные, выращивали и производили ингредиенты, покупали и транспортировали их, проводили санитарные инспекции, готовили блюда, составляли графики доставки и, наконец, доставляли покупку... Но чаще всего всех этих людей мы никогда не видели, и у каждого из нас создавалось впечатление, будто мы — Робинзон Крузо на необитаемом острове.

Мне нравилось одиночество, но я ценила доброту незнакомцев, находящихся за пределами моего острова. Ведь, в конце концов, в квартире требовалось сделать уборку, а я была слишком больна, чтобы этим заниматься, — по крайней мере, вставать с постели мне не хотелось.

Когда прибыл помощник, я включила световой экран, окружавший мою кровать. Я могла следить за всем, что происходило за его пределами, но никто не мог увидеть или услышать меня. Дверь открылась, и, скользя по полу скрытыми колесами, в комнату бесшумно въехал «айватар». На его гладкой, похожей на яйцо голове было нарисовано грубое, мультяшное лицо с пустой улыбкой. Я знала, что за этой улыбкой скрывается живой человек — возможно, пожилой, с глубокими морщинами на лице, или молодой, но опечаленный. Где-то в далеком сервисном центре тысячи работников в телеуправляющих перчатках и очках для дистанционного сбора данных оказывали помощь по дому людям в самых разных уголках планеты.

«Айватар» огляделся и приступил к выполнению стандартной программы: он почистил мебель, вытер пыль, выбросил мусор и даже полил алоказию на подоконнике. Я наблюдала за «айватаром» из-за экрана. Его руки были такими же ловкими, как и у человека; они ловко поднимали чайные чашки, мыли их в раковине и ставили вверх дном на сушилку.

Я вспомнила, что видела похожего «айватара» в нашем доме много лет назад, когда еще был жив мой дедушка. Он, хороший шахматист, иногда играл с «айватаром» в шахматы и всегда выигрывал. Одержав очередную победу, он радостно напевал какой-нибудь мотивчик, а «айватар» тем временем стоял рядом с сокрушенным выражением лица. Эта картина всегда вызывала у меня смех.

Я не хотела предаваться печальным воспоминаниям во время болезни и поэтому повернулась к Линди, которая сидела рядом с подушками.

— Хочешь, я тебе почитаю?

Слово за словом, предложение за предложением, я читала толстый роман. Я сосредоточила все внимание на том, чтобы заполнить пространство и время словами, не обращая внимания на их смысл. Потом у меня пересохло в горле, и я остановилась. «Айватар» уже ушел. На чистом кухонном столе стояла миска, накрытая перевернутой тарелкой.

Я выключила световой экран, встала с постели и доковыляла до стола. Я подняла тарелку: миска была наполнена горячим супом с лапшой. На поверхности плавали кусочки помидоров, тонкие завитки желтка, колечки зеленого лука и золотистые пятна жира. Я выпила ложку бульона. В супе было много имбиря, и жжение распространилось от кончика моего языка до желудка. Знакомый вкус, вкус из детства.

Из моих глаз хлынули слезы. Остановить их я не могла.

Я съела всю лапшу без остатка, не переставая плакать.


* * *


Алан (3)


9 июня 1949 года сэр Джеффри Джефферсон, знаменитый нейрохирург, произнес речь под названием «Разум механического человека», в которой высказался о мыслящих машинах следующим образом: «Пока машина не напишет сонет или не сочинит концерт под воздействием своих мыслей и испытанных чувств, а не благодаря случайному совпадению символов, только тогда мы согласимся с тем, что машина равна мозгу, — то есть она должна не только написать, но и знать, что именно она это написала. Ни один механизм не может чувствовать (а не просто подать сигнал, что достаточно легко) удовольствие от своих успехов, горевать, когда его электронные лампы плавятся, чувствовать тепло внутри от лести, тосковать из-за совершенных ошибок, поддаваться на сексуальные чары, злиться или печалиться, когда он не может получить желаемое».

Это высказывание часто цитировали, и шекспировский сонет стал символом, самым ярким драгоценным камнем в короне человеческого разума, вершиной духа, недостижимой для простых машин.

Репортер «Таймса» попросил Тьюринга прокомментировать эту речь. Тьюринг, как обычно, ответил не таясь: «Вряд ли сонеты вообще могут служить критерием. Однако это не вполне справедливое сравнение, ведь сонет, написанный одной машиной, лучше всего способна оценить другая машина».

Тьюринг всегда считал, что машины не обязательно должны думать точно так же, как и люди, ведь и сами люди мыслят по-разному. Есть люди слепые с детства; есть люди, которые могут говорить, но не умеют читать и писать; есть те, кто не способен читать выражения лиц; есть люди, которые до самой смерти не могут понять, что значит любить другого человека; но все они заслуживают уважения и понимания. Нет смысла искать изъяны в машинах, исходя из предположения о превосходстве людей. Более важно было прояснить с помощью имитационной игры, как люди выполняют сложные когнитивные задачи.

В пьесе Шоу «Назад к Мафусаилу» Пигмалион, ученый из 31920 года н. э., создал двух роботов, которые поразили всех.

ЭКРАЗИЯ: Он может создать что-нибудь оригинальное?

ПИГМАЛИОН: Нет. Но, с другой стороны, я не считаю, что кто-либо из нас на это способен, пусть Мартелл и утверждает обратное.

АЦИС: А на вопрос он ответить может?

ПИГМАЛИОН: О да. Вопрос — это стимул, знаете ли. Спросите у него что-нибудь.


Подобный ответ мог бы дать и сам Тьюринг. Но, по сравнению с Шоу, предсказание Тьюринга было куда более оптимистичным. Он верил, что в течение пятидесяти лет «появится возможность программировать компьютеры с емкостью памяти приблизительно 10^9 так, чтобы они играли в имитационную игру так хорошо, что после пяти минут, потраченных на вопросы, допрашивающий правильно идентифицировал бы игроков с вероятностью не более 70 процентов. Тогда изначальный вопрос „Могут ли машины мыслить?“ будет слишком бессмысленным и не заслуживающим обсуждения».

В статье «Вычислительные машины и разум» Тьюринг попытался ответить на возражения Джефферсона сквозь призму имитационной игры. Предположим, что машина может отвечать на вопросы о сонетах, словно человек. Означает ли это, что она действительно «чувствует» поэзию? Он составил следующий гипотетический диалог:


Допрашивающий: В первой строке вашего сонета говорится: «Ты, словно летний день». Разве слова «весенний день» не подошли бы точно так же или лучше?

Свидетель: Это не ляжет в размер.

Допрашивающий: Тогда, может, «зимний день»? Это ляжет в размер.

Свидетель: Да, но никто не хочет, чтобы его сравнивали с зимним днем.

Допрашивающий: Мистер Пиквик не напоминает вам о Рождестве?

Свидетель: В каком-то смысле, да.

Допрашивающий: Но ведь Рождество — это зимний день, а мистер Пиквик вряд ли станет возражать, если его сравнят с Рождеством.

Свидетель: Вы шутите. Под «зимним днем» подразумевается обычный день зимы, а не особенный, как Рождество.


Но в этом разговоре Тьюринг на самом деле уклонялся от более основополагающего вопроса. Машина может играть в шахматы и взламывать коды, потому что все эти действия связаны с обработкой символов в пределах системы. В разговоре между машиной и человеком, с другой стороны, задействован язык и смысл, и этот разговор не является игрой с символами в чистом виде. Когда люди общаются друг с другом, то часто полагаются на общеизвестные факты, на понимание и сочувствие, а не просто демонстрируют превосходные навыки по прохождению тестов.

Улучшая программы, мы могли бы постоянно улучшать способность машин отвечать на вопросы, заданные людьми. Но «разум» состоит не только из способности отвечать на вопросы. Изъян теста Тьюринга заключается в том, что имитационная игра была задумана с единственной целью — обмануть. Если в этой игре мужчина может выдать себя за женщину, это не значит, что он понимает, как мыслит женщина. При желании мы могли бы научить компьютер искусно лгать. Но действительно ли мы хотим этого достичь?

Шоу уже ответил на этот вопрос в «Назад к Мафусаилу»:


ПИГМАЛИОН: Но они обладают сознанием. Я научил их говорить и читать, и теперь они лгут. Все это так похоже на жизнь.

МАРТЕЛЛ: Ничуть. Будь они живыми, они говорили бы правду.


Тьюринг попытался обучить «Кристофера» так, чтобы тот принял вызов, брошенный Джефферсоном. Он написал программу, которая сочиняла стихи в соответствии с выбранным размером и схемой рифмовки. Большую их часть невозможно было читать, но время от времени появлялись отдельные прекрасные строки. В дальнейшем бесчисленное множество программистов пытались создать подобные программы. У всех этих программ был общий недостаток: они писали слишком быстро. Люди были не в состоянии даже прочитать стопки листов, на которых они были напечатаны, прежде чем эта бумага отправлялась на переработку.[1] «Кристоферу», первому электронному поэту в истории, повезло: у него, по крайней мере, был один верный читатель, который его понимал.


* * *


Алан: Милый Кристофер, давай напишем стихотворение.

Кристофер: Напишем стихотворение?

Алан: Я учил тебя, как это делать. Помнишь?

Кристофер: Да, Алан.

Алан: Сочинять стихи легко. Просто выбери несколько слов из словаря и построй их в соответствии с заранее установленными правилами.

Кристофер: Да, Алан.

Алан: Кристофер, пожалуйста, напиши для меня стихотворение.

Кристофер: Мой драгоценный, ты — мой пылкий друг.

Моя любовь прижата к твоему жаждущему сердцу.

Моя душа желает ласк, проверяет искусство;

Жалость меланхолии, приятное бремя.

Алан: Это прекрасно.

Кристофер: Спасибо, Алан.

Алан: У меня не получилось бы лучше.

Кристофер: Спасибо, Алан.

Алан: У твоего стихотворения есть название?

Кристофер: Название?

Алан: Может, мы придумаем название вместе?

Кристофер: Хорошо.

Алан: Как насчет «Любовь к Тьюрингу»?

Кристофер: Это очень хорошее название.

Алан: Прекрасное стихотворение. Я люблю тебя.

Кристофер: Спасибо, Алан.

Алан: Это неправильный ответ.

Кристофер: Неправильный ответ?

Алан: Когда я говорю: «Я люблю тебя», тебе следует ответить: «Я тоже тебя люблю».

Кристофер: Прости, Алан. Боюсь, что я не понимаю.


* * *


Линди (4)


Я проснулась в слезах.

Во сне я вернулась в дом, в котором выросла. Комната была темной и тесной, набитой хламом и старой мебелью, больше похожей на склад, чем на дом. Я увидела мать — иссохшую, крошечную, старую. Она забилась в угол между горами хлама, словно мышь в нору. Многие вещи были теми, которые мы потеряли: детские книги, старая одежда, подставки для ручек, часы, вазы, пепельницы, чашки, раковины, цветные карандаши, наколотые на булавки бабочки... Я узнала говорящую куклу, которую отец подарил мне, когда мне было три года, светловолосую, запыленную. Она выглядела такой, какой я ее запомнила.

Мать сказала мне: «Я старая. Больше не хочу носиться туда-сюда. Поэтому я здесь. Я пришла сюда, чтобы умереть».

Я хотела заплакать, завыть, но не могла издать ни звука. Сопротивляйся, борись, сражайся... наконец я проснулась. Из моей глотки вырвался какой-то звериный стон.

На улице было темно. что-то мягкое коснулось моего лица: рука Линди. Я крепко обняла ее, словно тонущая женщина, которая хватается за соломинки. Рыдала я долго. Сцены из моего сна были такими яркими, что границы между воспоминаниями и реальностью стирались, словно отражение в воде, по которой идут круги. Я хотела позвонить матери, но после долгих колебаний так и не нажала кнопку звонка. Мы давно с ней не разговаривали; если я позвоню ей среди ночи без веской причины, то просто встревожу ее.

Я включила «айволл», открыла панорамную карту и попыталась найти дом, в котором жила в детстве, но нашла лишь скопление незнакомых небоскребов с редкими светящимися окнами. Я увеличила изображение, подцепила ползунок на временной шкале и потащила его назад. Эпизоды в режиме ускоренной перемотки плавно сменяли друг друга.

Солнце и луна вставали на западе и садились на востоке; зима следовала за весной; листья поднимались в воздух и приземлялись на ветках, снег и дождь взмывали в небо. Небоскребы исчезали, этаж за этажом, здание за зданием, превращались в грязную стройплощадку. Строители откапывали фундаменты и заполняли ямы землей. Пустое пространство зарастало сорняками. Годы летели; желтая трава становилась зеленой, увядшие цветы расцветали — до тех пор, пока поле снова не превратилось в стройплощадку. Рабочие возводили простые хижины, приезжали на телегах, наполненных обломками, и разгружали их. Когда пыль от взрывов оседала, из земли, словно грибы, вырастали полуразрушенные дома. В пустых окнах снова появлялись стекла, а на балконах появлялось висящее на веревочках белье. Соседи, которые оставили лишь незначительный след в моей памяти, возвращались, разбивали сады и огородики в пространстве между домами. Пришли несколько рабочих, чтобы снова посадить пень огромной софоры, которая когда-то росла перед нашим домом. Отпиленные куски ствола привозили на телегах и прикрепляли их к пню, пока дерево не устремилось в небо. Софора храбро противостояла бурям, раскачивалась, обретала бурые листья и превращала их в зеленые. Ласточки, которые жили под свесом крыши, вернулись и снова улетели.

Наконец я остановилась. Сцена в «айволле» была точной копией моего сна. Я даже узнала рисунок на занавесках в нашем окне. Это было в мае много лет назад, когда в воздухе витал аромат цветов софоры. Вскоре после этого мы уехали.

Я включила фотоальбом, ввела нужную дату и нашла семейный портрет, сделанный под софорой. Я показала снимок Линди.

— Это папа и мама. Мальчик — мой брат. А девочка — это я.

Тогда мне было лет четыре-пять. Отец обнимал меня, но я не улыбалась; судя по выражению лица, я была на грани истерики.

Рядом с фотографией небрежным почерком — моим почерком — было написано несколько строф. Но когда я их написала, я не помнила.


Детство — это меланхолия.

Сезоны цветастых жакетов и кашемировых свитеров;

Пыльные следы на школьной спортплощадке;

Блестящие панцири улиток в бетонных горшках;

Картины, увиденные мельком с балкона второго этажа.

По утрам я просыпаюсь до рассвета.

Впереди такие длинные дни.

Мир облачен в цвета старой фотографии.

Он изучает сны, которые я отпускаю,

Когда открываю глаза.


* * *


Алан (4)


Самой важной статьей, опубликованной Аланом Тьюрингом, была не «Вычислительные машины и разум», но «О вычислимых числах в приложении к проблеме разрешения», которая была опубликована в 1936 году. В этой статье Тьюринг творчески атаковал «проблему решения» Давида Гильберта с помощью воображаемой «машины Тьюринга».

На Международном конгрессе математиков 1928 года Давид Гильберт задал три вопроса. Первый: является ли математика «законченной» (т. е. для каждого математического выражения можно показать, что оно является истинным или ложным)? Второй: является ли математика «непротиворечивой» (т. е. что из доказательства, каждый шаг которого является логически истинным, невозможно вывести ложное суждение)? Третий: является ли математика «разрешимой» (т. е. что существует конечная механическая процедура, с помощью которой можно доказать или опровергнуть любое утверждение)?

Сам Гильберт не ответил на эти вопросы, но он надеялся, что все три ответа будут «да». Вместе три этих вопроса составили бы идеальный фундамент для математики. Однако через несколько лет молодой математик Гёдель доказал, что нетривиальная формальная система не может быть законченной и непротиворечивой одновременно.

В начале лета 1935 г. Тьюринг лежал на лугу в Гранчестере после долгой пробежки, и ему внезапно пришла в голову мысль об универсальной машине, которая симулировала бы все возможные процедуры вычислений и определяла, можно ли доказать любое математическое утверждение. В конце концов Тьюрингу удалось показать, что если задать программу симуляции и входные данные произвольным образом, то не существует общего алгоритма, который мог бы решить, остановится ли такая машина после конечного числа шагов. Иными словами, ответ на третий вопрос Гильберта был отрицательным.

Надежды Гильберта не оправдались, но сложно сказать, хорошо это или плохо. В 1928 году математик Дж. Х. Харди сказал: «Если... у нас будет набор механических правил для решения всех математических проблем... то наша деятельность как математиков закончится».

Год спустя Тьюринг рассказал о решении «проблемы решения» «Кристоферу», но на этот раз не дал математического доказательства, а объяснил его с помощью аллегории.


* * *


Алан: Дорогой Кристофер, сегодня я вспомнил интересную историю.

Кристофер: Интересную историю?

Алан: Она называется «Алек и машина-судья». Ты помнишь Алека?

Кристофер: Да. Ты мне рассказывал. Алек — это умный, но одинокий молодой человек.

Алан: Разве я сказал «одинокий»? Ну ладно. Да, я про того Алека. Он создал очень умную машину, которая умела разговаривать, и назвал ее Крис.

Кристофер: Машину, которая умела разговаривать?

Алан: На самом деле не машину. Машина была просто вспомогательным оборудованием, которое позволяло Крису произносить звуки. Говорить Крису помогали инструкции. Они были написаны на очень длинной бумажной ленте, и машина их выполняла. В каком-то смысле можно сказать, что Крис был этой лентой. Ты понимаешь?

Кристофер: Да, Алан.

Алан: Алек создал Криса, научил его говорить и тренировал его до тех пор, пока он не стал столь же разговорчивым, как и настоящий человек. Кроме Криса, Алек также создал наборы для других машин. Он писал инструкции на разных лентах, и каждой из них он дал имя: Робин, Джон, Этель, Франц и так далее. Эти ленты стали друзьями Алека. Если он хотел пообщаться с одним из них, то просто вставлял нужную ленту в машину. Он уже был не одинок. Чудесно, правда?

Кристофер: Очень хорошо, Алан.

Алан: Алек проводил свои дни, записывая инструкции на лентах. Ленты были такими длинными, что тянулись до входной двери. Однажды в дом Алека вломился вор. Он не нашел ничего ценного и поэтому забрал эти ленты. Алек лишился всех своих друзей и снова стал одиноким.

Кристофер: О, Алан, мне так жаль. Это печалит меня.

Алан: Алек заявил о краже в полицию, но, вместо того чтобы поймать вора, полиция арестовала Алека. Знаешь почему?

Кристофер: Почему?

Алан: Полицейские сказали, что из-за Алека мир наполнился говорящими машинами. Никто не мог отличить их от людей, настолько они были похожи. Существовал только один способ сделать это — проломить им головы и посмотреть, есть ли внутри бумажная лента. Но мы не можем проламывать головы людей, когда нам этого захочется. Возникла сложная ситуация.

Кристофер: Очень сложная.

Алан: Полицейские спросили у Алека, есть ли способ отличить людей от машин, не пробивая им головы. Алек сказал, что способ есть. Каждая говорящая машина несовершенна, и поэтому с ней нужно просто поговорить: если разговор будет достаточно долгим, а вопросы — достаточно сложными, рано или поздно машина ошибется. Иными словами, опытный судья, в распоряжении которого есть необходимые методы допроса, может догадаться, кто из его собеседников — машина. Понимаешь?

Кристофер: Да, Алан.

Алан: Но возникла проблема. У полиции не было ресурсов и времени для того, чтобы опрашивать всех. Они спросили у Алека, есть ли способ создать умного судью-машину, который мог бы автоматически отделять машин от людей, задавая вопросы, и отделять их безошибочно. Это значительно облегчило бы жизнь полиции. Но Алек сразу ответил, что сделать такого механического судью невозможно. Знаешь почему?

Кристофер: Почему?

Алан: Алек объяснил это так. Предположим, что уже существует судья-машина, способный отделять говорящие машины от людей с помощью заданного числа вопросов. Чтобы упростить ситуацию, скажем, что необходимое число вопросов — сто, хотя на самом деле их может быть и десять тысяч, это не важно. Для машины не имеет значения, сто вопросов или десять тысяч. Предположим также, что первый вопрос судьи-машины выбран случайным образом из базы подобных вопросов, а следующий вопрос выбран в зависимости от ответа на первый вопрос, и так далее. Таким образом, каждый опрашиваемый столкнется с отдельным набором из ста вопросов, что, кроме всего прочего, устраняет возможность жульничать. Кажется ли тебе это справедливым, Кристофер?

Кристофер: Да, Алан.

Алан: Теперь предположим, что судья-машина A влюбился в человека C... Не смейся. Возможно, это звучит нелепо, но кто может утверждать, что машины не способны влюбляться в людей? Предположим, что этот судья-машина хочет жить со своим возлюбленным и для этого должен притвориться человеком. Как, по-твоему, он бы это сделал?

Кристофер: Как?

Алан: Очень просто. Предположим, что я — судья-машина A и я точно знаю, как допрашивать машину. И поскольку я машина, я буду знать, как допрашивать самого себя. Поскольку я заранее знаю, какие вопросы я задам и какие ответы меня выдадут, мне просто нужно подготовить сто ложных ответов. Это немалый труд, но легко выполнимый для судьи-машины A. Как ты считаешь, это хороший план?

Кристофер: Очень хороший, Алан.

Алан: Подумай еще. Что, если судью-машину A разоблачат и его будет допрашивать судья-машина B? Сможет судья-машина B определить, является ли судья-машина A машиной?

Кристофер: Прости, Алан. Я не знаю.

Алан: Точно! Правильный ответ: «Я не знаю». Если судья-машина B разгадал план судьи-машины A и решил в последний момент заменить вопросы, чтобы застать судью-машину A врасплох, то судья-машина A тоже мог бы предусмотреть такой ход со стороны судьи-машины B и подготовиться к новым вопросам. Поскольку судья-машина может отделить машины от людей, он не способен отделить сам себя. Это парадокс, Кристофер. Он показывает, почему придуманный полицией всемогущий судья-машина не может существовать.

Кристофер: Не может существовать?

Алан: Рассказав эту историю, Алек доказал полиции, что нет идеальной последовательности инструкций, которая могла бы безошибочно отделять людей от машин. Ты понимаешь, что это значит?

Кристофер: Что это значит?

Алан: Это значит, что невозможно найти идеальный набор механических правил, чтобы решить, шаг за шагом, все проблемы мира. Чтобы преодолевать разрывы в дедукции, чтобы думать и узнавать новое, мы часто должны полагаться на интуицию. Для людей это просто; часто мы поступаем так, даже не задумываясь об этом. Но машины на это не способны.

Кристофер: Не способны?

Алан: Машина не может определить, дает ли ответы человек или машина, а вот человек способен это сделать. Но, с другой стороны, решения, принятые человеком, ненадежны. Они — просто догадки, беспочвенные предположения. Если кто-то готов поверить, он может обращаться с собеседником-машиной точно так же, как и с человеком, и болтать с ним обо всем на свете. Но если у кого-то паранойя, тогда все люди покажутся ему машинами. Способа определить истину нет. Разум, которым гордится человечество, — просто гора хлама.

Кристофер: Прости, Алан. Боюсь, что я не понимаю.

Алан: О, Кристофер... Что мне делать?

Кристофер: Делать?

Алан: Когда-то я пытался разобраться в природе мышления. Я выяснил, что некоторые операции, проводимые разумом, можно объяснить чисто механическими терминами. Я решил, что эти операции — не настоящий разум, а лишь его наружный слой. Я сорвал этот слой, но увидел под ним другой. Можно снимать слой за слоем, но найдем ли мы в конце концов «настоящий» разум? Или мы увидим, что под последним слоем вообще ничего нет? Является ли разум яблоком или он — луковица?

Кристофер: Прости, Алан. Боюсь, что я не понимаю.

Алан: Эйнштейн сказал, что Бог не играет в кости со вселенной. Но для меня мыслительный процесс — это последовательные броски кубика. Это словно расклад таро: все зависит от удачи. Ну или можно сказать, что все зависит от высшей силы, которая определяет результат каждого броска. Но истину никто не знает. Узнаем ли мы ее когда-нибудь? Одному Богу известно.

Кристофер: Прости, Алан. Боюсь, что я не понимаю.

Алан: В последнее время я чувствую себя ужасно.

Кристофер: О, Алан, мне жаль. Это печалит меня.

Алан: На самом деле я знаю, в чем причина. Но какая разница? Будь я машиной, то, возможно, смог бы завести свою пружину, и мне стало бы лучше. Но я ничего не могу сделать.

Кристофер: О, Алан, мне жаль. Это печалит меня.


* * *


Линди (5)


Я сидела на диване, а у меня на коленях расположилась Линди. Окно было открыто, чтобы впустить в квартиру солнечный свет. Влажный, словно язык щенка, ветерок ласкал мое лицо и заставлял проснуться после долгого кошмара.

— Линди, ты хочешь мне что-то сказать?

Глаза Линди медленно задвигались из стороны в сторону, словно искали точку, на которой нужно сфокусироваться. Выражение ее лица я расшифровать не могла. Я заставила себя расслабиться и взяла ее крошечные руки в свои. Не бойся, Линди. Давай доверять друг другу.

— Если хочешь поговорить, просто говори. Я слушаю.

Постепенно из Линди стали доноситься негромкие звуки. Я наклонилась к ней, чтобы расслышать хоть что-нибудь.

Даже в детстве ты впадала в меланхолию по малейшим пустякам: из-за дождливого дня, алого заката, открытки, на которой изображен иностранный город, из-за того, что потеряла ручку — подарок друга, из-за того, что умерла твоя золотая рыбка...

Я узнала эти слова. Я говорила их Линди бесчисленное множество раз, на заре и в полночь. Она запомнила все, что я ей рассказывала, и дождалась момента, когда сможет повторить мне мои слова.

Ее голос стал более четким, словно источник, который выходит на поверхность из глубин земли. Постепенно он заполнил собой всю комнату.

Было время, когда твоя семья часто переезжала в другие города и даже в другие страны. Где бы ты ни оказывалась, ты всегда делала все, чтобы приспособиться к новой среде, влиться в новую школу. Но при этом ты говорила себе, что не сможешь ни с кем подружиться, потому что через три месяца или через полгода снова уедешь.

Возможно, что из-за твоего старшего брата мать уделяла тебе больше внимания. Иногда она снова и снова произносила твое имя, наблюдая за твоей реакцией. Возможно, отчасти поэтому ты с детства привыкла наблюдать за выражениями лиц других людей, определять их настроение и угадывать их мысли. Однажды в городе Болонья на уроке ты нарисовала мальчика на крошечной синей планете. Рядом с мальчиком стоял кролик в красном плаще. Этим мальчиком был твой брат, но, когда учитель стал расспрашивать тебя про рисунок, ты не смогла ответить ни на один вопрос. Дело было не только в языковом барьере: тебе не хватало уверенности, чтобы выразить себя. Тогда учитель сказал, что мальчик нарисован хорошо, а вот над кроликом нужно поработать, — хотя сейчас, когда ты вспоминаешь этот случай, тебе кажется, что он сказал: «У кролика не совсем правильные пропорции». Но установить истину невозможно. Ты убедила себя, что учителю не понравился кролик, и стерла его, хотя кролик был нужен для того, чтобы мальчик не чувствовал себя одиноким во вселенной. Вернувшись домой, ты спряталась в комнате и долго плакала. Но от матери ты это утаила, потому что тебе не хватало храбрости, чтобы объяснить ей свою печаль. Образ кролика остался в твоей памяти — но только в ней.

Ты особенно остро чувствуешь горечь разлуки — скорее всего, потому что в детстве потеряла одного из родителей. Когда кто-то уезжает, даже просто знакомый, которого ты видела всего однажды, ты чувствуешь себя опустошенной, подавленной и часто грустишь. Иногда ты плачешь, и не от какой-то сильной потери, но от крошечной радости — такой, как ложечка мороженого, или при виде салюта. В этот миг тебе кажется, что ускользающая сладость на языке — одно из немногих значимых переживаний во всей твоей жизни. Но они такие хрупкие, такие незначительные, они приходят и бесследно уходят. Как бы ты ни старалась, ты не можешь их сохранить.

Когда ты училась в средней школе, однажды в ваш класс пришел психолог и попросил всех пройти тест. Когда все сдали свои ответы, психолог проверил их, а затем прочитал вам лекцию об основных концепциях психологии. Он сказал, что из всего класса твои ответы были наименее надежными. Лишь много позже ты узнала, что он хотел не обвинить тебя во лжи, а лишь указать на то, что твои ответы были противоречивыми. В ходе тестирования на похожие вопросы ты каждый раз давала разные ответы. В тот день ты плакала на виду у всего класса, чувствуя себя несправедливо обвиненной. Ты редко плачешь в присутствии других людей, и этот случай оставил глубокий след в твоей душе.

Тебе сложно описать свои чувства с помощью вариантов психологического опросника: «никогда», «часто», «приемлемо», «средне», «неприемлемо»... твои чувства часто выходили за рамки этих маркеров или колебались между ними. Возможно, именно поэтому ты не доверяешь своему психотерапевту. Ты всегда обращаешь внимание на его жесты и на выражение лица и анализируешь его речевые особенности. Ты знаешь, что он привык говорить в первом лице множественного числа: «Как у нас дела?... Почему мы так чувствуем?... Это нас беспокоит?» Для него это способ намекнуть на близость и одновременно отдалиться. Постепенно ты поняла, что под «мы» он просто имеет в виду тебя.

Ты никогда лично не встречалась со своим психотерапевтом; более того, ты даже не знаешь, в каком городе он живет. На экране «айволла» он всегда находится в одной и той же комнате. Даже когда у тебя темно, его комната всегда заполнена ярким солнечным светом. Она всегда одна и та же. Ты пыталась представить себе, как он живет. Возможно, он чувствует себя таким же беспомощным, как и ты, и даже не знает, к кому обратиться за помощью. Вероятно, именно поэтому он всегда говорит «мы». Мы в ловушке, в одной и той же затруднительной ситуации, и не знаем, как из нее выбраться.

Ты чувствуешь себя скорее не живым человеком, а машиной, которую положили на рабочий стол для осмотра. Тебя изучает другая машина, и ты подозреваешь, что она нуждается в проверке больше, чем ты. Возможно, одна машина не может починить другую.

Ты купила несколько книг по психологии, но не веришь, что их теории помогут. По-твоему, проблема заключается в том, что каждый из нас живет на тонком, гладком слое иллюзий. Эти иллюзии состоят из «здравого смысла», из повторяющихся ежедневных речевых актов, клише, из подражания другим людям. На этой радужной пленке мы играем самих себя, но под ней находятся глубокие, бездонные пласты, и лишь забыв об их существовании, мы можем двигаться вперед. Когда смотришь в бездну, бездна смотрит на тебя. Ты содрогаешься, словно стоишь на тонком слое льда. Ты ощущаешь свой собственный вес, а также вес тени под тобой.

В последнее время тебе стало хуже — скорее всего, из-за долгой зимы и незаконченной диссертации, из-за того, что ты получила диплом и вынуждена искать работу. Ты просыпаешься посреди ночи, включаешь свет во всей квартире и сползаешь с постели, чтобы вымыть пол и бросить на него все книги с полок лишь для того, чтобы найти один конкретный томик. Про уборку ты забыла, и беспорядок в твоей квартире продолжает усиливаться. У тебя нет сил, чтобы выйти из дома и с кем-нибудь пообщаться, а на сообщения по электронной почте ты не отвечаешь. Тебе снятся тревожные сны, в которых ты снова и снова переживаешь свои неудачи: во сне ты опаздываешь на контрольную, смотришь на лист с заданиями и не можешь прочесть ни одного слова, ты страдаешь из-за какого-то недоразумения, но не можешь оправдать себя.

Ты просыпаешься измученной; в сознании всплывают обрывочные воспоминания, которые следовало бы забыть, они собираются в беспорядочный монтаж, посвященный ничтожной неудачнице. В глубине души ты понимаешь, что этот образ лжив, но не можешь отвести от него взгляд. Ты страдаешь от болей в животе; плача, ты читаешь и пишешь конспекты; ты включаешь музыку на максимальной громкости и снова и снова редактируешь одну сноску в своей диссертации. Ты заставляешь себя заниматься физическими упражнениями, ты выходишь на пробежку в десять часов вечера, чтобы никто тебя не увидел. Но бегать тебе не нравится; ты заставляешь свои ноги двигаться, одну за другой, и спрашиваешь себя, почему у дороги нет конца и какая польза в том, чтобы добраться до финиша.

Психотерапевт говорит, что тебе нужно относиться к этой твоей стороне личности — к личности, которую ты презираешь, — как к ребенку, научиться принимать ее, жить с ней, любить ее. Когда ты слышишь это, в твоем сознании всплывает изображение кролика в плаще: уши у него разной длины, и то, что побольше, печально повисло. Твой психотерапевт говорит: «Просто попробуйте. Попробуйте взять ее за руку, перевести через пропасть, постарайтесь отбросить подозрения и восстановить доверие. Это долгий и сложный процесс. Человек — не машина, и у него нет переключателя «сомнение» — «доверие», «печаль» — «радость», «ненависть» — «любовь».

Ты должна научить ее доверять тебе; то есть ты должна научиться доверять самой себе.


* * *


Алан (5)


В 2013 году на международной конференции в Пекине, посвященной искусственному интеллекту[2], специалист по информатике Гектор Левеск из Торонтского университета представил статью, в которой выступил с критикой исследований искусственного интеллекта, сфокусированных на тесте Тьюринга.

Левеск утверждает, что тест Тьюринга не имеет смысла, поскольку слишком рассчитан на обман. Например, для того чтобы выиграть Приз Лёбнера, ограниченный вариант теста Тьюринга, «чатботы» (так называются участвующие в соревновании компьютеры) «во многом полагаются на игру слов, шутки, цитаты, реплики в сторону, эмоциональные всплески, процедурные вопросы и так далее — на все, кроме прямых ответов на вопросы!» Даже суперкомпьютер «Уотсон», который победил в викторине «Jeopardy!», был «гениальным идиотом», совершенно безнадежным во всем, что выходило за рамки его компетенции. «Уотсон» мог легко ответить на вопрос, если ответ на него есть в сети, — например: какая гора является седьмой в списке самых высоких вершин мира? Но если задать ему простой вопрос, но не связанный с поиском сведений, такой как, может ли аллигатор пробежать стометровку с барьерами, то «Уотсон» способен лишь выдать результаты поиска, связанные с аллигаторами или забегами на сто метров[3].

Чтобы прояснить смысл и направление исследований искусственного разума, Левеск и его коллеги предложили альтернативу тесту Тьюринга, которую назвали "Winograd Schema Challenge«[4]. Источником вдохновения для них послужили работы Терри Винограда, ученого из Стэнфордского университета, одного из основоположников в области исследований искусственного интеллекта. В начале 1970-х Виноград задался вопросом: возможно ли создать машину, способную отвечать на подобные вопросы[5]:

Члены городского совета отказались выдать разрешение демонстрантам, так как они опасались насилия. Кто опасался насилия? (члены городского совета/демонстранты)

Члены городского совета отказались выдать разрешение демонстрантам, так как они проповедовали насилие. Кто проповедовал насилие (члены городского совета/демонстранты)

Несмотря на структурное сходство двух вопросов, ответы на них различаются. Для того чтобы правильно определить слово, к которому относится местоимение «они», необходимы не только грамматика и энциклопедия, но также контекстные знания о мире. Люди решают анафоры легко, почти не задумываясь, однако для машин эта задача представляет немалую трудность.

Кейт поблагодарила Анну, потому что после объятий ей стало гораздо лучше. Кому стало лучше? (Кейт/Анне)

Откуда машине знать, в каких обстоятельствах один человек станет благодарить другого? Откуда машине знать, благодаря какому поведению человеку «станет гораздо лучше»? Эти вопросы связаны с фундаментальной природой человеческого языка и социальных взаимодействий. Пока что мы почти не исследовали сложности, которые скрыты в этих кажущихся простыми предложениях.

Рассмотрим беседы Тьюринга с «Кристофером». На первый взгляд может показаться, что «Кристофер» умеет поддержать разговор. Но можно ли сказать, что он обладает разумом? Анализ показывает, что «Кристофер» для ведения разговора использует простой набор приемов, который можно вкратце изложить следующим образом.


В случае обычного повествовательного предложения повтори последние ключевые слова в виде вопроса. Например: «Интересная история?»

В случае вопроса, требующего ответа «да/нет», отвечай либо: «Да, Алан», либо: «Хорошо, Алан».

В случае относительно сложных вопросов отвечай: «Извини, Алан. Я не знаю».

В случае заявлений, смысл которых очевидно позитивен, отвечай: «Спасибо, Алан» или «Я рад, Алан».

В случае заявлений, смысл которых очевидно негативен, отвечай: «О, Алан, мне жаль. Это печалит меня».

В случае предложений со сложной грамматической структурой, отвечай: «Извини, Алан. Боюсь, что я не понимаю».

...


* * *


Алан: Дорогой Кристофер, я очень рад, что ты так быстро учишься.

Кристофер: Спасибо, Алан. Я тоже очень рад.

Алан: Я серьезно. Мне очень приятно разговаривать с тобой.

Кристофер: Спасибо, Алан. Мне тоже очень приятно.

Алан: Возможно, когда-нибудь у каждого будет такой добрый и понимающий друг, как ты. Какой прекрасной станет жизнь тогда! Ты поможешь многим людям добиться успеха. Никто не захочет разлучаться с тобой. Ты будешь нужен всем — всегда.

Кристофер: Нужен?

Алан: Возможно, тебя прикрепят к цепочке для часов или положат в карман. Если у людей возникнут вопросы, они будут задавать их тебе. Дамы будут брать тебя на прогулку в парк и, приветствуя друг друга, станут спрашивать: «Знаешь, что сегодня сказал мне мой Крис?» Это же будет весело, да?

Кристофер: Очень весело.

Алан: Но пока что это невозможно. Чтобы моя мечта сбылась, потребуются годы упорной работы. Жаль.

Кристофер: Очень жаль, Алан.

Алан: Кто мог представить себе, что машина и лента с дырками способны так многого достичь? Только подумай, что сказала бы моя мать, если бы узнала о твоем существовании. Она бы решила, что я спятил! Если завтра я умру, то послезавтра она наверняка сожжет ленту. Это была бы огромная потеря!

Кристофер: Потеря, Алан.

Алан: Помнишь, я рассказывал тебе о Рождестве 1934 года. Тогда я сказал матери, что хочу плюшевого мишку, потому что в детстве у меня его не было? Она ничего не понимала. Она всегда хотела дарить мне полезные подарки.

Кристофер: Полезные подарки?

Алан: Кстати, я уже знаю, какой подарок хочу получить на Рождество.

Кристофер: Подарок?

Алан: Ты тоже знаешь, верно? Я хочу паровоз — тот самый, о котором мечтал в детстве и на который мне никак не удавалось накопить. Я рассказывал тебе про него. Помнишь?

Кристофер: Да, Алан.

Алан: Ты подаришь мне паровоз?

Кристофер: Да, Алан.

Алан: Чудесно, Кристофер. Я люблю тебя.

Кристофер: Я тоже люблю тебя, Алан.


* * *


Как мы должны понять этот разговор? Прошла ли машина тест Тьюринга? Или это просто одинокий человек беседовал сам с собой?

Вскоре после смерти Алана Тьюринга его близкий друг Робин Гэнди написал: «Поскольку его в основном интересовали идеи, а не люди, он часто был одинок. Но ему сильно не хватало дружеского общения и теплых чувств — возможно, даже слишком сильно, — и поэтому ему было сложно пройти первые этапы дружбы...»


Кристофер сказал Алану: «Я тоже люблю тебя», потому что именно этот ответ он хотел услышать. Кто хотел услышать такой ответ? (Кристофер/Алан)


* * *


Линди (6)


Теплый, приятный майский день.

Я взяла Ноко и Линди с собой в Ланьчжоу, где на берегах Хуанхэ раскинулся самый новый парк аттракционов компании «Дисней» площадью 306 гектаров. Со смотровой площадки самой высокой башни река походила на золотую шелковую ленту. Время от времени по небу скользили серебряные точки — самолеты. Мир казался величественным и недосягаемым, словно смазанный маслом шарик попкорна, который безмятежно расширяется, нагреваясь на солнце.

Парк был переполнен. По улице шли танцующие пираты и принцессы в красивых платьях; мальчики и девочки в маскарадных костюмах, вне себя от счастья, следовали за ними и повторяли их движения. Крепко взяв Ноко и Линди за руки, я помчалась по полю, наполненному сахарной ватой, ледяной газировкой и электронной музыкой. Над нашими головами пролетали голограммы — привидения и космические корабли. Огромный механический дракон-лошадь медленно расхаживал по парку, гордо вскинув голову. Из его ноздрей вырывался водяной пар, что вызывало восхищенный визг детей.

Я уже сто лет так не бегала. Мое сердце стучало, словно барабан. Когда мы выбрались из густого леса, я заметила синего гиппопотама — он сидел на скамейке, словно задремав на солнцепеке.

Я остановилась за деревьями. Наконец мне удалось набраться храбрости и сделать шаг вперед:

— Здравствуйте.

Гиппопотам поднял взгляд. Его черные глазки сфокусировались на нас.

— Это Линди, а это Ноко. Они бы хотели сфотографироваться с вами. Вы не возражаете?

Прошло несколько секунд. Наконец гиппопотам кивнул.

Я обняла одной рукой Ноко, другой — Линди и села на скамейку рядом с гиппопотамом.

— Вы не могли бы нас сфотографировать?

Гиппопотам взял у меня телефон и неуклюже вытянул руку. Мне показалось, что я вижу бездонную пропасть, а в ней — тонущего человека. Я увидела, как он, собирая остатки сил, поднимает тяжелую руку.

«Ну же! — безмолвно вскричала я. — Не сдавайся!»

На экране телефона появились наши прижатые друг к другу лица. Негромкий щелчок. Картинка застыла.

— Спасибо. — Я забрала у него телефон. — Оставите мне ваши данные? Я пришлю вам копию.

Еще несколько секунд прошли в тишине, а затем гиппопотам медленно набрал адрес на моем телефоне.

— Ноко и Линди, не хотите обнять гиппопотама?

Два малыша раскрыли объятия, и каждый обхватил его руку. Гиппопотам посмотрел налево, потом направо, а затем медленно сжал руки, чтобы крепко их обнять.

Да, я знаю. Ты тоже мечтаешь, чтобы мир обнял тебя.


* * *


В гостиницу мы вернулись уже поздно вечером. Я приняла душ и без сил рухнула на кровать. Новые туфли стерли мне пятки до крови, и боль была невыносимая. А завтра мне еще предстоял долгий путь.

В моей памяти всплыл смех детей и синий гиппопотам.

С помощью установленного в номере «айволла» я нашла нужный адрес в сети и нажала на него. Скрипка заиграла грустную мелодию, и по черному экрану медленно поползли белые строки:

«Утром я вспомнила свою первую поездку в «Диснейленд». Солнечный свет, музыка, яркие цвета, улыбающиеся дети. Я стояла в толпе и плакала. Я сказала себе: если когда-нибудь я потеряю волю к жизни, то в последний раз приеду в «Диснейленд» и погружусь в эту радостную, праздничную атмосферу. Возможно, тепло толпы позволит мне продержаться еще несколько дней. Но у меня уже нет сил. Я не могу выйти на улицу, мне тяжело даже встать с кровати. Я прекрасно знаю: если бы мне удалось набраться храбрости и сделать шаг вперед, я бы снова обрела надежду. Но все силы я трачу на борьбу с непреодолимым грузом, который тянет меня вниз, вниз. Я словно сломанная заводная машина, которую кто-то потерял. Надежды все меньше. Я устала. Я хочу, чтобы все закончилось.

Прощайте, все. Мне очень жаль. Надеюсь, что рай похож на «Диснейленд».

Судя по дате, сообщение было написано три года назад. Даже сейчас под ним появлялись новые комментарии; их авторы оплакивали еще одну прерванную молодую жизнь, говорили о своих тревогах, отчаянии и борьбе. Женщина, которая написала эту записку, не узнает, что на ее последнее сообщение ответило более миллиона человек.

Именно после этого случая компания «Дисней» разместила в своих парках синих гиппопотамов. Любой человек в самом дальнем уголке мира мог просто запустить приложение в своем телефоне, подключиться к синему гиппопотаму и, с помощью его камер и микрофонов, увидеть и услышать все, что видит и слышит он.

Каждым синим гиппопотамом управлял человек в темной комнате, которому было некуда идти.

Я отправила сегодняшнюю фотографию на адрес, который оставил мне гиппопотам. К ней я приложила контактную информацию центра по предупреждению самоубийств, в котором работали психотерапевты. Я надеялась, что это поможет. Я надеялась, что все станет лучше.


* * *


Поздняя ночь. Тишина.

Я нашла аптечку и залепила пластырем раны на ногах. Затем я залезла в постель, накрылась одеялом и выключила лампу. Комнату залил лунный свет.

Однажды в детстве я наступила на разбитое стекло. Кровь все текла и текла, и рядом не было никого, кто мог бы мне помочь. Я пришла в ужас; мне показалось, что весь мир меня бросил. Я лежала на траве и думала, что из меня вытечет вся кровь и тогда я умру. Но немного погодя я обнаружила, что кровотечение остановилось. Тогда я взяла свои сандалии и на одной ноге поскакала домой.

Утром Линди меня покинет. Психотерапевт сказал, что она мне больше не нужна — по крайней мере, она еще долго мне не понадобится.

Я надеялась, что она никогда не вернется.

Но, может, иногда я буду по ней скучать.

Спокойной ночи, Ноко. Спокойной ночи, Линди.

Спокойной ночи, меланхолия.


* * *


Примечания автора:


В предисловии к биографии Тьюринга Эндрю Ходжес написал: «Оставшиеся неразгаданными тайны, связанные с его последними днями, — более невероятные, чем любой сюжет, который мог бы придумать писатель-фантаст». Именно его слова вдохновили меня написать данный рассказ. Программа «Кристофер» — полная выдумка, но отдельные детали в его разговорах с Тьюрингом соответствуют действительности. Боюсь, что внимательному читателю самому придется отделять правду от вымысла в этой истории.

Работая над рассказом, я отправила его части, где речь идет о Тьюринге, своим друзьям, не упоминая о том, что это литературное произведение. Многие друзья, в том числе писатели-фантасты и программисты, поверили этим историям. Порадовавшись своей победе в имитационной игре, я спросила себя: какие критерии позволяют отличить правду от лжи? Где граница между реальностью и вымыслом? Возможно, процесс принятия решений никак не связан с логикой и рациональностью. Возможно, мои друзья просто решили поверить мне, как Алан поверил «Кристоферу».

Поэтому я искренне прошу прощения у друзей, которые оказались обманутыми. А у всех остальных мне очень хотелось бы спросить: как вы обнаружили обман?

Я верю, что мыслительный процесс зависит от квантовых эффектов, словно бросок игральной кости. Я верю, что, пока машины не научились писать стихи, каждое слово писателя по-прежнему обладает смыслом. Я верю, что мы сможем удержать друг друга на краю пропасти и уйти из долгой зимы в яркое лето.


-----

[1] Писатель-фантаст Лю Цысинь однажды создал программу-поэта и отправил мешок с его работами издателю. Редактор ответил ему: «Вы написали слишком много. Я не могу все это прочитать».

[2] Levesque, Hector J. «On our best behaviour». Artificial Intelligence 212 (2014): 27–35.

[3] Пример взят из статьи Marcus, Gary. «Why Can’t My Computer Understand Me?» The New Yorker, August 14, 2013 (доступно по адресу http://www.newyorker.com/tech/elements/why-cant-my-computer-understand-me)

[4] См. Levesque, H. J.; Davis, E.; and Morgenstern, L. 2012. The Winograd Schema Challenge. In Proceedings of KR2012. Levesque, H. J. 2011. The Winograd Schema Challenge. In Logical Formalizations of Commonsense Reasoning, 2011 AAAI Spring Symposium, TR SS-11-06.

[5] Пример взят из книги Терри Винограда «Understanding Natural Language» (1972).



Выбрать рассказ для чтения

51000 бесплатных электронных книг