Анна Сергеева Бурняшев Алексей Чмутов Семейный психолог Ясновижу Василий Данилов
full screen background image
Последнее обновление

АРГУМЕНТ КИТАЙСКОЙ КОМНАТЫ Мысленный эксперимент Сёрла и основанный на нем Аргумент Китайской комнаты как…

АРГУМЕНТ КИТАЙСКОЙ КОМНАТЫ

Мысленный эксперимент Сёрла и основанный на нем Аргумент Китайской комнаты как раз и призваны были показать, что воспроизведения человеческого поведения материальной системой самого по себе недостаточно для заключения о наличии у этой системы внутреннего мира ментальных состояний. Поэтому мы должны внимательно посмотреть на его рассуждения.

Изначально Сёрл говорил не о поведении вообще, а о вербальном поведении, речи, симулируемой компьютером. Он исходил из знаменитого теста Тьюринга, согласно которому при невозможности отличения вербального поведения компьютера от поведения человека мы вправе утверждать, что компьютер мыслит — как человек. Но действительно ли это так?

Человеческое мышление, о котором мы судим по собственному опыту, сопровождается субъективным пониманием того, о чем мы мыслим и говорим. И Сёрл попробовал показать, что компьютер, симулирующий внешние проявления осмысленной человеческой речи, в действительности может быть лишен какого-либо субъективного понимания того, о чем он говорит. Чтобы доказать это, он предложил человеку встать на место компьютера. Представим, к примеру, что у нас имеется программа, позволяющая компьютеру осмысленно, т. е. по-человечески, отвечать на вопросы на понимание какого-то рассказа.

Программа — это алгоритм, позволяющий преобразовывать данные, поступающие на вход системы, в которой она инсталлирована. Преобразование осуществляется исключительно на основе формальных характеристик этих исходных данных. Допустим также, что данные, поступающие на вход этого компьютера, это китайские иероглифы. То есть вопросы на понимание рассказа задаются на китайском языке. На китайском языке записан и сам рассказ. Наша программа на понятном нам языке позволяет ставить в соответствие входящим иероглифам (вопросам) другие иероглифы, которые являются внешне осмысленными ответами на поставленные вопросы.

Итак, мы занимаем место компьютера. Теперь мы сами будем исполнять программу. Мы будем смотреть, какие иероглифы поступают к нам (для наглядности и для соответствия условий мысленного эксперимента тесту Тьюринга Сёрл предлагает нам представить, что мы находимся в изолированной комнате и общаемся с окружающими через специальный терминал), с помощью программы находить им соответствия (в конечном счете программа и сводится к указанию разного рода соответствий между иероглифами) и передавать полученный результат на выход, т. е. за пределы нашей комнаты.

Допустим также, что мы не знаем китайского языка, т. е., в частности, не знаем, какие вещи, свойства и отношения обозначают различные иероглифы. В таком случае, несмотря на то что мы будем выдавать внешне осмысленные, т. е. «правильные», ответы на поступающие вопросы, мы не будем иметь представления, о чем идет речь в этих вопросах, в наших ответах и в самом рассказе. Ведь наши ответы будут определяться исключительно формальными характеристиками поступающих на вход иероглифов.

Таким образом, если мы, став компьютерами, внешне осмысленно отвечающими на вопросы, не обретаем того понимания сути беседы, которое присутствовало бы у нас, если бы мы знали китайский язык и вели человеческий разговор, то логично заключить, что подобное понимание отсутствует и у самих компьютеров. А из этого следует, что внешне осмысленное речевое поведение компьютеров не свидетельствует о наличии у них специфически человеческого понимания.

Этот вывод, по-видимому, невозможно оспорить, но здесь возникает важный вопрос о границах его применимости. Будет ли он действовать по отношению к такому речевому поведению, при котором мы в принципе не сможем внешне отличить поведение компьютера от поведения человека (в ситуации с тем рассказом мы легко могли бы зафиксировать такое отличие, если бы задали компьютеру вопрос из какой-то другой области)? Будет ли он действовать в тех случаях, когда компьютер сможет проходить тест Тьюринга?

Сёрл считал, что ничто не мешает истолковать его аргумент именно так. Но подобное толкование может быть принято, лишь если будет показано, что описанная им система могла бы проходить тест Тьюринга. В самом деле, если Китайская комната не может проходить тест Тьюринга, т. е. если ее ответы, несмотря на их осмысленность, всегда можно будет отличить от ответов человека, то нет ничего удивительного в том, что мы не сможем с необходимостью приписывать ей специфически человеческого понимания.

Между тем доказательство того, что Китайская комната в ее изначальном виде не может проходить тест Тьюринга, отыскать несложно. Для демонстрации ее неработоспособности достаточно задать человеку в Комнате какой-нибудь индексикальный вопрос, т. е. вопрос, правильный ответ на который зависит от фактуального контекста. Можно, к примеру, заранее принести какой-то предмет в эту комнату и спросить, есть ли он в ней (условия эксперимента не запрещают этого). Или можно спросить: «Сколько сейчас времени?»

Ясно, что в программе, имеющейся у человека-компьютера в этой комнате, не может быть заранее прописан правильный ответ на такой вопрос. Программист не может заранее знать, когда мы зададим его. Можно, правда, предположить, что такой ответ все же мог бы быть прописан, если бы программа была составлена всезнающим программистом. Но даже в этом случае нельзя было бы говорить о прохождении устройством, на котором она инсталлирована, теста Тьюринга, так как оно не смогло бы дать правильные ответы при других вопросах, отличных от тех, которые фактически задавались. Иными словами, оно давало бы правильные ответы случайно, тогда как прохождение теста Тьюринга предполагает, что правильные ответы даются неслучайно. Если игнорировать этот критерий, то можно будет утверждать, что тест Тьюринга может, к примеру, пройти и лототрон с иероглифами.

Если отбросить ситуацию с всезнающим программистом, то остается такой вариант: в программе может быть прописан какой-то осмысленный уход от ответа. Например, там может быть прописана такая реакция на вопрос о том, сколько сейчас времени: «У меня нет часов». Но дело в том, что тогда мы зададим другой вопрос: «Какой сейчас день недели?» и т. п. Постоянные уклонения от прямых ответов на подобные вопросы вскоре со всей очевидностью покажут, что мы говорим с компьютером, а не с человеком.

Итак, Китайская комната в ее изначальной конструкции не может пройти тест Тьюринга. Можно, однако, внести в ее конструкцию некоторые изменения, которые сделают прохождение ею этого теста более вероятным. Можно поместить в Китайскую комнату робота. Этот робот будет снабжен специальной программой, которая позволит ему с помощью телекамеры и других устройств распознавать предметы, узнавать, сколько сейчас времени и т. п., и переводить полученные результаты в китайские иероглифы.

Увидев иероглифы, означающие: «Есть ли в комнате воздушный шарик?» — человек-компьютер узнает с помощью своей программы, что этот вопрос надо переправить через особый терминал роботу (при этом он может и не знать, что он перенаправляет их именно роботу, и может не знать о его присутствии). Робот переводит вопрос на язык операционных команд, сканирует комнату, распознает воздушный шарик и выдает иероглифический ответ. Испытуемый перенаправляет этот ответ за пределы комнаты — он справился со своей задачей, хотя по-прежнему не понимает, о чем его спрашивали.

Вадим Васильев — Сознание и вещи. Очерк феноменалистической онтологии

#НаукаИсознание




Одно мнение к “АРГУМЕНТ КИТАЙСКОЙ КОМНАТЫ Мысленный эксперимент Сёрла и основанный на нем Аргумент Китайской комнаты как…

  1. Oleg Nabatov

    Такие вещи просто принято пересказывать. Я видел проблемы, которые так же принято рассказывать, хотя у них уже есть решения. Людям эти решения не интересны. Им нравится, что есть проблемы, что иногда можно разбавить горы фактов какими-то нерешенными вопросами. Это придаёт живности сухой науке.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика