В первой главе я обрисовал в общих чертах решение проблемы отношения сознания и тела. Хотя мы Следовательно, в человеческом сознании нет ничего биологического. Мозг оказывается одним из видов компьютерной аппаратуры, способной выполнять программы, которые составляют человеческий интеллект. Согласно этому взгляду, сознанием обладает любая физическая система с правильной программой и правильными устройствами ввода и считывания данных, Например, вы можете соорудить компьютер из пустых пивных банок, Считается, что мы ещё не разработали программу, которая является сознанием. Но при этом все, кто придерживается сильной версии ИИ, соглашаются с тем, что это лишь вопрос времени. Специалисты по компьютерам и искусственному интеллекту рано или поздно построят компьютерную аппаратуру и программы, эквивалентные человеческому мозгу и сознанию. Это будут искусственный мозг и искусственное сознание, во всём равные человеческому мозгу и человеческому сознанию. Люди, не знакомые с областью исследований по искусственному интеллекту, очень удивляются, когда узнают, что Далее, Фримен Дайсон утверждает, что если говорить о дальнейшей эволюции, то компьютеры имеют преимущество перед людьми. Поскольку сознание — это формальные процессы, в компьютерах они могут выполняться на таких субстанциях, которые имеют гораздо больше шансов выжить, чем мы — существа, состоящие из влажных и мягких материалов. Марвин Мински из Массачусетского технологического института утверждает, что следующее поколение компьютеров будет настолько разумным, что нам «повезёт, если они захотят оставить нас при себе в качестве домашних животных». Но наилучшим преувеличением являются слова Джона Маккарти, изобретателя самого термина «искусственный интеллект». С его точки зрения, даже «столь простые машины, как термостаты, придерживаются определённых убеждений». Убеждения есть практически у любой машины, способной решать проблемы. Я восхищаюсь мужеством Маккарти. Однажды я спросил его: «Какие же именно убеждения есть у вашего термостата?» Он ответил: «У моего термостата три убеждения: здесь слишком жарко, здесь слишком холодно, здесь нормальная температура». Как философу, эти тезисы нравятся мне по одной простой причине: им присуща ясность и они допускают простое и решающее опровержение. Именно такое опровержение Опровержение это не имеет в виду ту или иную стадию развития компьютерной технологии. Мы склонны полагать, что решение всех наших проблем заключено в Для нашей концепции цифрового компьютера существенно важно, чтобы его операции можно было определять чисто формальным образом: иначе говоря, мы определяем шаги в терминах абстрактных символов — например, в виде последовательностей нулей и единиц. Типичное компьютерное «правило» определяет, что когда машина находится в определённом состоянии и на ленте напечатан определённый символ, она выполняет некую операцию, например стирает символ или печатает другой символ; затем она переходит к другому состоянию, например передвигает ленту на один квадрат влево. Но у символов нет семантического содержания, и они должны быть конкретизированы исключительно в терминах своей формальной или синтаксической структуры. Например, нули и единицы — всего лишь символы чисел; они даже не являются заменой для чисел. И именно это свойство цифровых компьютеров делает их столь мощными инструментами. Одна и та же компьютерная аппаратура может быть непользована для выполнения бесконечного числа различных программ. А одна и та же программа может выполняться на различных типах компьютерной аппаратуры. Но это свойство программ — их чисто формальный или синтаксический характер — фатально для взгляда, согласно которому ментальные и программные процессы тождественны друг другу. Объяснить это можно очень просто. Сознание есть нечто большее, чем формальные или синтаксические процессы. Наши внутренние ментальные состояния, по определению, обладают содержанием. Если я думаю о Канзас-Сити, или не прочь был бы выпить холодного пива, или интересуюсь, не упадёт ли процентная ставка, — в каждом из этих случаев моё ментальное состояние обладает определённым содержанием в дополнение к любым формальным свойствам. Иначе говоря, даже если мои мысли представляются мне в виде цепочек из символов, в самом мышлении должно быть нечто большее, потому что цепочки сами по себе не обладают никаким смыслом. Если мои мысли являются мыслями о Проведём следующий мысленный эксперимент. Представим себе, что группа программистов составила программу, позволяющую компьютеру имитировать понимание китайского языка. Если компьютеру задаётся вопроc Смысл примера состоит в следующем: выполняя формальную компьютерную программу, вы, с точки зрения внешнего наблюдателя, ведёте себя так, как будто понимаете Силу этого аргумента можно оценить, если сопоставить вопросы и ответы на английском языке с вопросами и ответами на языке, слова которого для нас не имеют никакого смысла. Вообразите, что в китайской комнате вам также задают вопросы Ответы на это возражение были предложены как исследователями в области искусственного интеллекта и психологами, так и философами. Но в них есть нечто общее: все они неадекватны. Причина неадекватности очевидна: одного синтаксиса недостаточно, а цифровые компьютеры имеют, по определению, один только синтаксис. Рассмотрим аргументы, выдвигаемые против моей позиции 1. Первое возражение заключается в том, что в примере с китайской комнатой китайский язык понимает вся система в целом. И хотя я, находясь в комнате и манипулируя символами, не понимаю китайского языка, однако представляю собой центральную часть компьютерной системы. Вся система в целом, включая комнату, корзинки с символами, папки с программами и вероятно с Другое характерное возражение, выдвигаемое против моей позиции, заключается в следующем. Вообразите, что в робота вложена программа понимания китайского языка. Если робот движется и взаимодействует с миром, то не свидетельствует ли это о том, что он понимает Важно точно понять, что утверждает и чего не утверждает мой аргумент. Зададимся старым вопросом: «Может ли машина мыслить?» В некотором смысле все мы машины. Мы можем считать, что вещество в наших головах есть машина. И разумеется, все мы способны мыслить. Так что в одном из смыслов слова «машина», а именно в том, что машина — всего лишь физическая система, способная выполнять определённые операции, мы все машины и мы можем мыслить. Итак, существуют машины, которые могут мыслить. Но ведь нас занимал вовсе не этот вопрос. Сформулируем его иначе. Может ли мыслить артефакт? Может ли мыслить машина, сотворённая человеком? Конечно, это зависит от того, о каком артефакте идёт речь, Допустим, мы сконструировали машину, которая ни на одну молекулу не отличается от человеческого существа. Тогда, если вы можете дублицировать причины, вы, вероятно, сможете дублицировать и следствия. Ответ на поставленный вопрос, по крайней мере в принципе, тривиален: «да». Если бы вы построили машину, имеющую ту же структуру, что и человеческое существо, то эта машина была бы способна мыслить. Конечно, это был бы суррогат. Но сделаем ещё одну попытку. Вопрос состоит не в том, может ли машина мыслить, или может ли артефакт мыслить, Ещё раз следует подчеркнуть, что речь идёт не о той или иной конкретной стадии развития компьютерной технологии. Будущие открытия ничего не изменят. Дело не в грядущих удивительных достижениях компьютерной науки, не в различении последовательных и параллельных процессов, не в объёме программ, не в скорости компьютерных операций и не в компьютерах, способных взаимодействовать со средой, и даже не в изобретении роботов. Конечно, развитие компьютеров является весьма значительным шагом вперёд. И в будущем мы вправе ожидать дальнейшего прогресса в этой области, В будущем мы сможем имитировать человеческое поведение на компьютерах гораздо лучше, чем сегодня, и уж наверное лучше, чем вчера. Но с моей точки зрения, все эти имитации просто не имеют отношения к делу. Неважно, насколько хороша технология или какова скорость вычислений, производимых компьютером. В компьютере операции определяются синтаксически, в то время как сознание, мысли, чувства, эмоции и тому подобное предполагают нечто большее, чем синтаксис. Эти свойства компьютер не способен воспроизвести по определению, как бы хорошо он их ни имитировал. Существует большое различие между воспроизведением и имитацией. Никакая имитация сама по себе не может быть воспроизведением. До сих пор я просто подводил фундамент под то ощущение абсурдности, которое вызвали цитаты, приведённые в начале главы. Остаётся один только вопрос: как Во-первых, в отношении сознания многие люди до сих пор придерживаются позиции бихевиоризма. Они полагают, что если система ведёт себя так, как если бы она понимала китайский язык, то она Сведём вместе тезисы первой и второй главы. Если это сделать, получается весьма впечатляющая картина. Аргументация имеет очень простую логическую структуру, так что вы сами сможете увидеть, правильна она или нет. Первая посылка такова: 1. Мозг причинно обусловливает сознание. Разумеется, это несколько грубая формулировка. Имеется в виду, что ментальные процессы, составляющие сознание, причинно обусловлены, полностью причинно обусловлены мозговыми процессами. Но мы будем говорить кратко: мозг причинно обусловливает психику. Это просто факт, говорящий о том, как устроен мир. Теперь запишем второе суждение: 2. Синтаксиса недостаточно для семантики. Это суждение является чисто понятийной истиной. В нём различено формальное и обладающее содержанием. К этим двум суждениям — что мозг причинно обусловливает психику и что синтаксиса недостаточно для семантики — добавим третье и четвёртое:
По-моему, это просто очевидный факт. Мои мысли, убеждения и желания всегда говорят о Заключение 1:Компьютерной программы самой по себе недостаточно, чтобы у системы появилось сознание. Короче говоря, программы — это не сознание, и самих по себе программ недостаточно для того, чтобы появилось сознание. Это очень сильное заключение, оно означает, что проект создания сознания исключительно с помощью программ обречён с самого начала. Важно ещё раз подчеркнуть, что дело не в конкретном состоянии технологии или степени сложности программы. Это заключение — чисто формальный, или логический результат, полученный из множества аксиом, которые принимают все (или почти все) участники соответствующей дискуссии. Даже большинство энтузиастов искусственного интеллекта согласны, что мозговые процессы причинно обусловливают ментальные состояния, а программы определяются чисто формальным образом, Но если сложить вместе эти заключения и некоторые другие известные нам вещи, мы увидим, что проект сильной версии ИИ неосуществим. Посмотрим, что ещё можно вывести из этих аксиом. Заключение 2:Причинная обусловленность сознания деятельностью мозга не может определяться выполнением компьютерной программы. Это второе заключение следует из соединения первой посылки с нашим первым заключением. Иначе говоря, из того, что мозг причинно обусловливает сознание и что компьютерных программ для этого недостаточно, следует, что мозг порождает сознание не благодаря выполнению некоей компьютерной программы. Это тоже важный результат, из него следует, что мозг не является цифровым компьютером, или по крайней мере не является только цифровым компьютером. В тривиальном смысле слова цифровым компьютером может быть названо всё что угодно, и мозг не составляет здесь исключения. Но значимость данного заключения в том, что вычислительных свойств мозга просто недостаточно для того, чтобы можно было объяснить появление ментальных состояний. И это в любом случае должно казаться нам здравым научным заключением, оно напоминает о том, что мозг является биологической реальностью; биология мозга здесь имеет значение. И неправы те специалисты по искусственному интеллекту, которые считают несущественным то, что сознание реализуется в человеческом мозге. Из нашей первой посылки мы можем вывести ещё одно заключение. Заключение 3:Чем бы ни было обусловлено сознание, оно должно обладать каузальной силой, по крайней мере эквивалентной силе мозга. Это третье заключение есть тривиальное следствие из первой посылки. Вывод аналогичен следующему рассуждению: поскольку карбюраторный двигатель обеспечивает скорость в семьдесят пять миль в час, то и любой дизельный двигатель, способный на это, обладает мощностью, по крайней мере эквивалентной мощности карбюраторного двигателя. Наверное, могла бы существовать и Заключение 4:Для любого артефакта с ментальными состояниями, эквивалентными человеческим, недостаточно одной лишь компьютерной программы. Артефакт должен обладать силой, равной силе человеческого мозга. Это обсуждение, я полагаю, напоминает нам о том, что мы всегда знали, а именно что ментальные состояния суть биологические феномены. Сознание, интенциональность, субъективность и ментальная причинность — все это части биологической истории нашей жизни, наряду с ростом, воспроизводством, выделением желчи и пищеварением. | |
Примечания: | |
---|---|
| |
Оглавление | |
| |