В грядущем супериндустриальном, или, точнее, информационном и системотехнологическом веке информационные системы станут принимать решения во всё более растущем объёме. Правда, трудно сказать, может ли в подлинных, а не рассматриваемых лишь в специально информационном отношении информационных и компьютерных системах вообще идти речь о том, что мы называем принятием решений. Если же говорить по существу, то количество данных и факторов влияния слишком велики и сложны (за исключением лишь немногих случаев), чтобы можно было их разумно и осмысленно обработать. В сложных областях управления, в области контроля над данными С другой стороны, сама передача функции принятия решений компьютерным системам означает, что решения принимаются без «ответственного лица», то есть человека или группы людей. Возникает вопрос: идёт ли здесь речь о своего рода групповой и даже институциональной « Для иллюстрации этого феномена передачи функции «системам» можно привести пример, кажущийся довольно невинным. В американских университетах определение пригодности или непригодности абитуриентов или самих учащихся для тех или иных специальностей предоставлено компьютерным системам: учащихся «профилируют» машины на основе разработанных «тестов». А вот другой пример может вызвать чувство страха: программирование заранее обусловленных решений о запуске ракет на основе данных систем предварительного оповещения, если иметь в виду слишком часто появляющиеся в печати сообщения о ложных тревогах. Можно ли, позволительно ли доверять ответственность такого — рода компьютерной системе, если она даже весьма гибка, способна учиться, крайне чувствительна в сфере восприятия дифференцированных данных? Кто же должен нести ответственность фактически и этически? За ложное решение, принятое компьютерной системой, не могут нести ответственность в отдельности ни проектировщик, ни создатель программы или математического обеспечения системы, ни руководитель соответствующего вычислительного центра. Может ли такую ответственность нести политический деятель, стоящий далеко от компьютерных систем и понимания их механизмов воздействия, однако занимающий пост, облечённый ответственностью? И вообще существует ли здесь общая, глобальная ответственность за нормальное функционирование, а также за сбой или выход из строя решающих устройств? Во всяком случае фактически уже верно то, что мы становимся всё более зависимыми от функционирования компьютерных систем. Однако если это так, то должны ли мы открыто возлагать ответственность на эти системы? Почти 20 лет назад Дж. Вайценбаум сообщал о существовании проекта, созданного в недрах американского информационного центра при Массачусетском Технологическом институте, в котором говорилось, что МТИ рассматривает «эти системы как в большинстве случаев ответственные за сохранение мира и стабильности во всём мире» 149. В связи с этим Вайценбаум напоминал в своём сообщении, что ещё в Преподаватель информатики К. Хефнер видит в этом, практически уже неотвратимом процессе «первый шаг к интеграции человека в некую крайне сложную общую систему, которая берёт на себя всё возрастающую ответственность и компетентность» 150. Он даже полагает, что человек ответственный, обычно отдающий себе отчёт в характере своих действий, уже давно ушёл в небытие под натиском организационных структур, а интегрированные информационные и разрешающие системы лишь обострили эту проблему вплоть до обесценения самого понятия ответственности, во всяком случае там, где речь идёт об индивидуальной ответственности в традиционном смысле. Он пишет в связи с этим: «Автономно действующий и осознающий свою ответственность человек, то есть человек, который был идеалом и целью гуманистов, уже давно как бы растворился и исчез в интегрированных и насквозь сложноструктурированных организациях. С тех самых пор, как появилась информационная техника, заставившая нас включить в свою деятельность новые схемы, состоящие из технических средств и математического обеспечения, для ответственности и компетенции человека в конечном счёте остаётся лишь одно убежище и то лишь в определённых случаях и сферах деятельности. И такая ситуация возникает вследствие того, что задачи и их решения, которые раньше входили в исключительную компетенцию человека, постепенно берёт на себя информационная техника» 151. И этому можно привести множество достаточно красочных примеров. Стюардесса авиационной компании «Люфтганза» сама уже не организовывает и не контролирует пассажирские места на борту самолётов, которые совершают рейсы от Франкфурта- Описанные здесь тенденции в развитии техники, пожалуй, не вызывают сомнений, они действительно имеют место. Решения задач всё более и более берут на себя информационные системы, и это происходит практически. Уже не человек, а программа принимает решения в зависимости от определённого обусловливающего сочетания данных. Итак, человек вынужден довериться по возможности безошибочным и безупречным информационным и решающим системам. Означает ли это, что ответственность теперь заложена в системах? Можно ли сказать, что человек постепенно освобождается от ответственности, в то время как системы становятся всё более «ответственными?» И вообще, в каком смысле система может быть ответственна? Относится ли эта передача ответственности системам только к сфере поисков причин тех или иных ошибок или сбоев в системах с целью восстановления безупречного функционирования устройства? Или, быть может, такая «взявшая на себя ответственность» система несёт ещё и юридическую, и даже моральную ответственность? При соблюдении норм научного исследования такие вопросы не могут рассматриваться и анализироваться врозь, дифференцированно, ибо проще всего при анализе исходить из глобального понимания ответственности как таковой. Такие понятия, как «ответственность», «ответственное поведение», «виновность» или «причина» столь сложны, что практически невозможно будет установить какую-либо общую связь между ними. Можем ли мы исключить из области морально ответственных действий или бездействий со всеми их последствиями фактическое воздействие принятых решений? Позволительно ли такие судьбоносные решения, как приведённое выше решение о нанесении ответного ракетного удара, исключить из числа ответственных действий, неважно какие они: политические, социальные или моральные по своему характеру? Конечно, требовать, чтобы несли ответственность за такого рода ясно не просматриваемые решения, как пример с ракетами, было бы, пожалуй, «сверхтребованием». Это же касается и политического осознания ответственности. Может ли человек считать себя свободным от ответственности, если он уже предоставил её информационным системам? Во всём сказанном нетрудно увидеть, что речь идёт об уменьшении или вообще о снятии всякой ответственности. Но именно этот феномен должен стать предметом пристального внимания философии и философов. Нам, философам, необходимо встретить эту ситуацию во всеоружии, чтобы разобраться в проблеме ответственности и всеми силами противиться формированию образа мысли, будто бы вполне возможна безответственность, которую никому нельзя вменить в вину, своего рода «невменяемая никому безответственность». Можем ли мы позволить себе придерживаться принципа поиска виновника в том его смысле, в каком этот принцип дебатируется в литературе по вопросу о защите окружающей среды, и просто переносить на социально и морально контролируемую ответственность за информационную среду «в гуманно компьютеризированном обществе» будущего, как это делает Хефнер? И при этом «виновные» (а следовательно программисты, создатели и поставщики компьютерных устройств, монтажники) должны привлекаться к ответственности «при создании гуманно компьютеризированного общества» 153. Причём в эту систему ответственности Хефнер включает все легитимные технические и моральные проблемы свободного пользования информацией, отсутствие всякой цензуры, приватность и охрану данных. Хефнер расписывает ответственность виновных, «ответственность поставщиков оборудования», «ответственность разработчиков и изготовителей персональных информационных и телекоммуникационных систем», а также виновных за политическое управление и политический контроль в процессе создания будущего «информационного общества». Он предлагает также создать нечто вроде «Объединения информационно-технических наблюдателей» или контролёров, «Объединения организаторов знания», которые очевидно должны будут штемпелевать специальные «знаки проверки» на персональных информационных и телекоммуникационных системах и на банках данных 154. По мнению Хефнера, в свободном, но не централизованно организованном обществе «должны привлекаться к прямой ответственности все, кто так или иначе включён в процессы формирования (компьютеризированного. — Должен заметить, что все эти рассуждения и утверждения, какими бы очевидными они ни показались, всё же слишком общи. И в этой чрезмерной общности они не применимы. Я уже не говорю о некотором налёте «дешевизны» и упрощённости, ведь требование совместной ответственности всех привлечённых лиц прежде всего утопично или нереализуемо точно так же, как и утверждение Вайценбаума о том, что каждый из нас несёт ответственность за современную ситуацию в мире. Но если бы каждый был ответствен за все, то никто не был бы ответствен ни за что конкретно. Ответственность должна быть конкретна, соотнесена с В одной из своих работ 157 я различаю разные типы понятия ответственности, которые, как я полагаю, следовало бы учесть при анализе этого понятия. Так, я отличаю ответственность, связанную с той или иной деятельностью и её последствиями, от ответственности, обусловленной ролью и формированием задач, а также от ответственности правовой и моральной. Помимо всего этого, многое должно быть осмыслено и учтено в тесной связи с различием между личностями, ролями, группами, учреждениями и так далее. Такого рода различающая «типология» крайне необходима для более точного описания дифференцированной, на мой взгляд, проблемы ответственности. Это типизирование ответственности было бы нелишне дополнять правилами приоритетов, как они в общих чертах уже, кажется, сформулированы в хозяйственной этике 158. Дополнительно можно было бы ввести прямую моральную ответственность там, где речь идёт о якобы морально нейтральной форме деятельности. По крайней мере, такую ответственность следовало бы предусмотреть. Разумеется, здесь речь идёт о регулировании prima facie, с первого взгляда, в первом приближении, пригодном для аналитического различия. Однако в определённом ситуационном контексте обычно требуют специальной, дифференцированной или казуистической, то есть связанной с конкретными случаями оценки. Разумеется весьма сомнительно, чтобы такого рода дифференциации существенно помогли нам разрешить проблему практического стирания понятия «ответственности» и самой ответственности, когда мы стоим перед фактом явного дефицита самого осознания ответственности в автоматизированных системах принятия решения. Несомненно, речь здесь идёт о предварительных разработках, и не более того. Сама же проблема как таковая требует уже не предварительной, Несомненно, нормативное определение субъекта ответственности, самого вменения ответственности зависит от некоторых предварительных условий, в свою очередь рассматриваемых как дескриптивные. Например, должно быть признано, что привлекаемый к ответственности субъект действительно был в состоянии брать на себя ответственность во всех отношениях; он должен быть признан ответственным за результат своей деятельности лишь в том случае, если он в своём решении, приведшем к данному результату, был свободен, то есть мог принять и другое, не чреватое пагубными последствиями решение. Ещё Аристотель (Никомахова этика, Как бы продолжая обсуждение, я попытаюсь более дифференцированно, чем это делалось до сих пор, проанализировать разницу между дескриптивным и нормативным понятием вменения ответственности субъекту. Для начала я обращусь к критике Байнэмом теории интенциональности Сирла и вопросу о её применении к информационным и решающим системам 161. Согласно Сирлу, компьютерные программы и решающие системы «чисто формальны», поскольку они в состоянии манипулировать только интерпретированными символами по заранее запрограммированным правилам. Они не в состоянии демонстрировать никаких интенциональных состояний или процессов, ибо последние могут порождаться только мозгом как их биологической основой. Интенциональность является феноменом биологическим, потому она не может быть воспроизведена никакой системой автоматов. Разумеется, все это не ново. Это просто вопрос о том, в какой мере компьютерная метафора, которая является ни чем иным как современным вариантом «человека-машины», может быть интерпретирована реалистически. Позволительно ли, как это делают современные психологи, рассматривать человека в качестве сложной перерабатывающей информацию системы или в качестве способного манипулировать информацией организма, которому, как гибкой, программируемой машине, перерабатывающей данные и способной принимать решения, приписывают мышление, сознание, а иногда даже чувствование? Ответ на такие вопросы, естественно, будет зависеть от того, будем ли мы исходить из бихевиористских установок или нет. Функционалисту же достаточен упомянутый критерий Тьюринга: если нам систематически не удаётся «интеллектуальные» действия человека отличить от действий программированной решающей системы, то тогда необходимо признать за соответствующим компьютером интеллект и способность мыслить. Однако строгие, доведённые до конца принципы бихевиоризма и функционализма спорны. Сирл выбирает реалистическое исходное положение, направленное на то, чтобы идентифицировать интенциональные состояния (правда, только в тех случаях, когда мы берём в основу функциональный критерий действия): направленность («direction of fit» или «directedness») 162 и способность представления (representation); выполнение или невыполнение требований истинности или правильности; гибкость или адаптируемость, самовключение в сетевые системы или контексты, — все они являются главными критериями для характеристики и идентификации интенциональных состояний. После публикации работы Байнэма (1985) можно дополнительно учитывать также и входные органы, и передаточные устройства, И так как Байнэм считает «логические свойства» решающими и характеризующими чертами интенциональных состояний, но не онтологическими категориями, то с этой, функционалистско-логической, точки зрения новейшие компьютеризированные информационные и разрешающие системы, по меньшей мере, должны с высокой гибкостью и способностью к обучению обнаруживать интенциональные состояния. В этом функционалистском смысле интенциональность не была бы привязана только к биологически реализующей субстанции (то есть к мозгу). В этом случае возникает вопрос: можно было бы рассматривать упомянутые новейшие информационные и разрешающие системы, которые характеризуются как интенциональные существа, впредь У. Бехтель 164 и Д. Снэппер 165 предпринимают этот шаг: они полностью специфицируют реализуемые условия для гибко, программно регулируемых разрешающих систем, которые, по их мнению, позволяют нам вменять этим системам правовую и моральную ответственность. Снэппер, например, полагает, что с правовой точки зрения законы могут и должны быть изменены так, чтобы компьютеры могли считаться «ответственными» в том смысле, чтобы их эксплуатирующие ( Мне это кажется не очень убедительным, ибо именно в случае ограждения себя от нежелательных последствий с помощью одних рутинных заверений можно заподозрить ослабление добросовестности, если общество, основанное на принципах безопасности, не настаивает на выполнении строгих требований. Снэппер привлекает для укрепления своих суждений и Аристотелеву теорию ответственности (Никомахова этика, Здесь выявляется некая необходимая дифференциация ответственностей, полагает Снэппер. Однако мне кажется сомнительным, что идентификация таких способностей, как способность обдумывания, по сравнению со способностью к произвольным действиям как и способность порождать интенциональные состояния, можно ставить в один ряд с соответствующими им типами ответственностей. Быть ответственным означает нечто большее, чем соответствовать критериям способности обдумывания и интенциональности. Во всяком случае такое соответствие, конечно, является необходимым, но отнюдь не недостаточным условием вменения ответственности. К тому же мы тем самым вовсе не покидаем дескриптивное поле вменения ответственности, но просто имплицитно предполагаем его вместе с нормативным, считая их равными. Сам Снэппер не проводит никакого различия между дескриптивным и нормативным типами вменения ответственности. То же я могу сказать о концепции У. Бехтеля, ратующего за «вменение ответственности компьютерным системам». В связи с этим Бехтель намерен «сформулировать условия, при которых мы смогли бы конструировать компьютеры в качестве ответственно действующих субъектов и сделали бы их ответственными за принимаемые ими решения». Он собирается, не впадая «в сферу научной фантастики», всё же развить и предложить необходимые и достаточные условия для разграничения ответственности с помощью показа свойств некоторой «интенциональной системы». Необходимое условие для привлечения к ответственности за то или иное решение тривиальным образом заключается в том, что «действующее лицо находится в причинном ряду, ведущем к разрешению, или по меньшей мере оно было способно вмешиваться в причинную цепь» (как, например, в случае подавления информации). Следовательно, информация должна исходить от действующего субъекта и быть в сфере его контроля. Интенциональные системы, согласно Донне, отличаются тем, что мы воспринимаем их действия «как результат определённых желаний или мнений». При этом важно учесть, что решения и суждения относят не только к внутренним состояниям, Таким образом система может быть адаптивной и возможно даже способной к обучению. В той мере, в какой компьютерные и решающие системы именно как системы с внутренней адаптационной способностью могут свои внутренние состояния и свою продуктивную способность приспосабливать к сигналам и данным внешней среды, они будут в состоянии изменять свои реакции на данные в соответствии с вводимой программой и со стратегическими метапрограммами. «Такие системы в состоянии изменять своё поведение и даже саму программу своего поведения при реакции на окружающую среду» 167. Для этого, продолжает Бехтель, понадобятся «метаправила, назначение которых сводится к тому, чтобы изменять правила внутри самой системы. Например, обучение внутри какой-либо производственной системы требует внутренние правила производства, которые, если их активизировать, могут дополнительно создавать новые выработки, снимать или изменять другие». Конечно, традиционный последовательный компьютер, напоминающий неймановскую архитектуру, не может реализовать Однако существуют формы реализации и модели «параллельно обрабатывающих процессорных автоматов, которые смоделированы в соответствии с нейронной сетью человеческого мозга». «Они состоят из многих единиц, которые могут быть введены в действие время от времени, по мере необходимости Из всего сказанного Бехтель делает вывод, что такого рода параллельно обрабатывающие, обучающиеся средние системы не показывают, конечно, внутренние желания или состояния, базирующиеся на каких-либо убеждениях в реалистическом смысле этих понятий, однако они всё же будут реагировать функционально соответственно им и даже «действовать» так, как если бы они обладали интенциональными состояниями как причинными факторами, на основе которых они принимают решения относительно своего собственного поведения. Высокая степень гибкости, способность адаптироваться и обучаться в отношении сигналов и побуждений («раздражителей»), исходящих из окружающей среды, внутренняя способность к формированию обучающих стратегий и соответствующие метаправила над поведенческими правилами позволяют нам, по его мнению, рассматривать систему так, как если бы она имела собственные мнения и желания, имеющие силу причины, лежащей в основе внутренне возникших решений (а может быть, не только силу причины, но и «естественную силу?»). Решения должны исходить из причины и находиться под её контролем с тем, чтобы у нас было основание говорить об их «ответственности». Так обстоит дело в интенциональных системах: «То, что мы утверждаем, когда мы вменяем какой-либо интенциональной системе ответственность, сводится к тому, что система сама приняла уже состоявшееся решение, так как она в качестве действующего субъекта так устроена. Это объясняет, каким путём решения интенциональной системы исходят из неё самой» 169. Это же положение действительно и для способности реакции и адаптации обучающейся системы в отношении среды, так что у нас есть основание говорить о решении, «которое находится под контролем системы». «Если мы имеем такие компьютерные системы, которые в качестве приспосабливающихся устроены так, что встраиваются в окружающую среду и приспосабливают свои реакции к этой среде, то можно предположить, что мы здесь уже выявили и назвали те черты человеческого существа, которые мы учитываем, рассматривая человека как ответственного. Если мы принимаем этот результат и делаем вывод о том, что некоторые компьютерные системы могут быть признаны ответственными за принятые ими решения; если они являются системами, способными к адаптации, и если они «научились» вести себя в своей среде определённым образом, то тогда должны существовать условия, при которых мы можем им «простить» и не считать их ответственными» 170, следовательно, освободить их от ответственности. Из всего сказанного Бехтель делает вывод, что в принципе можно спроектировать компьютерные системы, которые «можно сделать ответственными за принятые ими решения» 171. Как и Снэппер, Бехтель принимает понятие ответственности только в описательно вменяемом смысле: должны быть даны условия, пригодные для того, чтобы описать интенциональные системы как «ответственные». Нормативное вменение в смысле: « Бехтель считает описательные, по меньшей мере, необходимые условия дескриптивного вменения ответственности в целом уже достаточными: он, не вдаваясь глубже в проблематику, идентифицирует необходимые условия дескриптивного вменения ответственности с критерием (то есть необходимые и достаточные условия с претензией на достаточно полный охват условий). Необходимые условия не могут быть просто идентифицированы с критерием. Помимо этого, условия дескриптивных вменений (ответственности) перспектив наблюдателя не могут быть просто отождествлены с условиями и тем более с критериями нормативного вменения. Реально делать кого-либо ответственным есть нечто совсем иное, чем описывать или рассматривать просто его как способного принимать на себя ответственность. Особенно существенным для моральной ответственности является проведение различия между дескриптивными условиями и нормативным вменением ответственности. Пусть для компьютерных, информационных, а также решающих систем уже созданы дескриптивные условия для вдумчивого (делиберативного) принятия решения, для гибкого приспособления к среде и так далее; пусть даже структурные аналогии полностью соответствуют дескриптивной вменяемости. И тем не менее нормативное вменение, по меньшей мере в моральном смысле, здесь отсутствует. Мы можем, конечно, застраховать компьютерную систему и таким образом, в рамках гражданского права, квази-нормативно проводить аналогию в смысле материальной ответственности (это соответствует специфическому типу правовой ответственности); и Именно по этой причине компьютеризованная система принятия решений в моральном смысле не может стать полностью ответственной моральной личностью, и тем самым оказаться носителем морально-практического разума. Сказанное, разумеется, не означает, что невозможно найти пути или промежуточные возможности для того, чтобы приписывать системам принятия решений моральную релевантность (по всей вероятности, это по аналогии с той чрезвычайно важной дискуссией о моральной ответственности корпораций, которая сейчас идёт в литературе Несмотря на существующую склонность к персонификации компьютера как партнёра в компьютерной игре в шахматы, несмотря на попытки проектировать в компьютере установки личного партнёрства, несмотря на тенденцию создания и применения специальной «личностной» терминологии, — несмотря на всё это, компьютерные системы не следует рассматривать как моральных партнёров или как существа, обладающие практическим разумом. По крайней мере, против этого протестуют наши классические представления о моральности и наша этическая интуиция, унаследованные нами от предшествующих поколений 173. Ведь в таком случае нам пришлось бы размыть все грани и смысл моральной терминологии и самого языка морали для того, чтобы вписать компьютерные системы как морально действующие лица в Кантово царство нравственности с его автономией в деятельности и моральном законодательстве Градация различных ступеней в континууме этих способностей возможна и необходима, если даже первоначальную ответственность, ответственность как таковую, нельзя вменять информационным системам и системам принятия решений в моральном смысле рассматриваемого понятия. Стремление преднамеренно и слишком поспешно превращать компьютер в моральное существо означало бы открывать слишком лёгкие пути для выхода из дилеммы ответственности, выбирать стратегию уклонения от решения проблемы, которая в свою очередь может привести к уходу от собственной моральной ответственности. И тогда компьютер оказался бы в роли козла отпущения. Если нельзя привлекать к ответственности личность, то крайне легко сваливать ответственность на компьютер или вообще от неё отказаться. Но ведь моральная ответственность характеризуется именно тем, что независимо от того, идёт ли речь о личной или о совместной ответственности, от неё невозможно уклониться, её нельзя отклонять, её нельзя «делегировать» другим или разбить на части вплоть до исчезновения 174. Как уже говорилось, вменять компьютерам моральную ответственность означало бы встать на путь легко применяемой стратегии уклонения от действительной моральной ответственности. Именно поэтому наше моральное сознание не должно позволять открывать этот путь выхода из дилеммы или форсировать его. Мы не должны позволять безответственность даже на вторичном уровне, и надо сказать, что не существует никаких простительных обстоятельств, дающих нам «право» или какое-либо основание сваливать нашу ответственность на компьютеры. От моральной ответственности невозможно уходить, её нельзя «передавать» другому, она не может быть как нормативное вменение ответственности решена в запрограммированных разрешающих системах, если даже её крайне трудно Мы должны создавать управляемые модели, определяющие участие в ответственности, которые позволили бы нам морально удовлетворительно разрешать дилемму кажущегося стирания ответственности в системах. | |
Примечания: | |
---|---|
Список примечаний представлен на отдельной странице, в конце издания. | |
Оглавление | |
| |