Исследуем в данной книге системы, немыслимые в том отношении, что они слишком велики для анализа. Как только что было показано, наша планета — слишком малый компьютер для оценки всего разнообразия состояний даже относительно небольшой системы. Однако в природе полным-полно систем не меньшей сложности и активности, но природа живёт и действует. Так же, как лучшая географическая карта страны — сама страна, так и лучший компьютер естественных систем — сама такая система. Представьте себе море — оно уравновешено. Проходят приливы и бури, вся вода поднимается дыбом. Можно ли себе представить математическую программу для компьютера с релевантным входом для всех этих ситуаций, который бы подсчитал, что получится на выходе как функция волнения на море? Задача безнадёжной сложности. Но ответ есть — волны, течение, воронки и брызги. Посмотрим на биосферу — тонкую оболочку жизни, покрывающую нашу землю (или геосферу). От микроба до слона — здесь взаимодействуют все формы живого. В частности, они кормят друг друга. Мы, люди, не можем потреблять столько растительной пищи, чтобы поддерживать наши физиологические нужды, — слишком мал для этого наш химзавод по производству белка. И тогда мы поедаем животных, используя их как продукт питания. Но как велико разнообразие живого? Как поддерживается численность живого, чтобы хватило всем членам данной системы? Частичный ответ в самом разнообразии. Было подсчитано, что единственная пара растительной тли — капустный aphis, весящая 1 мг, при неограниченном питании и без помех её размножению даст 822 × 106 тонн её массы за один сезон. Это в пять раз больше массы всего человечества. Почему же мир не наводнен тлей, червяками и им подобными существами? Всё дело в том, что экологическая система — система самоорганизующаяся. Она сама — огромная счетная машина, дающая правильные ответы (или почти правильные, если учесть эпидемии, голод, другие бедствия). Но у неё нет программы, планового отдела, разрешения на размножение, бюрократии. Она только работает. Мы, разумные люди, вмешиваемся в эту систему, нарушаем её равновесие в собственных интересах. Так, например, мы увеличиваем урожайность или продуктивность скота. Мы обращаемся с ней на «нижнем уровне» её жизни, как боги, стоящие над системой, забывая о том, что мы сами часть её целого. В результате мы можем весьма эффективно управлять плодородием, размножением Pasteurella pestis — бациллами, которые вызывают бубонную чуму, но не управляем ростом собственного вида — Homo sapiens. Мы видим, что наши коровы сыты, но не наши братья — почти половина человечества. Здесь мы должны ввести два термина и дать их определение, чтобы разобраться в только что поднятой проблеме. Первый из них — алгоритм. Алгоритм — это метод (или механизм), который предписывает, каким образом достичь поставленной цели. Типичный план полёта самолёта — это алгоритм. Инструкция: «Повернуть на перекрёстке налево, повернуть направо на следующем, выехать на улицу Красного льва и мой дом будет в 120 метрах справа» — тоже алгоритм. Метод извлечения квадратного корня — тоже алгоритм, как и программа работы ЭВМ. Последнее очень важно, поскольку нам предстоит разобраться в некоторой путанице относительно возможностей компьютера. Компьютер может делать лишь то, что ему точно указано. Программист, следовательно, должен точно написать алгоритм, который бы точно определил работу компьютера в наборе имеющихся в нём данных и команд. Другой термин, который нам понадобится, — эвристический. Это не столь часто употребляемое имя прилагательное означает «обеспечивающий открытие», нередко превращается в имя существительное при переходе от эвристического метода к «эвристике». Эвристика определяет метод поведения, помогающий достижению цели, но который не может быть чётко охарактеризован, поскольку мы знаем, чего хотим, но не знаем, как этого достичь, где лежит решение. Предположим, Вы хотите достичь конусообразной вершины горы, закрытой облаками. У неё есть высшая точка, но у Вас нет точного маршрута. Указание «продолжайте подъём» приведёт Вас к вершине, где бы она ни была. Это эвристика. «Смотри за пенсами, а фунты сами о себе позаботятся» — эвристическое указание «как стать богатым». Эвристика предписывает общие правила для достижения общих целей и в типичных случаях не предписывает точного маршрута к обозначенной цели, как это делается в случае алгоритма. Прежде всего число маршрутов к вершине горы огромно и не столь уж важно, какой из них использован (хотя, может быть, другой и короче, чем все остальные). Эти два термина — весьма важные понятия в кибернетике, поскольку когда дело идёт о немыслимых системах, то, как правило, невозможно составить полную спецификацию всех целей, а тогда нельзя и написать алгоритм. Но обычно не так уж трудно составить классификацию целей, так чтобы двигаясь в общем направлении, улучшить своё положение (по определённому критерию) по сравнению с первоначальным. Отдавать предпочтение эвристическим методам перед алгоритмическими — это средство справиться с растущим разнообразием. Вместо того, чтобы пытаться организовать все детально, вы организуете лишь часть, после чего динамика системы вынесет вас туда, куда Вы стремились. Эти два способа организации управления системой большого разнообразия в жизни весьма различны. Удивительно то, что мы склонны жить каждодневно эвристически, а проверять и управлять своими действиями — алгоритмически. Наше главное предназначение — выжить, сохранить себя, однако мы точны в деталях («выезжайте поездом в 8.45», «требуйте повышения»), когда дело идёт об общих и неясно выраженных целях. Конечно, нам нужен алгоритм, чтобы жить в нашем синхронизированном мире; и нам необходима также эвристика, но мы редко отдаём себе в этом отчёт. Происходит это потому, что наше образование организовано вокруг анализа деталей; мы не понимаем суть вещей (так обучены), пока не уточним их инфраструктуру. Об этом уже говорилось при обсуждении функций преобразования, а теперь вновь на этом нужно останавливаться в связи с рассмотрением целей. «Знай, к чему стремишься, и организуйся так, чтобы этого достичь» — таков должен быть наш лозунг, как и лозунг фирмы. Однако мы не знаем нашего будущего и весьма приблизительно представляем себе то, к чему стремимся сами, как и наша фирма, и мы недостаточно глубоко понимаем наше окружение, чтобы уверенно манипулировать событиями. Предполагается что птицы возникли из рептилий. Почему, к примеру, ящерица решила научиться летать? Если так, то каким образом она поменяла свой генетический код, чтобы у неё выросли крылья? Стоит только сказать такое, чтобы признать его несерьёзность. Но птицы в этот вечер летят и летят мимо моего окна. Так случилось потому, что сработала эвристика, пока мы, как всегда, кусали карандаш, намереваясь написать алгоритмы. Недопонимание роли эвристики в больших системах заставляет глубже задуматься о компьютере. Сам компьютер можно анализировать, можно понять в деталях, мы же его сами сконструировали к конце концов. Мы уже заявили, что компьютерная программа у принципе — алгоритм. Надо, следовательно, понять, где эвристика вступает в область компьютера. Необходимость в этом возникает, во-первых, как только компьютер начинает воспринимать поступающую в него информацию. Если мы знаем, что делать с входными данными, например подсчитать средние значения ряда цифр, чтобы получился результат на выходе, то здесь нет никаких затруднений. Это означает, что система нам понятна, а алгоритм сумма х/ n (который означает: сложи все цифры и раздели их на их число) решает задачу. Все очень просто, поскольку мы точно обозначили цель, систему и алгоритмы и тем самым сдерживаем рост разнообразия. Но когда дело идёт о том, чтобы связать многоразмерный вход с многоразмерным выходом, то у нас появляются все основания прибегнуть к анастомотик ретикулум. Теперь компьютер должен быть запрограммирован так (то есть должен быть обеспечен алгоритмом), чтобы был соответственно организован ретикулум, но это можно сделать, только зная конечную цель. Здесь и возникает очень деликатная проблема: если цель нельзя представить во всех деталях, то нужно прибегнуть к эвристике, и тогда компьютер должен быть снабжен алгоритмом эвристической природы. Трудность тут принципиальная. Допустим, мы заявляли: «Компьютер должен обучаться на собственном опыте, как учатся люди». Обучаться чему? Мы не знаем ответа, мы просто считаем, что компьютер через некоторое время должен найти методом проб и ошибок такой курс действий, который даст лучший результат управления. Но мы должны сказать, какой результат лучше и какой хуже, а компьютер должен определить лучшую, чем уже известна, стратегию, лучшую систему управления. Конечно, он может это сделать, поскольку его алгоритм (то, что запрограммировано) эвристический, по определению. Немного измените решение, которое Вы ранее использовали, — подсказывает алгоритм, — и сравните результат с предыдущим. Если этот алгоритм обеспечивает большую прибыль или удешевляет производство, или чем-то иным устраивает нас, то принимайте его. Так и продолжайте, пока не достигнете такого положения, при котором любой вариант даст худший результат, чем раньше. Тогда придерживайтесь этой стратегии до тех пор, пока ситуация не изменится, после чего Вы сможете вновь искать лучшую стратегию, рассмотрев её новые варианты. В этом простом, бесхитростном примере, который и ребёнку понятен, и заключается секрет этого, по существу биологического, процесса. Мы прорвались через барьер, который был создан консервативным мнением 2000 лет тому назад между живыми и механическими системами управления. В этом суть барьера между алгоритмическими и эвристическими моделями управления. Если воздержаться от мистически-сентиментального подхода к природе («неправда ли, как она умна!»), то станет видно, что природа всего лишь использует свои алгоритмы, чтобы подчеркнуть эвристическое начало. Генетический материал является алгоритмическим: молекулы ДНК — хранители сложного определённого кода. Так потомство строится по заданным «чертежам». Но в этом коде записаны вариации и мутации, и поэтому потомки располагают рядом возможных чертежей. Тогда, говоря другим языком — языком экологии, выносится приговор относительно «преимуществ» данного потомка. Вариант, достойный сохранения, выживает, при этом вариации и мутации, которые определяют его преимущества, закрепляются, а мутации, обусловливающие недостатки, истребляются. Генетическая эвристика работает в направлении к неизвестной цели — созданию форм жизни, способных выживать в обстоятельствах, которые слишком сложны для анализа, используя приёмы, для оптимизации которых ещё не создан компьютер. Существует несколько важных постулатов относительно эвристических методов управления. Их стоит тщательно рассмотреть и оценить. Поэтому с риском испортить их краткостью, я сформулировал 13 следующих постулатов для тщательного их усвоения.
Всё это может звучать слишком общо, но это не так. Мы, возможно, должны привыкнуть мыслить по-новому. Это не так уж трудно, если понять, в чём отсталость нашего сегодняшнего мышления. Фактически мы должны мыслить свободно, иначе компьютеры не смогут управлять событиями; мы должны мыслить широко, иначе нам не справиться даже с вредителями растений. Короче говоря, механизмы природы просты, но нужны подходящие способы их объяснения. Главное, в случае систем управления природой мы должны чувствовать себя совершенно свободно при обращении с общими понятиями метаязыка. Греческая приставка meta означает «высший», тогда и метаязык есть язык более высокого уровня, чем используемый для обсуждения тех предложений, которые записаны языком низшего уровня. В логике основание для существования метаязыков глубже. Можно показать, что фактически любой логический язык должен содержать утверждения, справедливость или ложность которых не может быть разрешена в рамках того же языка. Логические парадоксы — тому известные примеры. Поэтому подобные утверждения должны обсуждаться на метаязыке такого уровня, который позволяет понять, что в них парадоксального. Но в нашем случае нет нужды разбираться в логических обоснованиях. Достаточно понять, что если мы строим машину или пишем программу для компьютера, то в данной системе используется язык, на котором нельзя объяснить все. Это похоже на разговор с маленьким ребёнком, язык которого ограничен. Есть вещи, которые нельзя ему объяснить на его собственном языке, и не только После такой преамбулы давайте изобретем теперь простую машину, выполняющую эвристические функции. Сенсорная сторона её состоит из деревянного бруса, на котором укреплены две медные пластины А и В. Как видно на Рис. № 10, они изолированы друг от друга. О причинах возникновения парадоксальных ситуаций см. в списке литературы мою книгу Cybernetics anil Managemrnt, Глава 8.
Приёмная (рецепторная) часть прибора состоит из десяти постоянных оконечных устройств (чёрные точки), которые зажимами соединены с медными пластинами — по пять на каждую. Внешний импульс (входной) поступает по десяти проводам, идущим от рулетки с десятью делениями, которая представляет внешний мир. Если раскрутить рулетку, то рецепторная система узнает, что внешний мир принял одно из десяти значений — от 1 до 10. Теперь вступает в действие двигательная (эфферентная) часть прибора. У неё два эффектора (исполнителя) — провода, идущие от А и В к двум лампам — красной и зеленой. Одна из них должна загореться, но какая, нам неизвестно. Если мы будем вращать рулетку, то, очевидно, в среднем каждая из них загорится в половине случаев. Такое описание прибора дано на машинном языке. Все утверждаемое проверяется через структуру самого прибора. Мы можем использовать этот язык, чтобы заявить, что у красной лампочки вероятность загорания составляет 50 процентов и у зеленой тоже 50 процентов. Прибор может «понять» такое заявление, поскольку оно вытекает из его собственной структуры. Но нет способа утверждать на этом языке, что красный цвет чем-то предпочтительнее зелёного или наоборот. Поскольку дело идёт о приборе, такое заявление ни верно, ни ложно. Оно не проверяется ничем. Оно совершенно бессмысленно. Этого нельзя сказать на языке самого прибора. Тут кстати будет ввести оператора, говорящего на метаязыке один, назовём его Мета–1. Это язык, созданный для того, чтобы говорить о цвете и эмоциях, вызываемых цветом. Оператор заявляет: «Мне нравится красный, но не нравится зеленый». Он не понимает, как действует наглухо закрытый прибор, он не может вмешиваться в природу, то есть во вращение рулетки. Он считает, что хотел бы научить прибор зажигать красную лампочку, а это похоже на дрессировку собаки выполнять его команду. Он не может объясняться на языке прибора, а прибор не понимает его языка. Тогда он объясняется с прибором с помощью алгедонической цепи. Это ещё один новый термин, требующий объяснения. Дрессировщик и его собака в том же положении, что и оператор, говорящий с прибором на языке Мета–1. Дрессировщик собаки не понимает, «как работает собака», а собака не понимает человеческой речи. Дрессировщик, следовательно, Поначалу собака произвольно реагирует на стимулы. Но дрессировщик тогда пытается исключить ненужную ему реакцию резким выражением её нежелательности (algos означает «страдание») или подкрепить реакцию, которую он одобряет, путём награды (hedos означает «радость»). Такая деятельность создаёт алгедонический режим связи между двумя системами, которые не говорят на языке друг друга. Дрессировщик использует алгедоническую цепь, которая переводит Мета–1 в язык прибора. В дело включается новый рецептор прибора, алгедонический рецептор, который изменяет всё внутреннее состояние прибора. Следовательно, в предлагаемой нами модели прибора необходимо предусмотреть алгедонический рецептор, с помощью которого оператор, говорящий на языке Мета–1, может общаться с прибором. Он состоит из двух переключателей, которые могут двигать деревянный брус вверх или вниз вертикально, как показано на Рис. № 10. Пусть теперь он двигается вместе с пластинами А и В, но контакты, идущие от рулетки, остаются на месте. Красный свет, который нравится нашему оператору, зажигается от пластины А. Чтобы заставить прибор светить красным светом, мы должны сказать оператору, чтобы он нажал переключатель с надписью «награда». При этом брус с пластинами передвинется на 1 шаг, а контакт, помеченный буквой x, переместится на пластину А. (Напомним, что контакты остаются неподвижными). Тогда 50-процентная вероятность нарушится и изменится, скажем, в соотношении 60:40 в пользу красного света. Если тем не менее зажжется зеленый свет, прибор должен быть наказан. Оператору в этом случае говорят, чтобы он нажал на переключатель «Наказание». (Оба переключателя сдвигают брус на 1 шаг вниз, но никто, кроме нас, этого не знает.) Теперь контакт у тоже попадёт на пластину А, а вероятность загорания красной лампочки составит 70 процентов. Очевидно, что алгедоническая цепь заставляет прибор адаптировать его поведение в пользу красного света, поскольку таково было решение на языке Мета–1. Прибор не знает, чем обусловлено такое его поведение, а оператор также не знает, каким способом это достигается. А мы знаем, поскольку нам известно все о складывающейся ситуации. Если бы мы этого не знали, то тоже бы удивились, как и большинство людей, фактически наблюдавших работу прибора. Однако прервемся на время. Почему оператор, говорящий на языке Мета–1, предпочитает красное зеленому? Это, конечно, его психологическая особенность. Теперь предположим, что появляется другой человек, который оказывается начальником оператора. Этот человек смотрит на получаемый эффект зажигания ламп двух цветов по-другому. Он считает, что когда загорается зеленый свет, то некто выдаёт ему 10 фунтов; а когда загорается красный, он должен заплатить 10 фунтов штрафа. Поначалу он пытается объяснить это оператору, говорившему на языке Мета–1: «Изменяйте Ваше предпочтение на зеленый. Я знаю, как заработать на этом, и я поделюсь с Вами». Но оператор этого не понимает. Он говорит на Мета–1, эстетическом языке, он ничего не слышал и не хочет знать о деньгах. Но его начальник говорит на языке Мета–2. Как ему донести своё пожелание, выраженное на Мета–2, оператору, говорящему на Мета–1? Ему также понадобится алгедоническая цепь, соединяющая его с оператором, если он не располагает временем работать за оператора. Соответственно человек № 2 говорит человеку № 1: «Вы отвечаете за прибор. Я уезжаю за границу; но я фиксирую все загорания ламп красного и зелёного цветов. Если по возвращении я обнаружу, что красный цвет преобладает, то будете заменены другим человеком и потеряете хлеб и кров». Заметьте бесполезность попытки говорить о деньгах с оператором на Мета–1, на эстетическом языке, как и о прибыли, поскольку смысл этого понятия известен только среди говорящих на языке Мета–2. Эта вторая алгедоническая цепь переводит язык Мета–2 в Мета–1, а Мета–1 может быть переведён на язык прибора с помощью первой алгедонической цепи. Если все это так и произойдёт и оператор подчинится, то процедура операции станет обратной. Оператор по-прежнему не знает, как работает прибор, и ещё меньше теперь. Он также не знает, в чём преимущество зелёного света, поскольку это противоречит его «вкусу». Всё, что он знает, выражено на одном языке, который он понимает, на Мета–1, а именно: что будет лучше, если в конце концов для его цветовосприятия начать тренировать прибор зажигать зеленую лампочку. Чтобы этого добиться, он должен нажимать кнопку «награда» всякий раз, когда загорается Зелёная лампочка, а алгедонический рецептор организован так (как и переключатель «Наказание» в случае зажигания красной лампочки), чтобы при зеленом свете деревянный брус двигался вверх. Здесь вспоминается старая история. Давным давно два философа обсуждали человеческую жадность. Они посчитали, что человека можно убедить заниматься совершенно бесполезным делом за подходящую награду. Для проверки они позвали одного из своих учеников и сказали ему, что в соседней комнате находится ящичек с управляющим устройством и что назначение этого ящичка в том, чтобы зажигать красную или зеленую лампочку. «Мы будем давать тебе 10 фунтов, — сказали они, — всякий раз, как загорится зеленый свет, но ты нам вернешь столько же, если загорится красная лампочка». Они говорили с ним, конечно, на языке Мета–2, поскольку это был его язык, но в действительности они использовали алгедоническую цепь. Ученик, конечно, не знал, что испытывается его собственная жадность, он не говорил языком, на котором жадность обсуждалась философами, назовём его Мета–3. Подобные примеры можно приводить до бесконечности. Дело тут в том, что эвристические методы определены в рамках определённого режима, устанавливающего пределы и критерии поиска. А если эти рамки сами эвристические, то и они требуют рамок и так далее до бесконечности. В некоторой точке будут достигнуты n-е рамки, которые с точки зрения самой системы должны быть объявлены абсолютными. Это нельзя доказать строго логично, но во всех практических случаях так оно и делается. Следовательно, все конечные системы ограничены и некомплектны. Мы сами, наша фирма, наша экономика — все страдают от такого ограничения. Согласно этому мы должны и обязаны понимать, что лучшая возможность перемены, направленной на достижение более успешной адаптации, лежит в реорганизации иерархии команд. Мы не можем побороть подобное ограничение, но можем менять его форму, о чём подробнее будет сказано в следующей главе. Тем временем давайте вернёмся к нашему адаптивному прибору. Мы уже знаем, как должна меняться вероятность функции преобразования за счёт алгедонической цепи обратной связи, чтобы одна из цветных лампочек зажигалась чаще другой. Если внешняя среда системы, находящаяся на более высоком уровне, меняет своё намерение относительно полезности красного или зелёного результата, то и прибор будет следовать такому изменению. Но если рассматривать предельный случай, когда окружающая среда требует только красного цвета, то и прибор неизбежно к этому адаптируется, как только все десять его контактов переместятся на одну пластину. Это аналогично сверхспециализации в ситуациях биологической эволюции. Система настолько хороша, насколько полно приспособилась к окружению, но в случае его внезапного и грубого изменения система теряет свою гибкость, необходимую для адаптации. Мы можем, конечно, перестать поощрять её и попытаться «наказывать», но контакты уже «прикипели». Такое состояние дел высвечивает необходимость в постоянной заботе о наличии ошибки (как мы её обычно называем) в любой обучающейся, адаптивной, эволюционной системе. В экспериментальном варианте прибора, который я сам построил, два из десяти контактов не исполняли команд — один всегда зажигал красный, а другой — всегда зеленый свет. Тогда, в случае полной адаптации к красному, прибор ошибался в 10 процентах случаев, зажигая зеленый свет. Ошибка, конечно, велика, но если мы располагали бы 100 контактами, то ошибка свелась бы к одному проценту. Важный вывод заключается в том, что мутации в получаемом результате всегда должны позволяться. Ошибка, контролируемая на разумном уровне, не есть абсолютный порок, как нам внушают. Наоборот, она является предварительным условием выживаемости. Немедленно вслед за сменой окружающей обстановки в сторону предпочтения зелёного света вступает в действие шанс, обусловливающий появление зелёного результата, и начинается движение в сторону адаптации к новому требованию. Импульс, вызванный ошибкой, заставляет цепь алгедонической обратной связи подстроиться и быть готовой признать необходимость перемены. Хотя это наше утверждение возникло явно из рассмотрения биологических фактов для живых систем и хорошо иллюстрируется нашим прибором, его не понимают многие управляющие. В фирме любая ошибка предаётся анафеме. Этим не утверждается, что ошибку нельзя допускать. Но она встречается враждебно, без учёта того, что и она имеет цену сама по себе. Проницательный управляющий должен рассматривать любую ошибку, сделанную его подчинёнными, как мутацию и поставить себя в положение восприимчивого к алгедоническому сигналу обратной связи, который порождён ошибкой. Однако в поведении управляющих наблюдается тенденция полностью сконцентрироваться на исправлении недостатка. Тогда ошибка системы потеряна как стимул к перемене, а сама перемена редко признается в этом духе. Прославляются всякие усилия управляющего, направленные на исправление ошибки, а не на извлечение из неё урока. В свою очередь, сами ошибки рассматриваются в основном как недостаток. Соответственно этому к моменту, когда необходимость в перемене действительно понята (по тем или иным причинам), люди ей сопротивляются, поскольку попытки ввести изменения автоматически увеличивают число ошибок на время, пока эта «мутация» проходит испытание. |
|||
Оглавление |
|||
---|---|---|---|
|
|||