Валентин Германович Попов — специалист по логике и управлению, автор ряда монографий по методологии науки и теории познания. |
|
ВведениеПроблема, рассматриваемая в настоящей статье, восходит к соображениям Аристотеля относительно сущности категорий его аналитики — истины и лжи. А именно: Проецируя главную проблему аристотелевской формальной логики — проблему истины и лжи — на современную проблему сознания, можно, перефразируя известный философско-материалистический тезис — 1. Что есть истина и ложь в формальной логике?Парменид, Сократ и Платон открыли способность сознания, называемую нынче рефлексией, и это следует считать открытием древними философами главной симметрии природы — принципа сохранения материи, проявленного в логике субъективного познавательного процесса как закон тождества. Когнитивная сущность первого начала логики состоит в том, что прежде чем установить какое-либо отношение между предметами (а это отношение — всегда форма противоречия), необходимо закрепить в сознании субъекта отношение тождества предмета себе, выражаемого формулой: A есть A. С позиции субъективного сознания, рефлексия есть основа самоидентификации индивида как равноправного предмета бытия, а декартовский афоризм Однако, что есть истина с позиции логического мышления? За ответом обратимся к Канту. Итак, все утвердительные суждения, высказываемые субъектом, но с непременной опорой на достаточные основания, являются истинными, а их отрицания, если дополнительные исследования не подтверждают их объективность, являются ложными [3]. Необходимым материалом любых когнитивных моделей выступает реальный мир; он играет роль объекта восприятия, а восприятие, основанное на чувственных данных или измерениях, может быть нечётким и даже ошибочным. Более того, в каждый конкретный момент исследуемый мир доступен не весь целиком, а в виде текущего фрагмента, который находится в это время в фокусе процесса восприятия или измерения, и при этом исследуемый фрагмент мира представляет собой сочетание разных уровней, свойств и отношений. Субъект, поэтому, должен располагать логическим инструментом, позволяющим ему дезавуировать исчерпавшую себя истину равной, но противоположной ей по смыслу ложью. Таким образом, истина и ложь в формальной логике — это стороны знания, но его содержание проявляется лишь тогда, когда оно поддерживается одним и тем же контекстом, то есть ни абстрактной истины, ни абстрактной лжи не существует. Например: утвердительное суждение «Волга впадает в Чёрное море» дезавуируется отрицательным суждением «Волга не впадает в Чёрное море», после чего открывается путь к установлению объективной истины: «Волга впадает в Каспийское море». В свою очередь, объективная истина — это знание, пересечение которого со своим отрицанием невозможно. 2. Физические и когнитивные средства коммуникацииОстановимся кратко на проблеме передачи знаний. Достаточно ясное представление о коммуникационной функции сознания могут дать некоторые физиологические факты. Например, основываясь на данных работы [4], опишем понятия «сигнал» и «сообщение» и установим сходство и различие между ними. Представим себе квадратную плоскость, составленную из 10 на 10 чёрных и белых элементов, которые расположены горизонтально и вертикально, и в каждом отдельном случае могут быть либо черными, либо белыми, но расположение их упорядочено не в шахматном порядке, а устроено с помощью метания монеты. Согласно теории вероятностей, из ста метаний монеты примерно половина (например, 56) окажутся выпавшими гербом, которому поставим в соответствие чёрный цвет, а тогда остальные квадраты (44), соответствующие выпадению решки, будут белыми. Белые элементы посылают в наши глаза больше света, чем чёрные, и поэтому мы по-разному воспринимаем белый и чёрный цвет. Когда мы рассматриваем чёрно-белую картинку, она проецируется через хрусталик (глазную линзу) на сетчатку глаза, в которой расположены многочисленные светочувствительные элементы (рецепторы). Среди них различают колбочки, предназначенные для дневного видения и для восприятия цвета, и палочки, которые позволяют видеть предметы при слабом освещении. Теперь мы можем описать получившуюся при метании монеты картинку, пользуясь физическими понятиями: а) распределение чёрных и белых элементов на плоскости и адекватное распределение светлых и тёмных участков на сетчатке глаза; б) различная степень освещённости светочувствительных рецепторов на сетчатке глаза и различная частота возбуждения зрительных нервных волокон, оканчивающихся в различных точках сетчатки и посылающих электрические импульсы в мозг, где и создаётся визуальный образ. Этот фактический материал выражается на языке физики, хотя многие детали самих процессов нам могут быть и не известны, но мы вправе утверждать, что визуальное явление существует благодаря связанным между собой физическим фактам. А именно: освещённость каждого рецептора на сетчатке выступает сигналом, поступающим на него от светлого или чёрного элемента; возбуждение рецептора является сигналом, указывающим на степень освещённости данной точки на сетчатке глаза; степень возбуждения зрительного нерва, отправляющего в мозг электрический импульс, служит сигналом, указывающим на степень освещённости рецептора. Целенаправленно изменим расположение чёрных и белых квадратов на плоскости таким образом, чтобы они составили какую-то знакомую нам картинку, например, напоминающую контуры лица. Данный рисунок обладает свойством, которое отличает его от случайного расположения чёрных и белых элементов: он передаёт нам сообщение, которое мы отождествляем с понятием «лицо». Случайно расположенные сигналы отличаются от сообщения как по способу их создания, так и по качеству восприятия. В первом случае не возникает какого-либо определённого представления, и мы, поэтому, не связываем с ним никакого знания. В противоположность этому сообщение сразу же вызывает у нас представление, связанное с некоторым понятием. При этом также очевидно, что прежде чем создать сообщение, которое передаёт определённое расположение сигналов, его необходимо выбрать из множества других возможных, которые можно создать этими же изобразительными средствами, например, «дом» или «дерево». Процесс выбора происходит и при приёме сообщений, следовательно, коммуникация возможна лишь тогда, когда отправитель и получатель одновременно имеют это определённое сообщение в своей базе данных, и пользуются при этом одной и той же системой отношений между сигналами и сообщениями. Сигналы — это дискретные события, демонстрируемые (излучаемые) с помощью определённых физических эффектов. Сообщения, как и сигналы, также являются дискретными событиями, но они не относятся только к категории физических эффектов. В отличие от сигналов, сообщения имеют субъективную составляющую, которая заключается в том, что благодаря сообщению получатель побуждается к выбору определённого поведения и в первую очередь в сфере логического мышления. Физически же сообщения выражают отличительные признаки классов эквивалентных сигналов, доставляющих получателю единицу знания о той или иной предметной области. Сообщение — это дискретная единица знания, и, следовательно, сущность сообщения может быть понята только при рассмотрении его в связи с мышлением получателя. 3. Булев алгоритм для кодирования сообщенийПредставить знания в виде сообщений — значит выразить в некотором формализме образ физической реальности, синтезированный в сознании субъекта. В свою очередь каждое сообщение, чтобы его можно было передать другому сознанию, должно быть преобразовано в упорядоченную совокупность сигналов. Процесс преобразования сообщений в упорядоченную совокупность сигналов называется кодированием и наиболее апробированным способом кодирования выступает язык. Предположим, что некто располагает некоторыми знаниями, формализованные им в некоторые сообщения. Если он хочет передать Этот принцип преобразования свободного и открытого языка в формальную систему привносят в сознание субъекта логический детерминизм, заставляя его следовать в процессе мышления по предустановленной схеме, а не блуждать в лабиринте предположений и сомнений, как это обычно бывает в естественной языковой среде. Обратимся к историческим истокам логического детерминизма. Этот феномен сознания укоренён в принципе дихотомии — способе разбиения понятия на две части, когда его объём делится на два противоречащих, но не пересекающихся друг с другом частных понятия. Например, понятие «лес» (A) делится на «лиственный лес» (B) и «нелиственный лес» (не-В). Эти частные понятия, являясь контрадикторными противоположностями, полностью исчерпывают объём понятия A, но они не состоят в рамках данного понятия в отношении противоречия, поскольку разделены границей, выражаемой связкой «не». Благодаря этой границе, объёмы противоречащих понятий не совпадают ни в какой своей части, но их пересечение обязательно по родовому признаку, и поэтому принцип дихотомии наиболее выразительно проявляет себя в ИИ, в системах которых, согласно заданному алгоритму, комбинируются дискретные (непересекающиеся) альтернативы базы знаний, относящейся к одной и той же предметной области. Задает же эти алгоритмы алгоритм булевой алгебры, который основан на выборе между двоичной переменной — 0 и 1, то есть он также основан на дихотомии, но с двумя условиями ограничительного характера. Это, во-первых, первичность нулевого класса относительно класса единиц, и, во-вторых, обратимость унарной операции дополнения, то есть преобразования нулевого класса в класс единиц — 0 в 1 и, наоборот, то есть 1 в 0. Сказанное формализуется следующим образом. Булевы классы A и B универсального множества X задаются характеристической функцией вида χ A, В: X → L, где L = [0,1]. Булевым операциям пересечения (∩), объединения (∪) и дополнения (˥) указанных характеристическим функциям ставятся во взаимно однозначное соответствие логические функции, определяемые поэлементно для всех x∈X: (χA∩χB) (x) =χA (x) ∧χB (x) (1) (χA∪χB) (x) =χA (x) ∨χB (x) (2) χ(˥A) (x) =¬χA (x) (3) где ∧, ∨, ¬ — логические функции конъюнкции, дизъюнкции и отрицания, задаваемые следующими тождествами: 0˄0 = 0˄1 = 1˄0 = 0, 1˄1 = 1 (4) 0˅0 = 0, 0˅1 = 1˅0 = 1˅1 = 1 (5) ¬0 = 1, ¬1 = 0 (6) 4. Информация и энтропия в представлении знанийСледуя булеву алгоритму, путём последовательностей сигналов 0 и 1, строящимся по конъюнктивным и дизъюнктивным формам с применением отрицания, можно осуществить выбор и кодирование любого из конечного числа сообщений. При этом код, состоящий из указанных последовательностей сигналов, выступает семиотическим соответствием между любыми двумя перечнями знаков. Возможны кодовые системы и с другим конечным числом различных сигналов и таковыми в естественных языках выступают буквенные алфавиты, а также десятичные цифры. В [4] доказывается, что посредством m двоичных сигналов можно закодировать одно определённое сообщение из 2m сообщений, и, наоборот, для опознавания одного сообщения из N возможных сообщений требуется ld N двоичных знаков, где ld — логарифм при основании 2, который связан с десятичным логарифмом соотношением: ld N = 3,32 lg N. Поскольку способов кодирования для выбора одного определённого сообщения из имеющихся в базе знаний существует множество, то возникает необходимость использовать какую-то одну сигнальную систему в качестве меры для информационной оценки процесса выбора. Такой системой выступает двоичная система с единицей измерения — единицей информации бит (сокращение от английских слов binary digit — двоичная единица). Тогда количество информации Ii, измеряемое в двоичных знаках, для некоторого сообщения xi из N событий x1, …, xN, имеющих вероятность наступления p (x1), …, p (xN) при p (x1) 0 и ∑ p (x1) = 1, есть двоичный логарифм величины, обратной вероятности наступления этого события, а именно: I = ld 1/p (xi) Из определения (7) видно, что набор возможных сообщений, которым располагает их отправитель, а также их статистическое распределение должны быть ему известны, на что прямо указывает выражение ∑ p (x1) = 1. Другими словами, речь в данном определении идёт о достоверных событиях, которые с точки зрения модальности в классической логике оцениваются как ассерторические, и, значит, их истинность изначально обеспечена достаточными основаниями (причинами). Однако, что есть энтропия знания с точки зрения теории информации? Если в некотором наборе сообщений содержится N различных событий, которые появляются в случайной последовательности, но с поддающейся теоретическому расчёту вероятностью pi, то можно рассчитать среднее количество информации, приходящееся на все эти события. Для этого, как очевидно, необходимо произвести суммирование по всему набору из N сообщений, в результате чего получаем: H = N∑i-1 p (xi) ld 1/p (xi) (8). Если частота появления всех сообщений одинакова p (x1) = p (x2) =, … = p (xN), то есть p (xi) = 1/N, то тогда член ld1/p (xi) превращается в ld N. Формулы (7) и (8) показывают сходство и различие между понятиями «информация» и «энтропия» при обработке и передаче знания, а именно: сходство их в том, что они являются частями общего понятия — «знание», и потому как когнитивные величины измеряются одной и той же единицей — битом; различие же их в том, что информация представляет знание о классических понятиях, характеризующихся определёнными значениями экстенсионала и интенсионала, а энтропия — знание о так называемых нечётких множествах [5], то есть с помощью энтропии описывается либо приближённое, либо усреднённое знание на том или ином интервале исследуемой предметной области. Величины «количество информации» и «количество энтропии» автор [4] поясняет данными, рассчитанными по формулам (7) и (8) и относящимися к алфавиту немецкого языка. Так, энтропия каждой буквы составляет 4,11 бит, но в то же время, если бы все 30 знаков немецкого алфавита, включая пробел, повторялись бы в словах с одинаковой частотой, то точной информации в каждом сообщении содержалось бы ld N = ld 30 = 4,9 бит на одну букву. При расчёте количества информации, приходящегося на одну букву алфавита, исходят только из частоты рi употребления различных букв, а какие-либо другие данные о буквах языка не привлекаются. Однако, помимо частотного распределения, буквы в словах естественного языка обладают взаимными связями и устойчивыми сочетаниями, непосредственно относящимися к смыслам слов, а значения слов в большой степени зависят от контекста. Если, например, требуется по сочетанию из шести букв «инф … ция» угадать все слово, то в тексте по экономике это будет «инфляция», а в тексте по кибернетике — «информация». Разговаривая по неисправному телефону, мы нередко различаем лишь части слов, но если разговор касается определённой темы, то наш слуховой аппарат способен угадывать недостающие их части. Способность восстанавливать сообщения, переданные не полным набором сигналов, в большой степени зависит от двух факторов: во-первых, от того, каким набором понятий располагает получатель сообщений, то есть от того, какими знаниями он располагает; во-вторых, — от способности получателя логически связывать принимаемые им понятия-сообщения в целостные тексты. Более определённую форму понятия информации и энтропии принимают в физике. Так, в механике понятие «мгновенная скорость» — информация о движении материальной точки в данный момент времени, а понятие «средняя скорость» — энтропия движения на некотором пространственном промежутке. ЗаключениеПопытаемся представить «абсолютного получателя сообщений», который, живя в детерминированном и, следовательно, замкнутом мире, знает всё факты на каждый данный момент времени. Для такого получателя не может быть никаких непонятных сообщений: он знает всё заранее. Фантастические возможности «абсолютного получателя сообщений» ещё в XVIII веке описал Лаплас: «Разумное существо, которое в каждый данный момент знало бы все движущие силы природы, и имело бы полную картину состояния, в котором природа находится, могло бы — если бы его ум был в состоянии достаточно проанализировать эти данные — выразить одним уравнением как движение самых больших тел мира, так и движение мельчайших атомов. Ничего не осталось бы для него неизвестным, и оно могло бы обозреть одним взглядом как будущее, так и прошлое». Наше сознание, являясь частью открытого природного мира, склонно вести себя более разумно. Размытость и необратимость мира не подлежат точному описанию, и потому комплекс человеческого мышления рационализирует принцип нечёткости мира посредством рассечения его на две части — истинную и ложную. Истина — то, что находится «здесь и теперь» и потому может быть обосновано достаточными основаниями и структурировано с помощью рациональных когнитивных процедур (индукции, абдукции, дедукции, аналогий, etc), а ложь — то, что возможно « |
|
Библиография: |
|
---|---|
|
|