Гуманитарные технологии Аналитический портал • ISSN 2310-1792

Информационно-энтропийная концепция сознания. Валентин Попов

Валентин Германович Попов — специалист по логике и управлению, автор ряда монографий по методологии науки и теории познания.

Введение

Проблема, рассматриваемая в настоящей статье, восходит к соображениям Аристотеля относительно сущности категорий его аналитики — истины и лжи. А именно: «истина, это когда мы говорим о том, что есть, что оно есть, а ложь — это когда о том, чего нет, говорят, что оно есть, либо когда о том, что есть, говорят, что его нет» [1]. Как разработчик теории выводного знания, Аристотель стремился создать такой инструмент логики, который, оставаясь интеллектуальной собственностью субъекта, адекватно отражал бы независимый от него окружающий мир, а это может быть достигнуто лишь особой организацией мыслительного процесса. Аристотелевская теория знания опирается на его же метафизику, базирующуюся на идее парных противоположностей, но в этом понимании эпистемологии содержится и две противоположные формы знания о мире — истинное и ложное. Ведь представление о том, «чего нет» в данном месте и в данное время может быть создано в когнитивной сфере индивидуального сознания лишь на основе того, «что есть» здесь и теперь.

Проецируя главную проблему аристотелевской формальной логики — проблему истины и лжи — на современную проблему сознания, можно, перефразируя известный философско-материалистический тезис — «бытие определяет сознание», — дополнить его новым содержанием: знание определяет сознание. Причём знание в двух его категориальных ипостасях — в форме истины и в форме лжи, и от того, в каком соотношении находятся эти составляющие знания, таково и сознание конкретного субъекта. Рассуждать о сознании можно лишь с позиции понятий и дескрипций, отображающих когнитивную сферу субъекта, его актуальную и виртуальную сферы знания, и эта концепция получила наиболее впечатляющие достижения в области создания систем искусственного интеллекта (ИИ). Возвращаясь по спирали познания несколько назад, и, опираясь на достижения современных информационных технологий, мы попытаемся с новых позиций взглянуть на сущность сознания, основывающегося на знаниях.

1. Что есть истина и ложь в формальной логике?

Парменид, Сократ и Платон открыли способность сознания, называемую нынче рефлексией, и это следует считать открытием древними философами главной симметрии природы — принципа сохранения материи, проявленного в логике субъективного познавательного процесса как закон тождества. Когнитивная сущность первого начала логики состоит в том, что прежде чем установить какое-либо отношение между предметами (а это отношение — всегда форма противоречия), необходимо закрепить в сознании субъекта отношение тождества предмета себе, выражаемого формулой: A есть A. С позиции субъективного сознания, рефлексия есть основа самоидентификации индивида как равноправного предмета бытия, а декартовский афоризм «Cogito ergo sum» — релевантная версия этой истины в Новое время.

Однако, что есть истина с позиции логического мышления? За ответом обратимся к Канту. «Признание чего-то истинным имеет место в нашем рассудке и может иметь объективные основания, но требует также субъективных причин в душе того, кто высказывает суждение. Если суждение значимо для каждого, кто только обладает разумом, то оно имеет объективно достаточное основание (курсив мой. — Прим. авт.), и тогда признание истинности его называется убеждением» [2].

Итак, все утвердительные суждения, высказываемые субъектом, но с непременной опорой на достаточные основания, являются истинными, а их отрицания, если дополнительные исследования не подтверждают их объективность, являются ложными [3]. Необходимым материалом любых когнитивных моделей выступает реальный мир; он играет роль объекта восприятия, а восприятие, основанное на чувственных данных или измерениях, может быть нечётким и даже ошибочным. Более того, в каждый конкретный момент исследуемый мир доступен не весь целиком, а в виде текущего фрагмента, который находится в это время в фокусе процесса восприятия или измерения, и при этом исследуемый фрагмент мира представляет собой сочетание разных уровней, свойств и отношений. Субъект, поэтому, должен располагать логическим инструментом, позволяющим ему дезавуировать исчерпавшую себя истину равной, но противоположной ей по смыслу ложью.

Таким образом, истина и ложь в формальной логике — это стороны знания, но его содержание проявляется лишь тогда, когда оно поддерживается одним и тем же контекстом, то есть ни абстрактной истины, ни абстрактной лжи не существует. Например: утвердительное суждение «Волга впадает в Черное море» дезавуируется отрицательным суждением «Волга не впадает в Черное море», после чего открывается путь к установлению объективной истины: «Волга впадает в Каспийское море». В свою очередь, объективная истина — это знание, пересечение которого со своим отрицанием невозможно.

2. Физические и когнитивные средства коммуникации

Остановимся кратко на проблеме передачи знаний. Достаточно ясное представление о коммуникационной функции сознания могут дать некоторые физиологические факты.

Например, основываясь на данных работы [4], опишем понятия «сигнал» и «сообщение» и установим сходство и различие между ними.

Представим себе квадратную плоскость, составленную из 10 на 10 чёрных и белых элементов, которые расположены горизонтально и вертикально, и в каждом отдельном случае могут быть либо черными, либо белыми, но расположение их упорядочено не в шахматном порядке, а устроено с помощью метания монеты. Согласно теории вероятностей, из ста метаний монеты примерно половина (например, 56) окажутся выпавшими гербом, которому поставим в соответствие чёрный цвет, а тогда остальные квадраты (44), соответствующие выпадению решки, будут белыми. Белые элементы посылают в наши глаза больше света, чем чёрные, и поэтому мы по-разному воспринимаем белый и чёрный цвет. Когда мы рассматриваем чёрно-белую картинку, она проецируется через хрусталик (глазную линзу) на сетчатку глаза, в которой расположены многочисленные светочувствительные элементы (рецепторы). Среди них различают колбочки, предназначенные для дневного видения и для восприятия цвета, и палочки, которые позволяют видеть предметы при слабом освещении.

Теперь мы можем описать получившуюся при метании монеты картинку, пользуясь физическими понятиями: а) распределение чёрных и белых элементов на плоскости и адекватное распределение светлых и темных участков на сетчатке глаза; б) различная степень освещенности светочувствительных рецепторов на сетчатке глаза и различная частота возбуждения зрительных нервных волокон, оканчивающихся в различных точках сетчатки и посылающих электрические импульсы в мозг, где и создаётся визуальный образ.

Этот фактический материал выражается на языке физики, хотя многие детали самих процессов нам могут быть и не известны, но мы вправе утверждать, что визуальное явление существует благодаря связанным между собой физическим фактам. А именно: освещенность каждого рецептора на сетчатке выступает сигналом, поступающим на него от светлого или чёрного элемента; возбуждение рецептора является сигналом, указывающим на степень освещенности данной точки на сетчатке глаза; степень возбуждения зрительного нерва, отправляющего в мозг электрический импульс, служит сигналом, указывающим на степень освещенности рецептора.

Целенаправленно изменим расположение чёрных и белых квадратов на плоскости таким образом, чтобы они составили какую-то знакомую нам картинку, например, напоминающую контуры лица. Данный рисунок обладает свойством, которое отличает его от случайного расположения чёрных и белых элементов: он передаёт нам сообщение, которое мы отождествляем с понятием «лицо». Случайно расположенные сигналы отличаются от сообщения как по способу их создания, так и по качеству восприятия. В первом случае не возникает какого-либо определённого представления, и мы, поэтому, не связываем с ним никакого знания. В противоположность этому сообщение сразу же вызывает у нас представление, связанное с некоторым понятием.

При этом также очевидно, что прежде чем создать сообщение, которое передаёт определённое расположение сигналов, его необходимо выбрать из множества других возможных, которые можно создать этими же изобразительными средствами, например, «дом» или «дерево». Процесс выбора происходит и при приёме сообщений, следовательно, коммуникация возможна лишь тогда, когда отправитель и получатель одновременно имеют это определённое сообщение в своей базе данных, и пользуются при этом одной и той же системой отношений между сигналами и сообщениями.

Сигналы — это дискретные события, демонстрируемые (излучаемые) с помощью определённых физических эффектов.

Сообщения, как и сигналы, также являются дискретными событиями, но они не относятся только к категории физических эффектов. В отличие от сигналов, сообщения имеют субъективную составляющую, которая заключается в том, что благодаря сообщению получатель побуждается к выбору определённого поведения и в первую очередь в сфере логического мышления. Физически же сообщения выражают отличительные признаки классов эквивалентных сигналов, доставляющих получателю единицу знания о той или иной предметной области.

Сообщение — это дискретная единица знания, и, следовательно, сущность сообщения может быть понята только при рассмотрении его в связи с мышлением получателя.

3. Булев алгоритм для кодирования сообщений

Представить знания в виде сообщений — значит выразить в некотором формализме образ физической реальности, синтезированный в сознании субъекта. В свою очередь каждое сообщение, чтобы его можно было передать другому сознанию, должно быть преобразовано в упорядоченную совокупность сигналов. Процесс преобразования сообщений в упорядоченную совокупность сигналов называется кодированием и наиболее апробированным способом кодирования выступает язык.

Предположим, что некто располагает некоторыми знаниями, формализованные им в некоторые сообщения. Если он хочет передать кому-то другому эти сообщения, то он должен предварительно согласовать с получателем форму и смысл языка, то есть создать с ним единую семиотическую систему. Чем, однако, характеризуются естественные языковые системы? Открытостью, динамичностью и противоречивостью, а исходным элементом семиотической системы выступает знак, включающий, согласно теории Фреге, три составляющих: имя, содержание и назначение. (Семиотика Пирса представляет знак ещё более сложной структурой.) В познавательной деятельности для представления знаний используются разнообразные семиотические системы, причём синтаксис соответствует структуре передаваемых знаний, семантика — их содержанию, а прагматика — их применению. При передаче же знаний на первое место выступает их полнота и непротиворечивость, то есть это должна быть однозначно интерпретируемая система формальных манипуляций над символами, не имеющими иного значения и смысла, как только быть сигналами. Если эта цель достигнута, то семиотическая система превращается в формально-логическую систему (сетевую схему).

Этот принцип преобразования свободного и открытого языка в формальную систему привносят в сознание субъекта логический детерминизм, заставляя его следовать в процессе мышления по предустановленной схеме, а не блуждать в лабиринте предположений и сомнений, как это обычно бывает в естественной языковой среде.

Обратимся к историческим истокам логического детерминизма. Этот феномен сознания укоренён в принципе дихотомии — способе разбиения понятия на две части, когда его объем делится на два противоречащих, но не пересекающихся друг с другом частных понятия. Например, понятие «лес» (A) делится на «лиственный лес» (B) и «нелиственный лес» (не-В). Эти частные понятия, являясь контрадикторными противоположностями, полностью исчерпывают объём понятия A, но они не состоят в рамках данного понятия в отношении противоречия, поскольку разделены границей, выражаемой связкой «не». Благодаря этой границе, объёмы противоречащих понятий не совпадают ни в какой своей части, но их пересечение обязательно по родовому признаку, и поэтому принцип дихотомии наиболее выразительно проявляет себя в ИИ, в системах которых, согласно заданному алгоритму, комбинируются дискретные (непересекающиеся) альтернативы базы знаний, относящейся к одной и той же предметной области.

Задает же эти алгоритмы алгоритм булевой алгебры, который основан на выборе между двоичной переменной — 0 и 1, то есть он также основан на дихотомии, но с двумя условиями ограничительного характера. Это, во-первых, первичность нулевого класса относительно класса единиц, и, во-вторых, обратимость унарной операции дополнения, то есть преобразования нулевого класса в класс единиц — 0 в 1 и, наоборот, то есть 1 в 0.

Сказанное формализуется следующим образом.

Булевы классы A и B универсального множества X задаются характеристической функцией вида χ A, ВX → L, где L = [0,1].

Булевым операциям пересечения (∩), объединения (∪) и дополнения (˥) указанных характеристическим функциям ставятся во взаимно однозначное соответствие логические функции, определяемые поэлементно для всех xX:

(χA∩χB) (x) =χA (x) ∧χB (x) (1) (χA∪χB) (x) =χA (x) ∨χB (x) (2) χ(˥A) (x) =¬χA (x) (3) где , ∨, ¬ — логические функции конъюнкции, дизъюнкции и отрицания, задаваемые следующими тождествами:

0˄0 = 0˄1 = 1˄0 = 0, 1˄1 = 1 (4) 0˅0 = 0, 0˅1 = 1˅0 = 1˅1 = 1 (5) ¬0 = 1, ¬1 = 0 (6)

4. Информация и энтропия в представлении знаний

Следуя булеву алгоритму, путём последовательностей сигналов 0 и 1, строящимся по конъюнктивным и дизъюнктивным формам с применением отрицания, можно осуществить выбор и кодирование любого из конечного числа сообщений. При этом код, состоящий из указанных последовательностей сигналов, выступает семиотическим соответствием между любыми двумя перечнями знаков. Возможны кодовые системы и с другим конечным числом различных сигналов и таковыми в естественных языках выступают буквенные алфавиты, а также десятичные цифры.

В [4] доказывается, что посредством m двоичных сигналов можно закодировать одно определённое сообщение из 2m сообщений, и, наоборот, для опознавания одного сообщения из N возможных сообщений требуется ld N двоичных знаков, где ld — логарифм при основании 2, который связан с десятичным логарифмом соотношением: ld N = 3,32 lg N.

Поскольку способов кодирования для выбора одного определённого сообщения из имеющихся в базе знаний существует множество, то возникает необходимость использовать какую-то одну сигнальную систему в качестве меры для информационной оценки процесса выбора. Такой системой выступает двоичная система с единицей измерения — единицей информации бит (сокращение от английских слов binary digit — двоичная единица). Тогда количество информации Ii, измеряемое в двоичных знаках, для некоторого сообщения xi из N событий x1, …, xN, имеющих вероятность наступления p (x1), …, p (xN) при p (x1) 0 и ∑ p (x1) = 1, есть двоичный логарифм величины, обратной вероятности наступления этого события, а именно: I = ld 1/p (xi)

Из определения (7) видно, что набор возможных сообщений, которым располагает их отправитель, а также их статистическое распределение должны быть ему известны, на что прямо указывает выражение ∑ p (x1) = 1. Другими словами, речь в данном определении идёт о достоверных событиях, которые с точки зрения модальности в классической логике оцениваются как ассерторические, и, значит, их истинность изначально обеспечена достаточными основаниями (причинами). Однако, что есть энтропия знания с точки зрения теории информации?

Если в некотором наборе сообщений содержится N различных событий, которые появляются в случайной последовательности, но с поддающейся теоретическому расчету вероятностью pi, то можно рассчитать среднее количество информации, приходящееся на все эти события. Для этого, как очевидно, необходимо произвести суммирование по всему набору из N сообщений, в результате чего получаем: H = Ni-1 p (xi) ld 1/p (xi) (8).

Если частота появления всех сообщений одинакова p (x1) = p (x2) =, … = p (xN), то есть p (xi) = 1/N, то тогда член ld1/p (xi) превращается в ld N.

Формулы (7) и (8) показывают сходство и различие между понятиями «информация» и «энтропия» при обработке и передаче знания, а именно: сходство их в том, что они являются частями общего понятия — «знание», и потому как когнитивные величины измеряются одной и той же единицей — битом; различие же их в том, что информация представляет знание о классических понятиях, характеризующихся определёнными значениями экстенсионала и интенсионала, а энтропия — знание о так называемых нечётких множествах [5], то есть с помощью энтропии описывается либо приближённое, либо усреднённое знание на том или ином интервале исследуемой предметной области.

Величины «количество информации» и «количество энтропии» автор [4] поясняет данными, рассчитанными по формулам (7) и (8) и относящимися к алфавиту немецкого языка. Так, энтропия каждой буквы составляет 4,11 бит, но в то же время, если бы все 30 знаков немецкого алфавита, включая пробел, повторялись бы в словах с одинаковой частотой, то точной информации в каждом сообщении содержалось бы ld N = ld 30 = 4,9 бит на одну букву.

При расчете количества информации, приходящегося на одну букву алфавита, исходят только из частоты рi употребления различных букв, а какие-либо другие данные о буквах языка не привлекаются. Однако, помимо частотного распределения, буквы в словах естественного языка обладают взаимными связями и устойчивыми сочетаниями, непосредственно относящимися к смыслам слов, а значения слов в большой степени зависят от контекста. Если, например, требуется по сочетанию из шести букв «инф … ция» угадать все слово, то в тексте по экономике это будет «инфляция», а в тексте по кибернетике — «информация». Разговаривая по неисправному телефону, мы нередко различаем лишь части слов, но если разговор касается определённой темы, то наш слуховой аппарат способен угадывать недостающие их части. Способность восстанавливать сообщения, переданные не полным набором сигналов, в большой степени зависит от двух факторов: во-первых, от того, каким набором понятий располагает получатель сообщений, то есть от того, какими знаниями он располагает; во-вторых, — от способности получателя логически связывать принимаемые им понятия-сообщения в целостные тексты.

Более определённую форму понятия информации и энтропии принимают в физике. Так, в механике понятие «мгновенная скорость» — информация о движении материальной точки в данный момент времени, а понятие «средняя скорость» — энтропия движения на некотором пространственном промежутке.

Заключение

Попытаемся представить «абсолютного получателя сообщений», который, живя в детерминированном и, следовательно, замкнутом мире, знает всё факты на каждый данный момент времени. Для такого получателя не может быть никаких непонятных сообщений: он знает всё заранее. Фантастические возможности «абсолютного получателя сообщений» ещё в XVIII веке описал Лаплас: «Разумное существо, которое в каждый данный момент знало бы все движущие силы природы, и имело бы полную картину состояния, в котором природа находится, могло бы — если бы его ум был в состоянии достаточно проанализировать эти данные — выразить одним уравнением как движение самых больших тел мира, так и движение мельчайших атомов. Ничего не осталось бы для него неизвестным, и оно могло бы обозреть одним взглядом как будущее, так и прошлое».

Наше сознание, являясь частью открытого природного мира, склонно вести себя более разумно. Размытость и необратимость мира не подлежат точному описанию, и потому комплекс человеческого мышления рационализирует принцип нечёткости мира посредством рассечения его на две части — истинную и ложную. Истина — то, что находится «здесь и теперь» и потому может быть обосновано достаточными основаниями и структурировано с помощью рациональных когнитивных процедур (индукции, абдукции, дедукции, аналогий, etc), а ложь — то, что возможно «где-то там и когда-нибудь», значит, в неё можно только верить и структурировать только с помощью правдоподобных гипотез. Первая часть мира описывается с помощью пределов, к которым субъект устремляет добываемое опытным путём усреднённое знание, используя при этом метод предельного перехода, вторая часть — мир гипотез и верований, который возможно описать лишь с помощью приближений. При этом информация может быть только формальной, выражающей предел истинного знания, а само знание как сущность сознания блуждает в открытом интервале {0, 1} (по Заде), где 0 — неопределённость, 1 — определённость. Нечёткие модели знания могут опираться и на аппарат логики, но только в том случае, если получают расширение соответствующие физические системы отсчёты, либо получают рациональную интерпретацию соответствующие лингвистические переменные.

Библио­графия:
  1. Аристотель. Собрание сочинений в 4-х т. Т. 1. — М., 1976.
  2. Кант И. Критика чистого разума. — М., 2006.
  3. Попов В. Г. Рациональная реконструкция интуитивной теории суждений // Современная логика. Материалы XI Международной научной конференции, СПб., 24–26.06.2010.
  4. Steinbuch Karl. Automat und mensch. Springer–Verlag. — Berlin, 1965.
  5. Заде Л. Понятие лингвистической переменной и его применение к принятию приближённых решений. — М., 1977.
Источ­ник: Попов В. Г. Информационно-энтропийная концепция сознания. Институт философии Российской Академии наук. Всероссийская конференция по проблемам искусственного интеллекта «Проблема сознания в междисциплинарной перспективе», 29–30 марта 2012 года. // Электронная публикация: Центр гуманитарных технологий. — 10.04.2012. URL: http://gtmarket.ru/laboratory/expertize/4625
Публикации по теме
Новые статьи
Популярные статьи