Помощь в написании студенческих работ
Антистрессовый сервис

Самоотражение конечных множеств

РефератПомощь в написанииУзнать стоимостьмоей работы

Полученная формула количества информации, самоотражаемой конечным множеством (11), математически подобна информационной мере Хартли, взятой при единичном выборе и двоичном основании логарифма, но принципиально отличается от неё тем, что число символов используемого алфавита в мере Хартли является аргументом логарифма, а в формуле (11) — его основанием. Кроме того, основание логарифма в мере… Читать ещё >

Самоотражение конечных множеств (реферат, курсовая, диплом, контрольная)

Анализируя модели взаимосвязи конечных множеств, А и В (см. рисунок 2), можно утверждать, что при постоянстве и негэнтропия отражения увеличивается по мере роста и является максимальной, когда. В этом случае отражение множеств, А и В друг через друга не отличается от их самоотражения, то есть отражения через самих себя. Соответственно, негэнтропия при равна самоотражаемой информации, которую каждое из множеств отражает о самом себе как едином целом. Это говорит о том, что негэнтропия отражения и информация, самоотражаемая конечными множествами, имеют одну и ту же природу. Поэтому, прежде чем непосредственно решать поставленную задачу по оценке негэнтропии отражения, рассмотрим информационные аспекты самоотражения конечных множеств.

Будем исходить из общеупотребительного и наиболее простого определения информации, как сведений о чём-либо и примем в наших исследованиях за информацию сведения о конечном множестве, как едином целом. При этом, используя словосочетание «единое целое», мы имеем в виду, что, во-первых, конечное множество в контексте его отражения является неделимым, а во-вторых, — элементы множества в своей совокупности представляют не механическое собрание предметов, существующих независимо друг от друга, а целостное образование, в составе которого элементы обладают интегративными характеристиками, не присущими им в их разобщенном виде. Короче говоря, показателем конечного множества, как единого целого, являются интегративные характеристики его элементов. Соответственно, наличие у этих характеристик какого-либо числового параметра, зависящего от общего числа элементов, может служить основой для определения количества информации, самоотражаемой конечным множеством. Определим это количество информации, для чего примем следующий аксиоматический базис:

  • 1). Информация представляет собой сведения о конечном множестве элементов, как едином целом.
  • 2). Количество информации, самоотражаемой конечным множеством А, является монотонно возрастающей функцией от общего числа его элементов и, соответственно, для любых двух конечных множеств, А и В с числом элементов и имеет место неравенство

(1).

3). Показателем конечного множества А, как единого целого, является интегративный код его элементов, представляющий собой индивидуальную для каждого элемента последовательность символов какого-либо алфавита, число которых (длина кода) является функцией от общего количества элементов в составе множества.

Рассмотрим процесс увеличения числа элементов, представив его в виде роста ориентированного дерева, совокупность висячих вершин которого взаимно-однозначно соответствует множеству элементов, а максимальное число дуг, выходящих из одной вершины, равно числу символов (n) алфавита, выбранного для составления интегративных кодов. При этом каждой из смежных дуг в алфавитном порядке ставится в соответствие свой символ и, как следствие, в качестве индивидуального интегративного кода какого-либо элемента выступает последовательность символов, находящихся на пути движения из начальной вершины дерева в соответствующую данному элементу висячую вершину. Модель такого дерева, которое будем называть деревом кодов, при и использовании в качестве алфавита упорядоченной пары символов приведена на рисунке 3.

Рисунок 3. Модель дерева кодов при n = 2 и MA = 6.

Из приведённой модели дерева кодов видно, что в общем случае множество, А по длине интегративных кодов его элементов разбивается на два подмножества и, таких, что и, где — целочисленная часть. То есть не является однозначной функцией от. Поэтому будем рассматривать среднюю длину интегративных кодов.

(2).

и начнем с алфавита с минимальным числом символов .

Из анализа рисунка 3 следует, что при возрастание на единицу обуславливает уменьшение на единицу числа элементов с длиной кода x и увеличение числа элементов с длиной кода на два элемента, то есть:

(3).

Учитывая (3), для определения и составим систему уравнений.

.

решая которую, получаем:

(4).

Подставляя значения (4) в выражение (2), и проводя несложные преобразования, приходим к следующей формуле средней длины интегративных кодов при :

(5).

Полученное выражение (5) удовлетворяет принятым аксиомам и, соответственно, может служить мерой количества информации, самоотражаемой конечным множеством А.

Рассмотрим теперь деревья кодов при. На рисунке 4 представлены такие деревья, когда и .

Рисунок 4. Модели дерева кодов при n = 3.

Из рисунка видно, что при наполнении выходящими дугами начальной вершины дерева (см. рисунок 4а, б) и последней из висячих вершин (см. рисунок 4 В, г) средняя длина кодов не изменяется, то есть где.

Увеличивая n, приходим к общему выражению случаев постоянства значений при наполнении выходящими дугами последних из висячих вершин:

(6).

Из выражения (6) следует, что при и не менее чем в случаев противоречит аксиоме (1) монотонного возрастания информации. Это позволяет сделать принципиально важный вывод: средняя длина интегративного кода элементов может выступать в качестве меры количества информации только тогда, когда интегративные коды составлены с помощью двоичного алфавита.

Таким образом, мы пришли к тому, что.

(7).

и, соответственно, всё излагаемое ниже будет относиться к .

Проводя анализ формулы (5), нетрудно видеть, что если, то. В тех же случаях, когда, наблюдается некоторое превышение над, что можно видеть на рисунке 5.

Рисунок 5. Графики функций и.

Определим максимальную величину этого превышения (), как точную верхнюю грань отклонения от :

Применяя необходимое условие экстремума функции и, полагая, что, x = const, в соответствии с выражением (5) приходим к уравнению.

.

которое, после дифференцирования по, приобретает вид и после несложных преобразований имеет своим решением:

(8).

Подставляя значение из (8) в разность, и представляя при этом в развернутом виде, имеем:

Так как в соответствии со свойствами логарифмов, то из последнего выражения окончательно получаем, что отклонение значений от ограничено постоянной величиной.

(9).

что наглядно иллюстрирует рисунок 6.

Рисунок 6. График разности.

Значение полученной постоянной (9) позволяет сделать приближение:

(10).

Функция является монотонно возрастающей и её значения удовлетворяют информационной аксиоме (1). Поэтому, основываясь на выражении (7), и принимая во внимание более простой вид в выражении (10) по сравнению с выражением (5), окончательно примем меру информации в следующем виде:

(11).

Полученная формула количества информации, самоотражаемой конечным множеством (11), математически подобна информационной мере Хартли [8], взятой при единичном выборе и двоичном основании логарифма, но принципиально отличается от неё тем, что число символов используемого алфавита в мере Хартли является аргументом логарифма, а в формуле (11) — его основанием. Кроме того, основание логарифма в мере Хартли может быть любым, а в мере (11) основание больше двух не допускается. В связи с этим уместно привести высказывание академика А. Н. Колмогорова о математическом подобии различных информационно-энтропийных функций: «Такие математические аналогии следует всегда подчеркивать, так как сосредоточение на них внимания содействует прогрессу науки» [10, с.39].

Подводя итог сделанному в настоящем разделе, можно констатировать, что нами получен новый подход к определению количества информации, основанный на совместном и одновременном учёте всех элементов конечного множества, без выделения какого-либо из них в качестве случайного события, результата испытания и т. п. То есть, мы ушли от традиционного увязывания количества информации с результатами выбора одной из множества различных возможностей. Чтобы отличать этот подход от других подходов к количественному определению информации, будем называть его синергетическим подходом. Такое название обусловлено тем, что количество информации, самоотражаемой конечным множеством, является результатом совместного отражающего действия всей совокупности его элементов, а термин «синергетика» буквально означает «совместный, согласованно действующий».

информация негэнтропия множество.

Показать весь текст
Заполнить форму текущей работой