Помощь в написании студенческих работ
Антистрессовый сервис

Применение теории информации и АСК-анализа для экспериментальных исследований в теории чисел

РефератПомощь в написанииУзнать стоимостьмоей работы

Эта теория включает элементарную, аналитическую и алгебраическую теорию чисел См., например: http://ru.wikipedia.org/wiki/Теория %20чисел. Элементарная теория чисел для получения своих результатов не используют достижений других разделов математики, тогда как в аналитической теории чисел для получения доказательств теорем используется аппарат математического анализа, а в алгебраической — аппарат… Читать ещё >

Применение теории информации и АСК-анализа для экспериментальных исследований в теории чисел (реферат, курсовая, диплом, контрольная)

Теория чисел представляет собой один из наиболее древних, но постоянно развивающихся разделов математики, который включает как простейшие результаты, так и сложнейшие задачи, типа теоремы Ферма, решенные лишь недавно или еще требующие своего решения См.: http://ru.wikipedia.org/wiki/Открытые %20проблемы %20 В %20теории %20чисел.

Эта теория включает элементарную, аналитическую и алгебраическую теорию чисел См., например: http://ru.wikipedia.org/wiki/Теория %20чисел. Элементарная теория чисел для получения своих результатов не используют достижений других разделов математики, тогда как в аналитической теории чисел для получения доказательств теорем используется аппарат математического анализа, а в алгебраической — аппарат алгебры (там же).

Отметим также возможность непосредственной численной проверки на компьютерах тех или иных гипотез теории чисел и более того: для доказательства теорем См.: http://ru.wikipedia.org/wiki/Доказательные %20вычисления. При этом необходимо отметить, что даже возможности современных мощных компьютеров иногда оказываются совершенно недостаточными для этого и поэтому используются различные приближенные вероятностные и статистические методы, а также технологии искусственного интеллекта См.: http://ru.wikipedia.org/wiki/Математическое %20доказательство. См. также лекцию «Компьютерная теория чисел» в статье: А. Г. Гейн, «Математические основы информатики», № 23/2007 журнала «Информатика» издательского дома «Первое сентября». Адрес доступа: http://информатика.1сентября.рф/article.php?ID=200 702 301.

Результаты в теории чисел формулируются в форме гипотез и теорем. Но что представляет собой математическая гипотеза или теорема с точки зрения теории информации? Это некое высказывание, содержащее определенное количество информации об абстрактных математических объектах, их свойствах и отношениях. Предметом изучения теории чисел является такой абстрактный объект как число, а также свойства чисел и их отношений.

Возникает закономерный вопрос: а возможно ли автоматизировать исследование свойств чисел и их отношений таким образом, чтобы результаты этого исследования можно было формулировать в виде высказываний с указанием конкретного количества информации, содержащегося в них?

Данная статья является попыткой обоснования утвердительного ответа на этот вопрос. Для этого предлагается применять для исследования свойств чисел в теории чисел тот же метод, который широко апробирован и хорошо зарекомендовал себя при исследования реальных объектов и их отношений в различных предметных областях, а именно автоматизированный системно-когнитивный анализ (АСК-анализ), основанный на теории информации [1].

Рассмотрим на простейшем примере, как может выглядеть подобное исследование. При этом будем придерживаться последовательности обработки данных, информации и знаний, принятых в АСК-анализе и его программном инструментарии — интеллектуальной системе «Эйдос» (рисунок 1).

Очень кратко о АСК-анализе: АСК-анализ представляет собой системный анализ, структурированным по базовым когнитивным (познавательным) операциям, что позволило его автоматизировать и включает:

  • — формализуемую когнитивную концепцию, из которой выводится минимальный полный набор когнитивных операций (когнитивный конфигуратор);
  • — математическая модель, основанную на системном обобщении семантической меры информации А. Харкевича;
  • — методику численных расчетов, т. е. структуры данных и алгоритмы;
  • — программный инструментарий — интеллектуальную систему «Эйдос» .

Рисунок 1. Последовательность преобразования данных в информацию, а ее в знания в АСК-анализе и интеллектуальной системе «Эйдос» .

Последовательность преобразования данных в информацию, а ее в знания в АСК-анализе и интеллектуальной системе «Эйдос», представленная на рисунке 1, соответствует этапам АСК-анализа.

Этапы разработки приложения в АСК-анализе:

  • 1. Когнитивная структуризация предметной области.
  • 2. Формализация предметной области.
  • 3. Подготовка и ввод обучающей выборки.
  • 4. Синтез семантической информационной модели (СИМ).
  • 5. Повышение качества СИМ.
  • 6. Проверка адекватности СИМ (измерение внутренней и внешней, дифференциальной и интегральной валидности).
  • 7. Исследование моделируемой предметной области путем исследования его модели (анализ СИМ);
  • 8. Решение задач идентификации, прогнозирование и принятия решений.

Теоретические аспекты АСК-анализа и опыт его практического применения для решения задач в различных предметных областях подробно описан в ряде работ автора [2−19] Полный открытый бесплатный доступ к этим и другим работам предоставлен на сайте автора: http://lc.kubagro.ru/. и в данной статье на этом останавливаться нецелесообразно. Отметим лишь, что этот метод обеспечивает:

  • — выявление причинно-следственных связей в эмпирических данных и преобразование их сначала в информацию, а затем в знания [20];
  • — сопоставимую обработку данных, полученных в различных видах измерительных шкал и представленных в различных единицах измерения [21];
  • — использование знаний для решения задач идентификации, прогнозирование и принятия решений [22].

Скачаем, установим и запустим систему «Эйдос» .

  • 1. Самую новую на текущий момент версию системы «Эйдос-Х++» всегда можно скачать на странице: http://lc.kubagro.ru/aidos/index.htm по ссылке: http://lc.kubagro.ru/a.rar.
  • 2. Разархивируем этот архив в любую папку с правами на запись с коротким латинским именем самой папки и всех папок на пути к ней.
  • 3. Запустить систему. Файл запуска: _AIDOS-X.exe.
  • 4. Задать имя: 1 и пароль: 1.
  • 5. Выполнить режим 1.1 (только 1-й раз при установке системы в эту папку). автоматизированный когнитивный интеллектуальная число

Затем выберем диспетчер приложений — режим 1.3 (рисунок 2):

Рисунок 2. Диспетчер приложений системы «Эйдос» .

Данный режим обеспечивает добавление и удаление приложений, а также выбор текущего приложения для работы.

Кликнем по кнопке: «Добавить учебное приложение», а затем в появившемся окне, представленном на рисунке 3, выберем учебные приложения, устанавливаемые автоматизировано в диалоге с пользователем.

Рисунок 3. Окно выбора учебных приложений для установки В результате появится окно выбора таких учебных приложений (рисунок 4):

Рисунок 4. Окно выбора для установки учебных приложений, устанавливаемые автоматизировано в диалоге с пользователем Выберем учебное приложение № 11: «Исследование свойств натуральных чисел при различных объемах выборки». Появится окно, представленное на рисунке 5:

Рисунок 5. Окно задания диапазона исследуемых натуральных чисел Оставим предлагаемые по умолчанию Отметим, что в данном режиме могут быть исследованы и большие числа. значения и нажмем «ОК». При этом происходит формирование классификационных и описательных шкал и градаций и обучающей выборки. Стадия исполнения и прогноз времени исполнения отображаются в окне (рисунок 6):

Рисунок 6. Отображение стадии исполнения и прогноза времени исполнения процесса формирование классификационных и описательных шкал и градаций и обучающей выборки Из рисунка 6 видно, что эти процессы заверены за время около 2 секунд.

В результате работы данного режима получаем следующие классификационные и описательные шкалы и градации и обучающую выборку (таблицы 1−3):

Таблица 1. Классификационные шкалы и градации.

Код класса.

Наименование классификационной шкалы и градации.

Код класса.

Наименование классификационной шкалы и градации.

Число: 1.

Число: 16.

Число: 2.

Число: 17.

Число: 3.

Число: 18.

Число: 4.

Число: 19.

Число: 5.

Число: 20.

Число: 6.

Число: 21.

Число: 7.

Число: 22.

Число: 8.

Число: 23.

Число: 9.

Число: 24.

Число: 10.

Число: 25.

Число: 11.

Число: 26.

Число: 12.

Число: 27.

Число: 13.

Число: 28.

Число: 14.

Число: 29.

Число: 15.

Число: 30.

Таблица 2. Описательные шкалы и градации.

Код признака.

Наименование описательной шкалы и градации.

Код признака.

Наименование описательной шкалы и градации.

ДЕЛИТСЯ НА:-2.

СТЕПЕНЬ ЧИСЛА:-2.

ДЕЛИТСЯ НА:-3.

СТЕПЕНЬ ЧИСЛА:-3.

ДЕЛИТСЯ НА:-4.

СТЕПЕНЬ ЧИСЛА:-4.

ДЕЛИТСЯ НА:-5.

СТЕПЕНЬ ЧИСЛА:-5.

ДЕЛИТСЯ НА:-6.

ЧИСЛО В СТЕПЕНИ:-2.

ДЕЛИТСЯ НА:-7.

ЧИСЛО В СТЕПЕНИ:-3.

ДЕЛИТСЯ НА:-8.

ЧИСЛО В СТЕПЕНИ:-4.

ДЕЛИТСЯ НА:-9.

ПРОСТОЙ МНОЖИТЕЛЬ:-2.

ДЕЛИТСЯ НА:-10.

ПРОСТОЙ МНОЖИТЕЛЬ:-3.

ДЕЛИТСЯ НА:-11.

ПРОСТОЙ МНОЖИТЕЛЬ:-5.

ДЕЛИТСЯ НА:-12.

ПРОСТОЙ МНОЖИТЕЛЬ:-7.

ДЕЛИТСЯ НА:-13.

ПРОСТОЙ МНОЖИТЕЛЬ:-11.

ДЕЛИТСЯ НА:-14.

ПРОСТОЙ МНОЖИТЕЛЬ:-13.

ДЕЛИТСЯ НА:-15.

ПРОСТОЙ МНОЖИТЕЛЬ:-17.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-0.

ПРОСТОЙ МНОЖИТЕЛЬ:-19.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-1.

ПРОСТОЙ МНОЖИТЕЛЬ:-23.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-2.

ПРОСТОЙ МНОЖИТЕЛЬ:-29.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-3.

КОЛИЧЕСТВО ПРОСТЫХ МНОЖИТЕЛЕЙ:-1.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-4.

КОЛИЧЕСТВО ПРОСТЫХ МНОЖИТЕЛЕЙ:-2.

КОЛИЧЕСТВО ДЕЛИТЕЛЕЙ:-6.

КОЛИЧЕСТВО ПРОСТЫХ МНОЖИТЕЛЕЙ:-3.

Таблица 3. Обучающая выборка.

Объект обучающей выборки.

Код класса.

Коды признаков.

Код.

Наименование.

Число: 1.

Число: 2.

Число: 3.

Число: 4.

Число: 5.

Число: 6.

Число: 7.

Число: 8.

Число: 9.

Число: 10.

Число: 11.

Число: 12.

Число: 13.

Число: 14.

Число: 15.

Число: 16.

Число: 17.

Число: 18.

Число: 19.

Число: 20.

Число: 21.

Число: 22.

Число: 23.

Число: 24.

Число: 25.

Число: 26.

Число: 27.

Число: 28.

Число: 29.

Число: 30.

Рисунок 7. Экранная форма управления режимом синтеза и верификации моделей 3.5.

В таблицах 1 и 2 повторяющаяся часть наименования является наименованием шкалы, а изменяющаяся — градации (в таблице 2 шкалы с градациями выделены областями, обведенными более толстой линией). Обучающая выборка является описанием свойств чисел кодами с использованием классификационных и описательных шкал и градаций.

На следующем этапе АСК-анализа осуществляется синтез и верификация (оценка достоверности) статистических моделей и моделей знаний. В системе «Эйдос» эти этапы выполняются в режиме 3.5, экранная форма управления которым приведена на рисунке 7.

Отображение стадии процесса и прогноз времени исполнения осуществляется в экранной форме, приведенной на рисунке 8:

Рисунок 8. Экранная форма отображения стадии процесса синтеза и верификации моделей и прогноза времени исполнения В результате выполнения режима 3.5 сформированы статистические модели и модели знаний Из данной экранной формы видно, что исполнение режима 3.5 заняло 30 секунд., некоторые из которых представлены ниже в таблицах 4, 6 и 7:

  • — в таблице 4 приведена матрица абсолютных частот наблюдений признаков у объектов обучающей выборки, относящихся к различным категориям (классам);
  • — в таблице 6 мы видим количество информации в сотых долях бита (сантибитах), которое содержится в факте наблюдения определенного признака у объекта о том, что этот объект принадлежит определенному классу;
  • — в таблице 7 приведены значения хи-квадрат, умноженные на 100.

Для преобразования абсолютных частот встреч признаков у объектов обучающей выборки в разрезе по классам (таблица 4) в знания используются следующие частные критерии (таблица 5).

Таблица 4. Матрица абсолютных частот (модель: ABS).

Признаки.

Классы (числа).

Код.

Наименование.

Делится на: 2.

Делится на: 3.

Делится на: 4.

Делится на: 5.

Делится на: 6.

Делится на: 7.

Делится на: 8.

Делится на: 9.

Делится на: 10.

Делится на: 11.

Делится на: 12.

Делится на: 13.

Делится на: 14.

Делится на: 15.

Количество делителей: 0.

Количество делителей: 1.

Количество делителей: 2.

Количество делителей: 3.

Количество делителей: 4.

Количество делителей: 6.

Степень числа: 2.

Степень числа: 3.

Степень числа: 4.

Степень числа: 5.

Число в степени: 2.

Число в степени: 3.

Число в степени: 4.

Простой множитель: 2.

Простой множитель: 3.

Простой множитель: 5.

Простой множитель: 7.

Простой множитель: 11.

Простой множитель: 13.

Простой множитель: 17.

Простой множитель: 19.

Простой множитель: 23.

Простой множитель: 29.

Количество простых множителей: 1.

Количество простых множителей: 2.

Количество простых множителей: 3.

Таблица 5. Частные критерии знаний, используемые в настоящее время в АСК-анализе и системе «Эйдос-Х++» .

Наименование модели знаний и частный критерий.

Выражение для частного критерия.

через относительные частоты.

через абсолютные частоты.

INF1, частный критерий: количество знаний по А. Харкевичу, 1-й вариант расчета относительных частот: Nj — суммарное количество признаков по j-му классу. Относительная частота того, что если у объекта j-го класса обнаружен признак, то это i-й признак.

INF2, частный критерий: количество знаний по А. Харкевичу, 2-й вариант расчета относительных частот: Nj — суммарное количество объектов по j-му классу. Относительная частота того, что если предъявлен объект j-го класса, то у него будет обнаружен i-й признак.

INF3, частный критерий: Хи-квадрат: разности между фактическими и теоретически ожидаемыми абсолютными частотами.

—;

INF4, частный критерий: ROI — Return On Investment, 1-й вариант расчета относительных частот: Nj — суммарное количество признаков по j-му классу Применение предложено Л. О. Макаревич.

INF5, частный критерий: ROI — Return On Investment, 2-й вариант расчета относительных частот: Nj — суммарное количество объектов по j-му классу.

INF6, частный критерий: разность условной и безусловной относительных частот, 1-й вариант расчета относительных частот: Nj — суммарное количество признаков по j-му классу.

INF7, частный критерий: разность условной и безусловной относительных частот, 2-й вариант расчета относительных частот: Nj — суммарное количество объектов по j-му классу.

Обозначения:i — значение прошлого параметра; j — значение будущего параметра;

Nij — количество встреч j-го значения будущего параметра при i-м значении прошлого параметра;

M — суммарное число значений всех прошлых параметров;

W — суммарное число значений всех будущих параметров.

Ni — количество встреч i-м значения прошлого параметра по всей выборке;

Nj — количество встреч j-го значения будущего параметра по всей выборке;

N — количество встреч j-го значения будущего параметра при i-м значении прошлого параметра по всей выборке.

Iij — частный критерий знаний: количество знаний в факте наблюдения i-го значения прошлого параметра о том, что объект перейдет в состояние, соответствующее j-му значению будущего параметра;

Ш — нормировочный коэффициент (Е.В. Луценко, 2002), преобразующий количество информации в формуле А. Харкевича в биты и обеспечивающий для нее соблюдение принципа соответствия с формулой Р. Хартли;

Pi — безусловная относительная частота встречи i-го значения прошлого параметра в обучающей выборке;

Pij — условная относительная частота встречи i-го значения прошлого параметра при j-м значении будущего параметра.

Таблица 6. Матрица информативности (модель знаний: INF1) в сантибитах.

Признаки.

Классы (числа).

Код.

Наименование.

Делится на: 2.

Делится на: 3.

Делится на: 4.

Делится на: 5.

Делится на: 6.

Делится на: 7.

Делится на: 8.

Делится на: 9.

Делится на: 10.

Делится на: 11.

Делится на: 12.

Делится на: 13.

Делится на: 14.

Делится на: 15.

Количество делителей: 0.

Количество делителей: 1.

Количество делителей: 2.

Количество делителей: 3.

Количество делителей: 4.

Количество делителей: 6.

<…
Показать весь текст
Заполнить форму текущей работой