Классификация лесных пожаров от показателей силы и площади
Рисунок 1.3 — Структура сети Кохонена Нейронная сеть, используемая для классификации, будет иметь N выходов, равное числу классов. В сети, приведенной на рис. 1.3, ядра cm являются весовыми коэффициентами нейронов. Каждый нейрон запоминает одно ядро класса, и отвечает за определение объектов в своем классе, т. е. величина выхода нейрона тем больше, чем ближе объект к данному ядру класса. Общее… Читать ещё >
Классификация лесных пожаров от показателей силы и площади (реферат, курсовая, диплом, контрольная)
В зависимости от того, в каких элементах леса распространяется огонь, лесные пожары принято классифицировать на низовые (составляют по количеству до 90%) и верховые, что и было сделано выше, с помощью многослойного персептрона. Но классифицировать лесные пожары можно и по другим признакам, которые характерны для пожаров. Например, можно провести классификацию относительно показателей силы пожара или классифицировать лесные пожары по величине площади, охваченной огнем.
Классификация лесных пожаров в зависимости от показателей силы пожара представлена в табл. 1.1.
Таблица 1.1 — Классификация лесных пожаров в зависимости от показателей силы пожара.
Параметры пожара. | Значения показателей силы пожара. | ||
Слабого. | Среднего. | Сильного. | |
Низовой пожар | |||
Скорость распространения огня, м/мин. | до 1. | 1−3. | более 3. |
Высота пламени, м. | до 0,5. | 0,5−1,5. | более 1,5. |
Верховой пожар | |||
Скорость распространения огня, м/мин. | до 3. | 3−100. | более 100. |
Кроме того, по величине площади, охваченной огнем, все перечисленные виды пожаров классифицируются в соответствии с данными, представленными в табл. 2.
Таблица 1.2 — Классификация лесных пожаров по величине площади, охваченной огнем.
Классификация лесных пожаров. | Площадь, охваченная огнем, га. |
Загорание. | 0,1−0,2. |
Малый пожар | 0,2−2,0. |
Небольшой пожар | 2,1−20. |
Средний пожар | 21−200. |
Крупный пожар | 201−2000. |
Катастрофический пожар | Более 2000. |
Таким образом, для решения задачи классификации ЛП в зависимости от скорости распространения огня и высоты пламени, все лесные пожары были разделены на следующие классы:
- 1) слабые низовые пожары;
- 2) средние низовые пожары;
- 3) сильные низовые пожары;
- 4) слабые верховые пожары;
- 5) средние верховые пожары;
- 6) сильные верховые пожары.
Для решения задачи классификации ЛП в зависимости от величины площади, охваченной огнем, все лесные пожары были разделены на следующие классы:
- 1) загорание;
- 2) малый пожар;
- 3) небольшой пожар;
- 4) средний пожар;
- 5) крупный пожар;
- 6) катастрофический пожар.
Следовательно, система классификаторов включает 6 классов, характеризующих силу пожара, и 6 классов, характеризующих площадь, охваченную огнем.
В нашем случае число классов лесных пожаров m заранее определено. Тогда будем характеризовать объекты, подлежащие классификации, вектором параметров, имеющим N компонент, компоненты обозначим нижним индексом:. Вектор параметров — единственная характеристика объектов при их классификации.
Введем множество классов в пространстве классов: .
Пространство классов может не совпадать с пространством объектов X и иметь другую размерность. В простейшем случае, когда пространства классов и объектов совпадают, X=C, классы представляют собой области пространства X, и объект xp будет отнесен к одному из классов m0, если. В общем случае X и C различны.
Определим ядра классов {cm}=c1,., cm в пространстве классов C, как объекты, типические для своего класса. К примеру, если для классификации лесных пожаров в зависимости от показателей силы пожара выбрать параметры {скорость распространения огня, высота пламени}, то ядро класса «слабый низовой пожар» будет иметь параметры {скорость распространения огня 1 м/мин, высота пламени 0,5 м}.
Очевидно, что близость объекта к ядру необходимо оценивать численно. Введем меру близости — скалярную функцию от объекта и ядра класса, которая тем меньше, чем больше объект похож на ядро класса.
Задавшись числом классов M, можно поставить задачу классификации: найти M ядер классов и разбить объекты на классы, то есть построить функцию таким образом, чтобы минимизировать сумму мер близости:
.
Функция, определяющая номер класса по индексу множества объектов, задает разбиение на классы и является решением задачи классификации.
В простейшем случае, пространство объектов разбивается на области и если, то и объект относят к классу .
Задача обучения состоит в том, чтобы научить сеть активировать один и тот же нейрон для похожих векторов на входе.
Алгоритм классификации. Выберем евклидову меру близости. В этом случае ядро класса, минимизирующее сумму мер близости для объектов этого класса, совпадает с центром тяжести объектов [7]:
, (1.7).
где — число объектов в классе .
При разбиении на классы должна быть минимизирована суммарная мера близости для всего множества входных объектов.
. (1.8).
В формуле (3) расписано скалярное произведение. В этой сумме два слагаемых не зависят от способа разбиения и постоянны:
(1.9).
. (1.10).
Поэтому задача поиска минимума D эквивалентна поиску максимума выражения: .
На рис. 1.2 представлена блок-схема алгоритма классификации для поиска максимума этой функции [7].
Рисунок 1.2 — Блок-схема алгоритма классификации Такой алгоритм легко реализуется в виде нейронной сети. Для этого требуется N сумматоров, находящих все, и интерпретатора, находящего сумматор с максимальным выходом.
Выберем в качестве входных сигналов и компоненты ядер в качестве весовых коэффициентов. Тогда каждый формальный нейрон с числом входов, равным числу компонент во входном векторе, будет давать на выходе одну из сумм.
Чтобы определить класс, к которому относится объект, нужно выбрать среди всех нейронов данного слоя один с максимальным выходом — это осуществляет интерпретатор.
Опишем структуру нейронной сети [4] (рис. 1.3).
Нейроны слоя Кохонена генерируют сигналы. Интерпретатор выбирает максимальный сигнал слоя Кохонена и выдает номер класса m, соответствующий номеру входа, по которому интерпретатором получен максимальный сигнал. Это соответствует номеру класса объекта, который был предъявлен на входе, в виде вектора xp.
Рисунок 1.3 — Структура сети Кохонена Нейронная сеть, используемая для классификации, будет иметь N выходов, равное числу классов. В сети, приведенной на рис. 1.3, ядра cm являются весовыми коэффициентами нейронов. Каждый нейрон запоминает одно ядро класса, и отвечает за определение объектов в своем классе, т. е. величина выхода нейрона тем больше, чем ближе объект к данному ядру класса. Общее количество классов совпадает с количеством нейронов.
Рассмотрим задачу автоматического выявления центров кластеров входов для двумерного случая с использованием слоя Кохонена (слоя «соревнующихся» нейронов). Решение данной задачи приведено ниже.
% Create P.
X = [0 1; 0 1]; % Задание диапазонов возможного положения центров кластеров.
% Задание параметров для моделирования исходных данных, принадлежащих 6.
% классам (кластерам).
clusters = 6;
points = 10;
std_dev = 0.05;
P = nngenc (X, clusters, points, std_dev);
% Моделирование входных данных.
h=newc ([0 1; 0 1], 6,.1);
% Создание слоя Кохонена.
h.trainParam.epochs=500;
% Задание количества циклов обучения.
h=init (h);
% Инициализация сети.
h=train (h, P).
% Обучение сети.
w=h.IW{1};
% Вывод графика исходных данных и выявление центров кластеров.
plot (P (1:), P (2:),'+r');
hold on; plot (w (, 1), w (, 2),'ob');
xlabel (`p (1)');
ylabel (`p (2)');
p= [0;0.2];
% Задание нового входного вектора.
y=sim (h, p).
%Опрос сети.
y=.
(5,1) 1.
Работу обученной сети иллюстрирует рис. 1.4 и результат ее опроса (который выдается в форме разряженной матрицы). В условиях примера предъявленный вектор отнесен к третьему классу (кластеру).
Рисунок 1.4 — Обучение сети.
Рисунок 1.5 — Входные данные.
Рисунок 1.6 — Выявленные центры кластеров.