Помощь в написании студенческих работ
Антистрессовый сервис

Снижение размерности в метамоделировании

РефератПомощь в написанииУзнать стоимостьмоей работы

В приложениях «осмысленные» (meaningful) (с точки зрения рассматриваемой предметной области) значения входного вектора xX удовлетворяют, как правило, различным ограничениям и между его компонентами существуют многочисленные взаимосвязи. Поэтому множество X таких значений обычно лежит, по крайней мере, приближенно, в окрестности некоторого многообразия (в общем случае, нелинейного) GmRp… Читать ещё >

Снижение размерности в метамоделировании (реферат, курсовая, диплом, контрольная)

Существенной особенностью прикладных задач зачастую является высокая размерность входных данных. Например, детальные описания геометрических объектов (кривых, поверхностей) или их компонентов в общем случае задаются набором 2Dили 3D-координат точек поверхности объекта, лежащих в выбранных узлах геометрического объекта. Другие точки объекта восстанавливаются, как правило, с использованием сплайнов (такого рода детальные описания кривых и поверхностей используются в CAD-системах, компьютерной графике и других приложениях). Такие цифровые описания объекта (например, 3D-поверхности самолета в задаче расчета аэродинамических характеристик [Bernstein et al., 2007]) состоят из десятков тысяч чисел, каждое из которых, рассматриваемое изолированно, не несет смысловой нагрузки. Высокая размерность цифрового описания объектов существенно затрудняет или вообще делает невозможной аппроксимацию функции, зависящей от векторов высокой размерности.

Для анализа и оптимизации крыла пассажирского самолета необходимо построение такой суррогатной модели, вход которой состоит из 3D геометрического описания поверхности крыла и характеристик набегающего потока. Выходы такой суррогатной модели состоят из различных аэродинамических характеристик, таких, как коэффициент сопротивления, коэффициент подъемной силы и т. п. Зависимость между входами и выходами значительно нелинейная. Описание геометрии крыла в большинстве даже наиболее «кратких» инженерных моделей состоит из не менее 500 чисел. Размер обучающей выборки, используемой для построения суррогатной модели, в наилучшем случае составляет несколько тысяч. Стандартные методы восстановления неизвестной зависимости не срабатывают в описанной ситуации из-за значительной размерности входного вектора и малого объема обучающей выборки. В то же время эти 500-мерные входные вектора лежат в пространстве существенно меньшей размерности, равной нескольким десяткам. Включение внутренних процедур снижения размерности в процедуру построения суррогатной модели позволило существенно повысить точность построенной суррогатной модели.

В приложениях «осмысленные» (meaningful) (с точки зрения рассматриваемой предметной области) значения входного вектора xX удовлетворяют, как правило, различным ограничениям и между его компонентами существуют многочисленные взаимосвязи. Поэтому множество X таких значений обычно лежит, по крайней мере, приближенно, в окрестности некоторого многообразия (в общем случае, нелинейного) GmRp размерности m<Gm. Нахождение такого «аппроксимирующего» многообразия Gm очень важно и по другой причине. Для проведения вычислительных экспериментов с целью получения обучающего множества данных, необходимо генерировать входные данные (X, Y), и при этом цифровые описания X должны генерироваться в окрестности многообразия Gm (в частности, необходимо «оставаться» вблизи многообразия Gm при генерации новых значений параметра x в процессе оптимизации).

Обычно аппроксимирующее многообразие Gm неизвестно, и необходимо решать задачу его построения по множеству данных XN, которую можно сформулировать как следующую классическую задачу снижения размерности: найти процедуру = {m, Cm, Rm}, определяемую заданной размерностью m, преобразованием сжатия Cm: xX=Cm(x)Rm и преобразованием восстановления Rm: Rm x = x () = Rm()Rp, минимизирующую ошибку восстановления m() = (ixi — Rm(Cm(xi))2)½. В качестве значения m, являющегося оценкой внутренней размерности множества X, выбирается минимальная размерность, при которой ошибка m() не превышает заданной точности восстановления.

Обычно преобразования Cm и Rm ищутся в параметрическом классе функций, и задача минимизации ошибки m() есть задача минимизации по множеству параметров функций. Если рассматриваются классы линейных преобразований, то решение дается методом главных компонент. Имеется ряд нелинейных процедур снижения размерности, определяемых конкретными классами преобразований: Replicative Artificial Neural Networks, Radial Basis Functions, etc. Новые эффективные процедуры снижения размерности based on construction of non-linear framed orthogonal design manifolds предложены в работе [Bernstein et al., 2008b].

В метамоделировании при решении задачи снижения размерности возможно учитывать различные знания и модели предметной области, что приводит к новым неклассическим задачам снижения размерности, решения которых обеспечивают существенно более высокое качество процедур. Такие знания могут состоять в наличии прикладных параметрических моделей, описывающих объекты [Chernova et al., 2009], или в знании дополнительных характеристик экспериментов, в которых были получены данные [Bernstein et al., 2008c].

Если удалось снизить размерность множества X, то задача аппроксимации функции FM(x) может быть (приближенно) заменена задачей аппроксимации функции y = fM() FM(Rm()) Rq, зависящей от параметра меньшей размерности m.

N, m ={(i = Cm(xi), yi = FM(xi)), i = 1, 2, …, N}. Построенная в результате суррогатная модель FSM(xDN,) будет иметь вид fSM(Cm(x)DN, m). Однако для того, чтобы такая суррогатная модель имела достаточную точность, необходимо, чтобы процедура снижения размерности обеспечивала не только близость в пространстве аргументов x (малую ошибку восстановления m()), но и функциональную близость FM(x) FM(Rm(Cm(x))) [Bernstein et al., 2008d]. В докладе [Bernstein et al., 2010e] рассмотрено другое применение процедуры снижения размерности в задачах аппроксимации, в котором требуется только функциональная близость FM(x) fM(Cm(x)).

Процедура снижения размерности определяет в Rp m-мерное параметрическое многообразие Gm = {Rm(), Rm}, аппроксимирующее множество данных X. При фиксированной процедуре восстановления Rm(), оптимальная процедура сжатия Cm(x) является процедурой проектирования на многообразие Gm: Cm(x) = arg minx — Rm(). С другой стороны, при фиксированной процедуре сжатия Cm, задача построения наилучшей процедуры восстановления Rm, минимизирующей ошибку m(), может быть рассмотрена как следующая задача аппроксимации: по множеству {(xi, i = Cm(xi)), i = 1, 2, …, N} построить функцию x = Rm(), минимизирующую ошибку (ixi — Rm(i))2)½ [Bernstein et al., 2009c].

Показать весь текст
Заполнить форму текущей работой