Процедуры обучения в моделях контроля и технического диагностирования на основе методов непараметрической статистики

PAGE 8

Лекция 6

Процедуры обучения в моделях контроля и технического диагностирования на основе методов непараметрической статистики

1. Уровни определенности априорной информации об объекте контроля и технического диагностирования

2. Формулировка задачи построения изображений видов технического состояния объекта на основе обучения

3. Схема итеративного градиентного поиска. Существо алгоритма Роббинса-Монро

1

В теории систем выделяются следующие уровни априорной определенности статистической информации об исследуемом объекте.

1). Полная определенность. Объем и содержание информации позволяет применять для построения моделей К и Д методы детерминированной математики. Для реальных объектов этот случай практически исключается.

2). Вероятностная определенность. Статистическая информация является однородной (получена в одинаковых условиях). Известны диапазоны изменения КП

ij = [], ,

и законы их распределения для каждого вида ТС. Указанный уровень определенности информации позволяет применять при построения моделей К и Д методы параметрической статистики. Эти методы хорошо разработаны и относительно просты как в методологическом, так и в вычислительном отношении.

3). Множественная определенность. Статистическая информация является неоднородной, характеризуется малыми объемами. Известны только диапазоны изменения КП (множества значений) для каждого вида ТС. Законы распределения КП неизвестны. При данном уровне определенности информации построение моделей К и Д возможно только на основе методов непараметрической статистики. Эти методы позволяют обрабатывать неоднородную статистическую информацию малых объёмов.

Характерной особенностью задач К и Д является и еще более сложная ситуация, когда известны диапазоны изменения КП только для работоспособного состояния (состояния правильного функционирования) объекта:

0j = [], .

При соответствующей доработке методы непараметрической статистики могут применяться и в данной ситуации.

2

Исследование сложных систем как объектов К и Д всегда приходится проводить в условиях неполноты априорной информации об этих системах. Неполнота информации обусловлена следующим.

1). Переход объекта из одного вида ТС в другой определяется воздействием самых различных факторов, точный учет которых невозможен.

2). Поиск отказов производится с точностью до ФЭ некоторого уровня, который определяется, с одной стороны, заданными требованиями к глубине К и Д, а с другой – составом имеющихся КП. Отказы внутри этих ФЭ остаются неразличимыми на множестве имеющихся КП. В результате истинная причина перехода объекта в неработоспособное состояние (состояние неправильного функционирования) остается неизвестной.

3). В связи с ограниченным количеством КП отказы ФЭ на множестве этих признаков могут проявляться почти одинаково.

4). Как правило, имеет место острый недостаток статистических данных о неработоспособных состояниях объекта, о том, как проявляются эти состояния на множестве КП. Кроме этого, статистическая информация аккумулируется по результатам заводских испытаний, накапливается на этапе эксплуатации в различных условиях. Поэтому чаще всего она является неоднородной и имеет малые объемы.

Следовательно, при разработке моделей К и Д преимущественно используются методы непараметрической статистики. В частности, при построении изображений

E<n>i= (ei1, ei2,…,eij,…,ein)т, i =

всех видов ТС в дальнейшем будет применяться один из методов непараметрической статистики – метод стохастической аппроксимации и его конкретизация на языке теории распознавания образов. В рамках указанного метода и формулируется задача обучения.

Существо задачи обучения. Пусть задан перечень всех видов технического состояния объекта

Y/ = {Yi | i = }; (1)

определён состав контролируемых признаков

Y<n> = {yj| j = }; (2)

сформирована ограниченная по объёму обучающая выборка реализаций наблюдаемых состояний, принадлежность которых каждому виду технического состояния ОК известна:

Y1;

Y2; (3)

................................

Ym,

где Yi, i = – подмножества наблюдаемых состояний, представляющих i-й вид технического состояния объекта; Ni – мощность обучающей выборки по i-му виду ТС.

Обучающая выборка характеризуется множественной определенностью.

Каждое из подмножеств Yi с топологической точки зрения представляет собой область в n-мерном евклидовом пространстве Y.

На основе исходных данных (1)–(3) требуется построить изображения

E<n>i= (ei1, ei2,…,eij,…,ein)т, i = ,

которые наилучшим образом (например, в смысле достоверности распознавания текущего технического состояния) отражают свойства соответствующих видов технического состояния Yi, i =.

3

Как уже отмечалось, обучающая выборка (3), в общем случае является неоднородной и ограниченной по объёму. Именно по этой причине для построения изображений и применяется метод стохастической аппроксимации. На математическом уровне указанный метод сводится к схеме итеративного градиентного поиска [8].

Существо данной схемы применительно к рассматриваемой проблеме.

1). Для каждого области Yi ищется аппроксимация разделяющей гиперповерхности hi в n-мерном евклидовом пространстве Y.

2). Поскольку неизвестное (пока) изображение E<n>i является опорной точкой подмножества Yi и может считаться постоянным, hi допустимо трактовать как непрерывную функцию:

hi = hi(Y<n>), hi C(Y), (4)

где C(Y) –пространство непрерывных функций, заданных на Y.

В дальнейшем (4) называется разделяющей функцией.

3). Разделяющая функция обеспечивает максимальную точность при распознавании текущих технических состояний, но является неизвестной. Поэтому следует выбрать аппроксимирующую функцию

h(E<n>i,Y<n>),

с помощью которой ищется наилучшее приближение к разделяющей функции.

4). Мера отклонения аппроксимирующей функции от аппроксимируемой определяется как математическое ожидание случайной выпуклой функции от разности hi – h(Ei,Y):

L(Ei) = M[(hi – h(Ei,Y))]. (5)

5). Наилучшая аппроксимация соответствует получению такого вектора

Ei,

при котором достигается минимум функционала (5):

, (6)

где Rn – n-мерное вещественное пространство.

6). Плотность распределения случайной функции неизвестна, поэтому неизвестно и её математическое ожидание. По этой причине функционал (5) не может быть задан в явном виде. Единственная возможность определения искомого вектора состоит в том, чтобы воспользоваться отдельными реализациями данного функционала, полученными в процессе использования обучающих образов Y из выборки (3).

7). В алгоритмическом аспекте процесс обучения значительно упрощается, если применять разложение аппроксимирующей функции по ортогональному или ортонормированному базису

G(Y) = {gj(Y)| j = }, gj(Y)C(Y)

в соответствии с выражением

. (7)

Ортогональный базис – полная ортогональная система элементов пространства C(Y).

Система ненулевых элементов пространства C(Y) ортогональна, если их попарные скалярные произведения равны нулю:

= 0,

gj(Y)0, gk(Y)0, j = , k = , j k.

Ортогональная система в пространстве C(Y) полна, если всевозможные линейные комбинации элементов системы порождают это же пространство:

{a1g1(Y) + a2g2(Y)+…+ angn(Y)} = C(Y), ajR. 

Ортонормированный базис – это полная ортогональная система, в котором норма каждого элемента равна 1:

.

Далее базис G(Y) называется G -преобразованием вектора Y.

С учётом выражения (7) функционал (5) принимает вид

. (8)

В качестве меры отклонения аппроксимирующей функции от аппроксимируемой целесообразно выбрать квадратичную меру

. (9)

8). В работе [9] показано, что при выполнении условий (7) и (9) минимизация функционала (8) обеспечивается посредством применения в процессе обучения алгоритма Роббинса-Монро. Данный алгоритм применительно к рассматриваемой задаче представляется в виде рекуррентного соотношения

, (10)

где ak, (k =1,2,…) – элемент последовательности положительных чисел, удовлетворяющий условиям

.

Наиболее простым примером такой последовательности является гармонический ряд

{1/k}={1, 1/2, 1/3,…}. (11)

С учётом (11) рекуррентное соотношение (10) принимает вид

, (12)

а для каждой координаты eij вектора Ei соотношение представляется как

. (13)

В качестве вектора начального приближения принимается после G-преобразования один из элементов Y<n>i, принадлежность которого i-му виду ТС известна:

Ei(0)= G(Yi(0)). (14)

По мере увеличения числа шагов изображение Ei стремится к своему оптимальному значению с вероятностью единица:

.

Каждый из векторов может трактоваться и как точка в n-мерном евклидовом пространстве Y, и как набор весовых коэффициентов уравнения гиперплоскости, отделяющей данную область Yi от других областей в пространстве Y. Очевидно, что каждая координата eij (i = , j = ) показывает степень сходства наблюдаемых состояний i-го вида ТС по j-му контролируемому признаку.

9). При реализации процесса обучения на основе рекуррентного соотношения (12) фактически решается градиентное уравнение

, (14)

где , j = ;

– частная производная по координате eij.

Уравнение (14) решается методом последовательных приближений. На каждом шаге используются данные из обучающей выборки (3). Корень уравнения и даёт оптимальное значение вектора Ei =.

Изложенный процесс построения изображений является «сжатием» подмножеств наблюдаемых состояний, соответствующих видам ТС объекта. Иначе, это один из возможных вариантов реализации принципа сжимающих отображений. Данный принцип широко применяется в теории распознавания образов в самых различных вариациях.

Процедуры обучения в моделях контроля и технического диагностирования на основе методов непараметрической статистики