Модифицированный алгоритм Роббинса-Монро

PAGE 1

Лекция 8

Модифицированный алгоритм Роббинса-Монро

1. Модификация алгоритма Роббинса-Монро для условий, когда известны диапазоны изменения контролируемых признаков только для работоспособного состояния объекта

2. Группировка обучающих образов и ранжирование групп

1

Множественная определенность априорной информации об объекте охватывает случай, когда известны диапазоны изменения контролируемых признаков только для работоспособного состояния:

j = [], j = . (1)

В реальных ситуациях этот случай имеет место, когда:

- системы еще только находятся в стадии разработки. К моменту ввода их в эксплуатацию необходимо, чтобы средства контроля и диагностирования были готовы к применению;

- системы уже эксплуатируются, но в единичных экземплярах и непродолжительное время.

В этих ситуациях объем и качество априорной информации о системе могут оказаться недостаточными даже для приближенной оценки диапазонов изменения контролируемых признаков при различных отказах. В этом случае наиболее конструктивным является подход, основанный на информации о фактах выхода значений контролируемых признаков за допустимые интервалы (1).

При реализации такого подхода целесообразно использовать бинарные значения контролируемых признаков, которые определяются выражением

. (2)

В качестве базисных функций gj(Y), которые используются в рекуррентном соотношении, реализующем алгоритм Роббинса-Монро, могут быть приняты функции

gr(Y) = sjrj, r, j = , (3)

где - дельта-функция (символ Кронекера).

Вектор-функция

G(Y) = {gr(Y)|r},

с координатами вида (3) образует ортонормированный базис в пространстве C(Y).

Из выражения (3) следует, что r-я базисная функция при r = j определяется как

gj(Y) = sj. (4)

Выражение (4) получается следующим образом: произвольное наблюдаемое состояние

Y<n> = (y1, y2,…, yn)т

после преобразования j –й базисной функцией имеет вид

gj(Y)= (0, 0,…, 0, sj, 0…,0)т. (5)

Выражение (4) и есть краткая форма записи выражения (5).

Таким образом, G(Y) представляет собой вектор значений КП в бинарной форме

G(Y) = (s1, s2,…, sn)т = S. (6)

Произвольное наблюдаемое состояние, принадлежащее i-му виду технического состояния, преобразуется аналогично:

G(Yi)= (si1, si2,…, sin)т = Si. (7)

Обучающую выборку ((3), лекция 6), на основе которой формируются изображения, можно представить следующим образом:

C(Y1);

C(Y2); (8) ................................

C(Ym).

Аппроксимирующая функция ((7) лекция 6) записывается в форме

. (9)

Рекуррентное соотношение для реализации процесса обучения принимает вид

. (10)

Изображения, полученные в результате обучения, представляются как векторы нормализованных признаков

Ei = (ei1, ei2,…, ein)т, eij [-1, 1]. (11)

Формирование координат eij в нормализованном виде позволяет выявлять их физический смысл. Положительное значение eij указывает на то, что в обучающей выборке преобладают такие наблюдаемые состояния, при которых значения j-го КП не выходят за допустимый интервал (1), и наоборот в случае отрицательного значения.

В математическом смысле такое представление признаков eij эквивалентно преобразованию n-мерного открытого и неограниченного пространства наблюдаемых состояний в замкнутое и ограниченное пространство той же размерности. Каждая координата этого пространства представляет собой отрезок [-1, 1] на вещественной оси.

Всякий нормализованный признак eij можно рассматривать как обобщенный символ sij{-1, 1}, взятый со своим весом

zij = | eij|, (12)

т.е. его можно рассматривать в виде произведения

eij = sijzij. (13)

Обобщенный символ sij выполняет роль индикатора допуска j, установленного для j-го КП в работоспособном состоянии объекта. Весовое значение zij рассматривается как вероятностная оценка принадлежности (или непринадлежности) значения j-го КП допустимому интервалу (1).

Например, eij = –0,78. Это означает, что j-й контролируемый признак выходит за допустимый интервал (1) в i-м виде технического состояния объекта с вероятностью 0,78.

По результатам обучения формируется множество изображений всех заданных видов технического состояния. Данные изображения являются одним из основных компонентов диагностической модели. Все множество изображений представимо в виде матрицы

E[m;n] =. (14)

С учетом выражения (13) матрица изображений (14) может быть представлена двумя матрицами: матрицей индикаторов

S[m;n] = (15)

и матрицей весовых коэффициентов

Z[m;n] =. (16)

Матрица (15) используется при разработке алгоритмов последовательного диагностирования.

Пример.

Исходные данные

1) Пусть на объекте производятся измерения 6ти контролируемых признаков:

Y<6> = (y1, y2, y3, y4, y5, y6)т.

3) Сформирована обучающая выборка вида (8) для i-го вида технического состояния:

, , , ,

, , , ,

, , .

Требуется

Построить изображение Ei.

Построение изображения на основе рекуррентного соотношения (10) и обучающей выборки.

Принимаем Ei(0) = Si(0).

;

;

;

;

;

;

;

;

;

.

2

Скорость сходимости процесса обучения к оптимальному вектору в значительной степени определяется порядком использования обучающих образов.

С целью определения очередности использования обучающих образов необходимо рассмотреть процедуру их группировки и ранжирования полученных групп.

Пусть

Yi

подмножество обучающих образов, принадлежность которых i-му виду технического состояния известна.

В данном подмножестве выделяется группа , которая включает наибольшее количество неразличимых между собой элементов. Один из этих элементов после G-преобразования принимается в качестве вектора начального приближения: . Элементы считаются неразличимыми, если их одноимённые координаты отличаются друг от друга на величины, сопоставимые с погрешностями регистрации в контрольных точках объекта.

Во вторую группу входит не больше неразличимых элементов, чем в первую, и не меньше, чем в остальные.

В третьей группе количество неразличимых между собой элементов не больше, чем во второй, и не меньше, чем в остальных. Аналогичным образом формируются все остальные группы.

Пусть J - индексное множество обучающих образов, принадлежащих i-му виду технического состояния:

, где  – мощность множества J.

Тогда результаты группировки обучающих образов и ранжирования полученных групп можно представить следующим образом:

(17)

…………………………………………

Порядок использования групп в ходе обучения совпадает с их номером (рангом), а последовательность применения обучающих образов в рамках одной и той же группы произвольна. Указанные действия выполняются для каждого подмножества Yi из обучающей выборки.

Изложенный способ группировки и ранжирования означает задание на множествах Yi () отношений эквивалентности i, которые обеспечивают объединение в рамках одной группы неразличимых (эквивалентных) между собой элементов, а затем ранжирование групп по убыванию количества содержащихся в них образов. В результате из обучающей выборки по каждому виду технического состояния формируется упорядоченное фактор-множество

, ,

элементы которого удовлетворяют соотношениям (17).

Обучение с группировкой и ранжированием обеспечивает максимальное влияние на формирование изображений тех образов, которые наиболее характерны для соответствующих видов ТС объекта. Данное утверждение объясняется тем, что коэффициент 1/k в рекуррентном соотношении на предыдущем шаге обучения больше, чем на последующем. Поэтому каждый предыдущий образ более значим, чем последующий.

Модифицированный алгоритм Роббинса-Монро