Модифицированный алгоритм Роббинса-Монро
PAGE 1
Лекция 8
Модифицированный алгоритм Роббинса-Монро
1. Модификация алгоритма Роббинса-Монро для условий, когда известны диапазоны изменения контролируемых признаков только для работоспособного состояния объекта
2. Группировка обучающих образов и ранжирование групп
1
Множественная определенность априорной информации об объекте охватывает случай, когда известны диапазоны изменения контролируемых признаков только для работоспособного состояния:
j = [], j = . (1)
В реальных ситуациях этот случай имеет место, когда:
- системы еще только находятся в стадии разработки. К моменту ввода их в эксплуатацию необходимо, чтобы средства контроля и диагностирования были готовы к применению;
- системы уже эксплуатируются, но в единичных экземплярах и непродолжительное время.
В этих ситуациях объем и качество априорной информации о системе могут оказаться недостаточными даже для приближенной оценки диапазонов изменения контролируемых признаков при различных отказах. В этом случае наиболее конструктивным является подход, основанный на информации о фактах выхода значений контролируемых признаков за допустимые интервалы (1).
При реализации такого подхода целесообразно использовать бинарные значения контролируемых признаков, которые определяются выражением
. (2)
В качестве базисных функций gj(Y), которые используются в рекуррентном соотношении, реализующем алгоритм Роббинса-Монро, могут быть приняты функции
gr(Y) = sjrj, r, j = , (3)
где - дельта-функция (символ Кронекера).
Вектор-функция
G(Y) = {gr(Y)|r},
с координатами вида (3) образует ортонормированный базис в пространстве C(Y).
Из выражения (3) следует, что r-я базисная функция при r = j определяется как
gj(Y) = sj. (4)
Выражение (4) получается следующим образом: произвольное наблюдаемое состояние
Y<n> = (y1, y2,…, yn)т
после преобразования j й базисной функцией имеет вид
gj(Y)= (0, 0,…, 0, sj, 0…,0)т. (5)
Выражение (4) и есть краткая форма записи выражения (5).
Таким образом, G(Y) представляет собой вектор значений КП в бинарной форме
G(Y) = (s1, s2,…, sn)т = S. (6)
Произвольное наблюдаемое состояние, принадлежащее i-му виду технического состояния, преобразуется аналогично:
G(Yi)= (si1, si2,…, sin)т = Si. (7)
Обучающую выборку ((3), лекция 6), на основе которой формируются изображения, можно представить следующим образом:
C(Y1);
C(Y2); (8) ................................
C(Ym).
Аппроксимирующая функция ((7) лекция 6) записывается в форме
. (9)
Рекуррентное соотношение для реализации процесса обучения принимает вид
. (10)
Изображения, полученные в результате обучения, представляются как векторы нормализованных признаков
Ei = (ei1, ei2,…, ein)т, eij [-1, 1]. (11)
Формирование координат eij в нормализованном виде позволяет выявлять их физический смысл. Положительное значение eij указывает на то, что в обучающей выборке преобладают такие наблюдаемые состояния, при которых значения j-го КП не выходят за допустимый интервал (1), и наоборот в случае отрицательного значения.
В математическом смысле такое представление признаков eij эквивалентно преобразованию n-мерного открытого и неограниченного пространства наблюдаемых состояний в замкнутое и ограниченное пространство той же размерности. Каждая координата этого пространства представляет собой отрезок [-1, 1] на вещественной оси.
Всякий нормализованный признак eij можно рассматривать как обобщенный символ sij{-1, 1}, взятый со своим весом
zij = | eij|, (12)
т.е. его можно рассматривать в виде произведения
eij = sijzij. (13)
Обобщенный символ sij выполняет роль индикатора допуска j, установленного для j-го КП в работоспособном состоянии объекта. Весовое значение zij рассматривается как вероятностная оценка принадлежности (или непринадлежности) значения j-го КП допустимому интервалу (1).
Например, eij = 0,78. Это означает, что j-й контролируемый признак выходит за допустимый интервал (1) в i-м виде технического состояния объекта с вероятностью 0,78.
По результатам обучения формируется множество изображений всех заданных видов технического состояния. Данные изображения являются одним из основных компонентов диагностической модели. Все множество изображений представимо в виде матрицы
E[m;n] =. (14)
С учетом выражения (13) матрица изображений (14) может быть представлена двумя матрицами: матрицей индикаторов
S[m;n] = (15)
и матрицей весовых коэффициентов
Z[m;n] =. (16)
Матрица (15) используется при разработке алгоритмов последовательного диагностирования.
Пример.
Исходные данные
1) Пусть на объекте производятся измерения 6ти контролируемых признаков:
Y<6> = (y1, y2, y3, y4, y5, y6)т.
3) Сформирована обучающая выборка вида (8) для i-го вида технического состояния:
, , , ,
, , , ,
, , .
Требуется
Построить изображение Ei.
Построение изображения на основе рекуррентного соотношения (10) и обучающей выборки.
Принимаем Ei(0) = Si(0).
;
;
;
;
;
;
;
;
;
.
2
Скорость сходимости процесса обучения к оптимальному вектору в значительной степени определяется порядком использования обучающих образов.
С целью определения очередности использования обучающих образов необходимо рассмотреть процедуру их группировки и ранжирования полученных групп.
Пусть
Yi
подмножество обучающих образов, принадлежность которых i-му виду технического состояния известна.
В данном подмножестве выделяется группа , которая включает наибольшее количество неразличимых между собой элементов. Один из этих элементов после G-преобразования принимается в качестве вектора начального приближения: . Элементы считаются неразличимыми, если их одноимённые координаты отличаются друг от друга на величины, сопоставимые с погрешностями регистрации в контрольных точках объекта.
Во вторую группу входит не больше неразличимых элементов, чем в первую, и не меньше, чем в остальные.
В третьей группе количество неразличимых между собой элементов не больше, чем во второй, и не меньше, чем в остальных. Аналогичным образом формируются все остальные группы.
Пусть J - индексное множество обучающих образов, принадлежащих i-му виду технического состояния:
, где мощность множества J.
Тогда результаты группировки обучающих образов и ранжирования полученных групп можно представить следующим образом:
(17)
…………………………………………
Порядок использования групп в ходе обучения совпадает с их номером (рангом), а последовательность применения обучающих образов в рамках одной и той же группы произвольна. Указанные действия выполняются для каждого подмножества Yi из обучающей выборки.
Изложенный способ группировки и ранжирования означает задание на множествах Yi () отношений эквивалентности i, которые обеспечивают объединение в рамках одной группы неразличимых (эквивалентных) между собой элементов, а затем ранжирование групп по убыванию количества содержащихся в них образов. В результате из обучающей выборки по каждому виду технического состояния формируется упорядоченное фактор-множество
, ,
элементы которого удовлетворяют соотношениям (17).
Обучение с группировкой и ранжированием обеспечивает максимальное влияние на формирование изображений тех образов, которые наиболее характерны для соответствующих видов ТС объекта. Данное утверждение объясняется тем, что коэффициент 1/k в рекуррентном соотношении на предыдущем шаге обучения больше, чем на последующем. Поэтому каждый предыдущий образ более значим, чем последующий.
Модифицированный алгоритм Роббинса-Монро