Если построить оптимальную разделяющую границу между образами i и j, то можно обнаружить, что эта граница попутно разделяет и другие некоторые пары образов с ошибкой R, не превышающей допустимого значения. Так, решающая граница (см. рис. 1), построенная для разделения образов 2 и 5, может использоваться так же для разделения образов 1 и 4 от образов 3 и 6.
Процесс
нужно начинать с разделения двух наиболее
трудно разделяемых образов. Отмечаются все
пары образов, успешно разделяемые построенной
границей. Эти пары из списков пар исключаются. Среди
пар, оставшихся не разделенными, снова выбирается пара
самых трудно разделяемых, для которой строится
следующая разделяющая граница. Такие шаги
повторяются до полного исчерпания списка неразделенных
пар.
Метод покоординатного вычеркивания [2,3]. Представим себе,
что мы считаем допустимыми потери типа "пропуск
цели" равными R0. Такие потери могут возникать
тогда, когда разделяющая граница проходит на расстоянии
d между контрольной точкой q и математическим ожиданием *i образа
i. Если контрольная точка q удалена
от матожидания i-го образа на расстояние,
большее d, то можно считать, что она не принадлежит
образу i.
Метод "ДРобящихся ЭТалонов" (алгоритм ДРЭТ). Этот метод
отражает стремление к безошибочному распознаванию обучающей выборки,
но с использованием покрытий обучающей выборки
каждого образа простыми фигурами, усложняющимися
по мере необходимости [3,4].
Рис. 2. Если два
образа пересекаются, но в области пересечения
не оказалось ни одной реализации обучающей выборки, такое пересечение
считается фиктивным, центры и радиусы этих сфер так же вносятся
в список эталонов первого поколения. При этом область
пересечения считается принадлежащей сфере с меньшим радиусом (сфере
2 на рис. 2).
Таксономические решающие функции (алгоритм ТРФ) [3,4]. Обычно
на этапе обучения строится решающее правило, параметры
которого определяются и жестко
фиксируются по информации, содержащейся в обучающей
выборке. Какие бы контрольные реализации не предъявлялись потом для распознавания
решающее правило не меняется. Но возможен
и другой подход: решающее правило
строить непосредственно в процессе распознавания, опираясь
на информацию, содержащуюся как в обучающей, так и в контрольной
выборке.
Рис. 3. Если же
обучающую и контрольную выборку рассматривать совместно, то можно
построить решающую границу в виде линии
b, которая обучающую выборку распознает также хорошо, как и линия
a, но снижает количество ошибок на
контрольной выборке. Такое решение
получается, если применить критерии таксономии:
большие расстояния между таксонами и малые расстояния внутри таксонов.
Это и положено в основу принятия решений методом таксономических решающих
функций.
Алгоритм DW [5]. Этот алгоритм
относится к классу "Логических Решающих Правил" [6]. В его основе
лежит гипотеза "проективной компактности". Рассмотрим
его работу на примере распознавания двух образов.
Работа по проверке истинности или ложности выражений S по отношению к объекту q организуется с помощью таблицы T(i,j). Вершине дерева с номером i (т.е. высказыванию J) сопоставляется i-я строка таблицы, в которой описываются характеристики j этой вершины: Т(i,1) - номер строки, занимаемый данной вершиной, Т(i,2) - номер строки, куда следует переходить, если J истинно, Т(i,3) - номер строки, куда следует переходить, если J ложно, Т(i,4) - номер признака, на котором построено высказывание J, Т(i,5) - порог x, использованный при построении высказывания J, Т(i,6) - количество объектов первого образа в i-той вершине, Т(i,7) - количество объектов второго образа в i-той вершине. Конечные вершины дерева будут помечены тем, что у них T(i,4)=0. Движение по дереву с помощью таблицы T(i,j) осуществляется следующим образом. Пусть мы находимся в вершине i. Если T(i,4)=/0, то проверяем удовлетворяет ли объект q условиям высказывания J, отраженным в T(i,4) и T(i,5). Если да, то идем в вершину T(i,2), если нет - в вершину T(i,3). Если очередная вершина является конечной, то проверяется содержимое ее элементов T(i,6) и T(i,7). Если окажется, что T(i,6)>T(i,7), то объект q будет распознан в качестве реализации первого образа и наоборот. Если же T(i,6) = T(i,7), то решение принимается в пользу того или иного образа с вероятностью 0,5. При выборе вариантов пороговых значений x и их сочетаний возникает большой перебор, сокращение которого основано на методе наращивания "лучшего к лучшему". На первом шаге строится наилучшее в смысле некоторого критерия G элементарное высказывание J(11) и его дополнение J(12) = J(11-). С помощью этих высказываний обучающая выборка делится на две группы: группу объектов U(11), удовлетворяющих J(11), и группу U(12), удовлетворяющих J(12). Если группа U(11) содержит объекты разных образов, то для нее ищется высказывание J(21) и его дополнение J(22), наилучшие с точки зрения критерия G. Та же процедура для группы U(12) дает наилучшее высказывание J(23) и его дополнение J(24). В результате обучающая выборка делится на четыре группы. Процесс такого деления можно представить в виде дерева D, представленного на рис. 4.
/-----J(21)--[70i,3j]
Рис. 4.
Вопрос о том, нужно ли дальше продолжать процесс наращивания ветвей, решается
проверкой содержимого каждой из полученных групп. Если
в группе U обнаружится h1 объектов 1-го образа и h2 объектов
второго образа и min(h1,h2) >= f*m, где f - положительная константа, меньшая
единицы, а m - общее число объектов обучающей выборки, то
деление группы U на подгруппы должно быть продолжено. В
противном случае группа U образует конечную вершину и новый объект,
попадающий в нее, относится к тому образу, чьих обучающих реализаций
больше в этой вершине.
1.Загоруйко Н.Г. Линейные решающие функции, близкие к оптимальным. В сб. тр. ИМ СО АН СССР "Вычислительные системы", вып.19, Новосибирск,1965. 2.Загоруйко Н.Г. Комбинированный метод принятия решений. В сб. тр. ИМ СО АН СССР "Вычислительные системы", вып.24, Новосибирск, 1966. 3. Загоруйко Н.Г. Методы распознавание и их применение. Изд. ╚Сов. Радио╩, М., 1972. 4. Загоруйко Н.Г., Елкина В.Н., Емельянов С.В., Лбов Г.С. Пакет прикладных программ ОТЭКС. М.: Финансы и Статистика, 1986. - 160 с. 5. Манохин А. Н. Методы распознавания образов, основанные на логических решающих функциях. -В кн.: Эмпирическое предсказание и распознавание образов.(Вычислительные системы, вып. 67) Новосибирск, 1976, с. 42-53. 6. Лбов Г.С. Методы обработки разнотипных экспериментальных данных. Изд. "Наука" Сибирское отделение, Новосибирск, 1981. |