Метод попутного разделения (МПР)[1,2].

   Если построить  оптимальную разделяющую границу между образами i и j, то можно  обнаружить,  что эта граница попутно разделяет и  другие  некоторые  пары  образов  с ошибкой  R,  не  превышающей  допустимого  значения.  Так,  решающая граница (см. рис. 1), построенная для разделения образов 2 и 5, может использоваться так же для разделения образов 1 и 4 от образов 3 и 6. 


Рис. 1. 

    Процесс  нужно  начинать  с  разделения  двух  наиболее   трудно разделяемых  образов.   Отмечаются   все   пары   образов,   успешно разделяемые   построенной   границей. Эти пары из списков пар исключаются.   Среди    пар,    оставшихся не разделенными, снова выбирается пара самых трудно разделяемых,  для которой  строится   следующая   разделяющая   граница.  Такие шаги повторяются до полного  исчерпания  списка  неразделенных пар. 
    При удачном расположении  образов  число  h  разделяющих  границ может  оказаться  значительно  меньшим,  чем  число   распознаваемых образов. Для каждой  границы  фиксируется  список  тех  k1  образов, которые находятся по одну сторону от нее и тех k2  образов,  которые находятся по другую сторону. Будем характеризовать "информативность" границы величиной
I=(1- |k1-k2|/k), которая  принимает  значения  в диапазоне от 0 до 1 и равна 1, если граница делит множество  образов на две равные части. 
    Процесс распознавания с помощью  построенных  границ  состоит  в следующем. Начиная с самой информативной  границы  определяется,  по какую сторону от нее находится контрольная точка q  и  вычеркиваются из списка претендентов все  образы,  находящиеся  с  противоположной стороны от границы. С помощью следующей по  информативности  границы список оставшихся претендентов сокращается снова.  Так  продолжается до тех пор, пока в списке не останется один  единственный  образ,  к которому и относится распознаваемая точка q. 

Метод покоординатного вычеркивания [2,3].

   Представим себе, что мы считаем  допустимыми  потери  типа  "пропуск  цели"  равными  R0. Такие  потери  могут  возникать  тогда,  когда  разделяющая  граница проходит на расстоянии d между контрольной точкой q и математическим ожиданием *i  образа  i.  Если  контрольная  точка  q удалена   от матожидания  i-го  образа  на  расстояние,  большее  d,   то   можно считать, что она не принадлежит образу i. 
    Свой  вклад  в   это   расстояние   вносит   каждая   координата пространства признаков и, если  хотя  бы  по  одной  l-й  координате расстояние r(ql,*il) будет для образа i равно или больше d, то i-тый образ из списка конкурентов можно вычеркнуть. 
    На этом соображении основан метод покоординатного  вычеркивания, который состоит в следующем.  Рассматриваются  проекции  точки  q  и распределений всех  образов  на  каждую  координату  в  отдельности. По первой (l-той) координате определяются расстояния r между  точкой ql и математическими ожиданиями  *il всех k образов. Те  образы,  для которых выполняется условие r(ql, *il) >= d, из  списка  претендентов на включение точки q  в  свой  состав  исключаются.  Для  оставшихся образов та же процедура повторяется с  использованием  проекции   на вторую координату и это продолжается до  тех  пор,  пока  в  списке претендентов не останется заданное число k1 образов. Для этих  самых сильных претендентов вычисление расстояний и оценка ожидаемых потерь делается  в  исходном   n-мерном   пространстве   с   использованием оптимальных решающих правил. 

Метод "ДРобящихся ЭТалонов" (алгоритм ДРЭТ).

    Этот метод  отражает стремление к  безошибочному распознаванию обучающей выборки, но  с  использованием покрытий  обучающей  выборки  каждого  образа   простыми   фигурами, усложняющимися по мере необходимости [3,4]. 
    Один из вариантов этого метода предусматривает  использование  в качестве покрывающих  фигур  набора  гиперсфер.  Для  каждого  из  k образов строится сфера минимального  радиуса,  покрывающая  все  его обучающие реализации. Значения радиусов этих сфер и расстояний между их  центрами  позволяет  определить   образы,   сферы   которых   не пересекаются  со  сферами  других  образов.  Такие  сферы  считается эталонными (см.  образ  1  на  рис.  2),  а  их  центры  и  радиусы запоминаются в качестве "эталонов первого  поколения".

Рис. 2.

    Если два  образа  пересекаются,  но  в  области  пересечения  не оказалось ни одной реализации обучающей выборки,  такое  пересечение считается фиктивным, центры и радиусы этих сфер так  же  вносятся  в список эталонов первого  поколения.  При  этом  область  пересечения считается принадлежащей сфере с меньшим радиусом  (сфере  2  на  рис. 2). 
    Если в зоне пересечения оказались точки только одного образа, то эта зона считается принадлежащей этому образу (сфере 3 на  рис. 2). Точка будет считаться относящейся к образу 4, если  она  попадает  в сферу 4 и не попадает в сферу 3. 
    Если же область пересечения содержит точки  разных  образов,  то для этих точек строятся "эталоны второго поколения" (сферы 4,5 и 6). Если и они пересекаются, то для точек из зоны  пересечения  строятся "эталоны   третьего   поколения".   Процедура   дробления   эталонов продолжается  до   получения   заданной   надежности   распознавания обучающей последовательности. 
     Опыт показал, что даже в  очень  сложных  случаях  для  хорошего распознавания обучающей выборки бывает достаточно в среднем не более трех поколений эталонов. 
    При распознавании новых реализаций процесс проверки попадания  в ту или иную эталонную сферу начинается со сфер наименьшего диаметра. 

 Таксономические решающие функции (алгоритм ТРФ) [3,4]. 

    Обычно на этапе обучения строится  решающее  правило,  параметры которого  определяются   и   жестко   фиксируются   по   информации, содержащейся в обучающей выборке. Какие бы контрольные реализации не предъявлялись потом для распознавания решающее правило не меняется.     Но  возможен  и  другой   подход:   решающее   правило   строить непосредственно в процессе распознавания,  опираясь  на  информацию, содержащуюся как в обучающей, так и в контрольной выборке. 
    На рис. 3. объекты обучающей  выборки  двух  образов  обозначены кружечками и крестиками, а реализации контрольной выборки  обозначены точками.  Если  аппроксимировать  сгустки  точек  обучающей   выборки унимодальными   распределениями,   то   решающая    граница    будет представлять собой линию a. Такое решающее правило,  построенное  по непредставительной выборке,  даст  много  ошибок  при  распознавании контрольной выборки. 

Рис. 3.

    Если же обучающую и контрольную выборку рассматривать совместно, то  можно  построить  решающую  границу  в  виде  линии  b,  которая обучающую выборку распознает также хорошо, как и линия a, но снижает количество   ошибок   на   контрольной   выборке.   Такое    решение получается, если применить критерии  таксономии: большие  расстояния между таксонами и малые расстояния внутри таксонов. Это и положено в основу принятия решений методом таксономических решающих функций. 
    Смесь обучающих и контрольных объектов  подвергаются  таксономии на k таксонов с помощью алгоритмов  типа  FOREL  или  KRAB.  Если  в некотором таксоне есть точки обучающей выборки  только  одного  i-го образа, то все контрольные точки, попавшие в этот  таксон,  относятся также к образу i. Если в таксоне есть точки из k' разных образов, то такой таксон разбивается на k' более мелких таксонов. Эта  процедура продолжается до тех пор, пока в каждом таксоне не окажутся обучающие точки только одного образа.  Контрольные  точки,  попавшие  в  таксон,  не содержащий обучающих точек, считаются принадлежащими новому , (k+1)-му образу. При  желании  их  можно  отнести  к  одному  из  k  образов, присоединение к которому даст наибольшее значение критерия  качества таксономии. 
    Описанный алгоритм позволяет использовать не  только  информацию из обучающей выборки,  но  и  из  контрольной.  Этим  обеспечивается более  высокая   устойчивость   алгоритма   ТРФ   к   такому   часто встречающемуся   неприятному   явлению,   как   непредставительность обучающей выборки. 

Алгоритм DW [5].

    Этот алгоритм относится к классу "Логических Решающих Правил" [6]. В  его основе лежит  гипотеза   "проективной компактности". Рассмотрим его работу на примере  распознавания  двух образов. 
    Элементарным логическим  высказыванием  J  в  этом   алгоритме   называется выражение следующего вида: 
  а)X(a)=x для признака X, измеренного в номинальной шкале. 
  б)X(a)<=x для признака в любой более сильной шкале. 
В этих выражениях x - фиксированное  ("пороговое")  значение.  Будем называть   высказывания   X(a)=/x   и   X(a)>x   дополнительными   к вышеприведенным и  обозначать  через  J-.  Конъюнкцией  длины  l  на элементарных высказываниях будем называть выражение вида 

S = J(1) & J(2) & ...&J(l).
    Набор   конъюнкций   будем   представлять    в    виде дихотомического дерева D, в котором каждой ветви соответствует  одна конъюнкция.  Конечные  вершины  дерева   содержат   имена   объектов обучающей выборки, прошедших сюда от начальной вершины дерева.  Если в некоторой конечной вершине  имеются  объекты  разных  образов,  то считается, что эта вершина принадлежит тому образу, чьих объектов  в ней больше. 
    Работа по  проверке  истинности  или  ложности  выражений  S  по отношению к объекту q организуется с помощью таблицы T(i,j). Вершине дерева с номером i (т.е. высказыванию J) сопоставляется  i-я  строка таблицы, в которой описываются характеристики j этой вершины: 
Т(i,1) - номер строки, занимаемый данной вершиной, 
Т(i,2) - номер строки, куда следует переходить, если J истинно, 
Т(i,3) - номер строки, куда следует переходить, если J ложно, 
Т(i,4) - номер признака, на котором построено высказывание J, 
Т(i,5) - порог x, использованный при построении высказывания J, 
Т(i,6) - количество объектов первого образа в i-той вершине, 
Т(i,7) - количество объектов второго образа в i-той вершине. 
    Конечные вершины дерева будут помечены тем, что у них  T(i,4)=0. 
    Движение по  дереву  с  помощью  таблицы  T(i,j)  осуществляется следующим образом. Пусть мы находимся в вершине i.  Если  T(i,4)=/0, то  проверяем  удовлетворяет  ли  объект  q  условиям   высказывания J, отраженным в T(i,4) и T(i,5). Если да, то идем в вершину  T(i,2), если нет  -  в  вершину  T(i,3).  Если  очередная  вершина  является конечной, то проверяется содержимое ее элементов  T(i,6)  и  T(i,7). Если окажется, что T(i,6)>T(i,7), то  объект  q  будет  распознан  в качестве реализации первого образа и  наоборот.  Если  же  T(i,6)  = T(i,7), то решение принимается в пользу  того  или  иного  образа  с вероятностью 0,5. 
    При  выборе  вариантов  пороговых  значений x  и  их  сочетаний возникает большой перебор, сокращение которого  основано  на  методе наращивания "лучшего к лучшему". На первом шаге строится наилучшее в смысле некоторого критерия G элементарное  высказывание  J(11)  и  его дополнение J(12) = J(11-). С помощью этих высказываний обучающая выборка делится на две группы: группу объектов U(11), удовлетворяющих  J(11),  и группу U(12), удовлетворяющих J(12).  Если  группа U(11) содержит  объекты разных  образов,  то  для  нее  ищется  высказывание   J(21)   и   его дополнение  J(22),  наилучшие  с  точки  зрения  критерия  G.  Та   же процедура для группы U(12)  дает  наилучшее  высказывание  J(23)  и  его дополнение J(24). В результате обучающая  выборка  делится на  четыре группы. Процесс такого деления можно представить в  виде  дерева  D, представленного на рис. 4.

                                                        /-----J(21)--[70i,3j] 
                                                      /
                                            /----- J(11)---[70i,20j] 
                                          /          \
                                        /              \-----J(22)--[0i,17j]
                                      /
                        D  -----J(1)--[100i,100j] 
                                     \
                                       \               /-----J(23)--[20i,75j]
                                         \           / 
                                           \-----J(12)--[30i,80j]
                                                     \ 
                                                       \-----J(24)--[10i,5j]

                                                           Рис. 4.

     Вопрос о том, нужно ли дальше продолжать процесс наращивания ветвей, решается проверкой содержимого каждой из полученных  групп.  Если  в группе U обнаружится h1 объектов 1-го образа и  h2  объектов второго образа и min(h1,h2) >= f*m, где f - положительная константа, меньшая единицы, а m - общее число объектов обучающей  выборки,  то  деление группы U на подгруппы должно быть  продолжено.  В  противном  случае группа U образует конечную вершину и новый объект, попадающий в нее, относится к тому образу, чьих обучающих  реализаций  больше  в  этой вершине. 
     Если  принять  f=0,03,  то  при m=200 дальнейшее деление требуется делать   только для  вершины J(23). 
    Логические  решающие   правила   оказались   очень   эффективным средством  решения  задач  распознавания.  Они  могут   работать   с разнотипными признаками. Не страшно, если какой-то признак у  нового объекта не известен: может оказаться,  что  имеющимся  признакам  он удовлетворяет определенным закономерностям и хорошо распознается. 
    Процесс построения ЛРП долог, но  процесс  принятия  решений  по найденным правилам очень прост и может делаться даже вручную. 
    Большое значение имеет наглядная и легко интерпретируемая  форма представления ЛРП в виде списка правил типа "Если..., то  ...".  Как показал опыт, некоторые  заказчики,  получив  решение  в  виде  ЛРП, признаются, что оно само по себе им более интересно и  полезно,  чем возможность  использовать его  для  автоматического  распознавания новых   объектов:   им   становятся   видны   и   понятны    простые закономерности, которые имеют место в изучаемой ими области. 
    Наконец,  самое  важное  достоинство  ЛРП  состоит  в  том,  что формулировка закономерностей в виде конъюнкций  соответствует  форме представления знаний  в  интеллектуальных  системах.  Следовательно, методы поиска ЛРП могут использоваться для автоматического извлечения знаний из данных. 


Литература:

1.Загоруйко Н.Г. Линейные решающие функции, близкие к оптимальным. В сб. тр. ИМ СО АН СССР "Вычислительные системы", вып.19, Новосибирск,1965.
2.Загоруйко Н.Г. Комбинированный метод принятия решений.  В сб. тр. ИМ СО АН СССР "Вычислительные системы", вып.24, Новосибирск, 1966. 
3. Загоруйко Н.Г. Методы распознавание и их применение. Изд. ╚Сов. Радио╩, М., 1972.
4. Загоруйко Н.Г., Елкина В.Н., Емельянов С.В., Лбов Г.С. Пакет прикладных программ ОТЭКС.  М.:  Финансы  и  Статистика, 1986. - 160 с.
5. Манохин А. Н. Методы распознавания образов, основанные на логических решающих функциях. -В кн.: Эмпирическое предсказание и распознавание образов.(Вычислительные системы, вып. 67) Новосибирск, 1976, с. 42-53.
6. Лбов Г.С. Методы  обработки  разнотипных  экспериментальных данных. Изд. "Наука" Сибирское отделение, Новосибирск, 1981.