|
Пусть
задача состоит в том, что из g=50 признаков нужно
выбрать наиболее информативную систему, состоящую
из n=25 признаков. В качестве критерия информативности будем использовать
количество ошибок распознавания
w.
Этот алгоритм
отличается от предыдущего лишь тем, что порядок
проверки подсистем признаков начинается не с g-мерного пространства,
а с одномерных пространств. Вначале все
g признаков проверяются на информативность. Для этого делается
распознавание контрольной последовательности
по каждому из g признаков в отдельности и
в информативную подсистему включается признак, давший наименьшее
число ошибок.
Разобьем отрезок (0-1) на g одинаковых участков и сопоставим каждый участок своему признаку: 1-й участок соответствует первому признаку, 2-й - второму и т.д. Каждый участок имеет ширину 1/g. Запускается датчик случайных чисел с равномерным распределением в диапазоне (0-1). Если число попадает в j-тый участок, то j-тый признак включается в испытуемый набор признаков. После n шагов работы датчика выбранными оказываются n признаков. Качество этой случайно выбранной подсистемы оценивается по одному их критериев, например, по числу получаемых ошибок распознавания w. Описанная процедура случайного выбора n-мерных подсистем признаков и оценки их качества повторяется r раз. Рассмотрение полученного списка оценок w1, w2,... wi,... wr позволяет выбрать наилучшую и наихудшую из испытанных подсистем. На этом основании делается процедура "поощрения" и "наказания": участки, соответствующие признакам, попавшим в наилучшую подсистему, "поощряются" путем расширения их границ на величину h, а участки, соответствующие признакам из самой неинформативной подсистемы, "наказываются" тем, что их ширина уменьшается на величину h (h<1/g). Суммарная длина всех участков по-прежнему равна 1. После этого случайным образом выбираются и испытываются новые r подсистем. Но теперь вероятность попадания признаков в эти подсистемы будет не одинаковой: поощренные признаки, представленные более широкими отрезками, имеют больше шансов войти в очередную подсистему, чем наказанные. По результатам испытания этой партии подсистем процедура адаптации (наказания и поощрения) повторяется. Если некоторый признак случайно попадает и в самую лучшую и самую худшую подсистемы, то длина его участка остается неизменной. Если же он регулярно оказывается в составе самой информативной подсистемы, то длина его участка растет с каждым шагом адаптации. Точно также, признак, систематически попадающий в самую неинформативную подсистему с каждым шагом сокращает длину своего участка и, тем самым, вероятность его включения в испытуемые подмножества признаков уменьшается. После некоторого количества (R) циклов поиска и адаптации процесс стабилизируется: участки удачливых признаков занимают практически весь отрезок (0-1) и в испытуемую подсистему выбираются одни и те же признаки. Этот факт служит сигналом к окончанию процесса выбора n-мерной подсистемы наиболее информативных признаков. Скорость сходимости и качество получаемого решения зависит от величины h. При больших h процесс останавливается раньше, но качество полученного решения обычно хуже, чем при малых h. Малые значения h соответствуют более мягкой стратегии поощрений и наказаний. Если мы располагаем методом измерения близости (зависимости) между признаками, то можем сделать таксономию множества g признаков на n таксонов. И если при таксономии объектов в один таксон объединяются наиболее близкие, похожие друг на друга объекты, то в данном случае в таксоны будут объединяться признаки, одинаково или похожим образом проявляющие себя на объектах обучающей выборки. Так как в один таксон группируются признаки по принципу максимального сходства (зависимости), то между таксонами обеспечивается максимальное несходство (независимость). Выбрав затем по одному "типичному" признаку из каждого таксона, мы получим n-мерную подсистему, которая включает в свой состав признаки, отличающиеся максимальной независимостью друг от друга. Такая подсистема наилучшим образом соответствует решающему правилу, ориентированному на использование независимых признаков. В реальных задачах может встретиться случай, когда в исходной системе имеются группы признаков, связанных между собой сильной зависимостью, но не несущих информации, полезной для распознавания заданных образов. Такие признаки объединятся в таксоны, их представители попадут в n-мерную подсистему и будут разрушать компактность образов и служить помехой при принятии решений. Чтобы избежать такой ловушки в алгоритме НТТП предусмотрен следующий прием. Таксономия g признаков делается на n' таксонов (g>n'>n). Из каждого таксона выбирается по одному признаку и делается перебор всех сочетаний из n' по n признаков. Эти сочетания сравниваются между собой по критерию информативности, в результате чего удается выбрать наиболее информативную n-мерную подсистему признаков. 1. Merill T., Green O.M. On the effectiveness of receptors in recognition systems.- JRE Trans. Inform. Theory, 1963, vol. JT-9, p.11-17. 2.Барабаш Ю.Л., Варский Б.В. и др. Автоматическое распознавание образов. Изд. КВАИУ, Киев, 1964. 3. Лбов Г.С. Методы обработки разнотипных экспериментальных данных. Изд. "Наука" Сибирское отделение, Новосибирск, 1981. 4.Загоруйко Н.Г., Елкина В.Н., Лбов Г.С., Емельянов С.В. Пакет прикладных программ ОТЭКС. Изд. ╚Финансы и Статистика╩, М., 1986. 5.Елкина В.Н., Загоруйко Н.Г., Темиркаев В.С. Алгоритмы направленного таксономического поиска информативных подсистем признаков (НТПП)// Вычислительные системы: Сб. тр. ИМ СО АН СССР Вып.59, Новосибирск, 1974. |