ПОИСК Статьи Рисунки Таблицы Контролируемые методы из "Аналитическая химия Том 2" Если заранее известно, какой из объектов принадлежит к какому кластеру, то для классификации можно использовать методы распознавания образов, называемые контролируемыми. Мы рассмотрим следующие методы из этой группы линейное обучающее устройство, линейный дискриминантный анализ, метод к ближайших соседей и 81МСА. [c.537] Первый случай применения методов распознавания образов в аналитической химии относится к 1969 году, когда была произведена классификация масс-спектров с использованием линейного обучающего устройства (ЛОУ). В методе ЛОУ основой для классификации служат дискриминантные функции, которые разделяют Л -мерное пространство признаков на области, соответствующие отдельным классам. Это разделение можно затем использовать для предсказания принадлежности неизвестного объекта к тому или иному классу. [c.537] Очевидно, что если угол в меньше 90°, то объект классифицируется как относящийся к правому классу рис. 12.5-12 (черные кружки) и з 0. Соответственно, если в 90°, то 3 О и объект относится к левому классу (белые кружки). [c.538] В результате этой операции линия границы смещается в таком направлении, чтобы ошибочно классифицированный объект оказался по другую сторону от нее. Уточнение вектора весов проводят до тех пор, пока все объекты не будут классифицированы правильно. [c.539] Разумеется, ЛОУ работает успешно только в тех случаях, когда кластеры данных возможно разделить с помощью линейных границ. Следует помнить также, что положение разграничительной линии не является единственным. Поэтому даже для одного и того же набора данных решение может измениться, если изменить порядок расположения данных в матрице. [c.539] Более формализованный способ нахождения линейных границ между различными классами был предложен Фишером и Махаланобисом и получил название линейного дискриминантного анализа (ЛДА). Положение линейной границы (в общем случае — гиперплоскости) рассчитывают исходя из того, чтобы при этом дисперсия данных, относящихся к разным классам, была как можно больше, а внутри отдельных классов —как можно меньше. Этого можно добиться различными способами. Один из них, предложенный Фишером, основан на принципах линейного регрессионного анализа. [c.539] Эту процедуру повторяют до завершения построения всех дискриминирующих функций. Они обеспечивают наилучшее разделение объектов между классами. Если использовать векторы, задаваемые дискриминирующими функциями, в качестве направлений новых координатных осей, то разделение можно наблюдать визуально. Проекция объекта на разграничительную линию (или в общем случае на гиперплоскость) называется его нагрузкой по отношению к соответствующей дискриминирующей функции. [c.541] Здесь Sd — координата неизвестного объекта вдоль оси, задаваемой й-й дискриминирующей функцией, а вф- — координата центра тяжести з го класса. [c.542] Необходимыми предпосылками применения ЛДА являются нормальное распределение данных, различия в положении центров тяжести для различных классов, а также равенство (или хотя бы близость) дисперсий и ковариаций для всех классов. При значительных различиях в дисперсиях или пространственной ориентации разных классов (рис. 12.5-14) классификация может быть затруднена. [c.542] Метод к ближайших соседей, предложенный Фиксом и Ходжесом в 1951 г., очень прост и не использует никаких предпосылок о структуре классов. В этом методе вычисляют расстояния (обычно евклидовы) между неизвестным и всеми известными объектами. Объект относят к тому классу, к которому относится большинство из его к ближайших соседей. [c.542] Значение к выбирают заранее, чаще всего оно равно 1 или 3. С помощью этого метода возможно разделение между классами даже при наличии сильно изломанной границы (рис. 12.5-15). [c.542] К сожалению, результаты классификации могут зависеть от общего числа объектов в том или ином классе. Если классы перекрываются, неизвестный объект обычно будет отнесен к классу, содержащему больше объектов. Этот недостаток можно в некоторой степени преодолеть, если значение к выбирать различным в зависимости от числа объектов в классе например, для класса А, в котором объектов меньше, использовать к = 5, а для класса В, в котором объектов больше, к = 7. [c.543] Помимо методов дискриминантного анализа существует иной способ установить принадлежность объекта к некоторому классу — путем описания каждого класса с помощью отдельной математической модели, не зависящей от моделей, использованных для других классов. Геометрически такую модель можно представить в виде некоторой оболочки, окружающей класс. Объект относят к дсшному классу, если он попадает внутрь этой облочки. [c.543] Сначала подобные модели строили на основе многомерного нормального распределения с использованием дисперсий данных (в форме ковариационной матрицы), входящих в соответствующие классы. В аналитической химии этот метсщ иногда используют до сих пор. Однако он дает удовлетворительные результаты, только если имеется большое число данных, а отношение числа объектов к числу признаков не очень отличается от 6 1. [c.543] З-й переменной (признака) для а-й главной компоненты в д-ы классе, е - — остаточная погрешность, соответствующая j-мy признаку г -го объекта. [c.543] Объекты, не описываемые полученной моделью главных компонент, можно отбросить на основании сравнения полной остаточной дисперсии для всего класса (д) и остаточной дисперсии для рассматриваемого объекта. Эти две дисперсии вычисляются следующим образом. [c.544] Если обе дисперсии имеют один и тот же порядок величины, объект считают типичным представителем данного класса. Если же а значительно больше, чем о, то объект следует удалить и построить более экономичную модель с использованием оставшихся объектов класса. [c.544] Чем ближе эта величина к единице, тем больше вклад данной переменной в обшую модель. [c.545] Вернуться к основной статье