Ноябрь 15th, 2014
Принцип свободы выбора, который имеет доминирующий характер при изъятии незначимых факторов, сопровождается увеличением количества вычислений для получения их оптимального набора. Предложенная процедура, в значительной мере, является свободной от указанных недостатков. Наиболее эффективное ее применение возможно при условии наличия значительного количества факторов, большинство из которых являются линейно зависимыми, и минимизации свободы выбора, которая ограничивается выбором некоторой константы. При кластеризации с помощью НС вычисляется центр кластера и рассчитывается расстояние до него рассматриваемого ОН. При этом количество операций равно количеству объектов. В традиционных методах кластеризации применяют вычисления попарных расстояний между объектами, количество которых на порядок больше, чем в предыдущем случае. Еще одним преимуществом является параллельное решение задачи кластеризации РН и его сегментация.
Следующий этап заключается в определении тех образов, которые необходимы для рассмотрения продавцами и покупателями. Учитывая то, что ИБ содержит значительное количество записей, а также то, что, несмотря на изъятие незначимых факторов, количество факторов, которые остались, составляет несколько десятков, поиск нужной информации будет занимать достаточно продолжительное время. Кроме этой проблемы, важным является решение задачи о том, принадлежит ли новый объект необходимому классу. Установим, что все ОН, информация о которых содержится в ИБ, принадлежат к двум классам: первый содержит ОН, которые хотел бы продать или купить СРН, второй — ОН, которые не покупаются и не продаются. Хотите быть здоровым — бифидум баг у нас на сайте.
Предложим такую процедуру классификации и определения необходимых ОН. Из всей генеральной совокупности данных об ОН случайным образом определим популяцию представителей. Если ОН интересует клиента, то относим его к первому классу, если нет — ко второму. Заметим, что представительская популяция должна быть репрезентативной, в противном случае точность классификации может быть низкой. Используя ее и информацию о классах, выполним процедуру обучения нейронной сети, которая в Matlab.