• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Найдены 4 публикации
Сортировка:
по названию
по году
Статья
Savchenko A. Pattern Recognition. 2012. Vol. 45. No. 8. P. 2952-2961.

Рассмотрена задача распознавания изображений в режиме реального времени с базой данных, содержащей сотни классов. В качестве альтернативы полному перебору предложен метод направленного перебора. Предложенный метод имеет следующие преимущества. Во-первых, он может применяться в сочетании с мерами близости, не удовлетворяющими метрическим свойствам (например, расстояние хи-квадрат, информационное рассогласование Кульбака-Лейблера). Во-вторых, метод направленного перебора позволяет повысить скорость распознавания даже в случае, когда несколько эталонов удалены от входного объекта на приблизительно равные расстояния. В работе предствалены результаты экспериментального исследования предложенного метода в задаче распознавания лиц из популярных баз данных (Essex, FERET). Рапсознавнаие изображений проводится на основе сопоставления гистограмм цвета и ориентаций градиента. Показано, что предложенный метод позволяет значительно уменьшить среднее время распознавания (в 3-12 раз по сравнению с традиционными методами типа ближайших соседей).

Добавлено: 9 июня 2012
Статья
Savchenko A. Pattern Recognition. 2017. Vol. 61. P. 459-469.
Добавлено: 30 августа 2016
Статья
Mirkin B., Amorim R. Pattern Recognition. 2012. Vol. 45. No. 3. P. 1061-1075.

В статье делается еще один шаг для исправления основного недостатка метода к-средних: он не может отделить информативные признаки от шума. Мы расространяем метод взвешенных к-средних Хуанга и др. на пространство Минковского. При этом веса признаков получают разумный интуитивный смысл коэффициентов поправки масштабов измерения признаков.  К этому мы добавляем метод аномальных кластеров для определения инициализации метода.Новый метод экспериментально верифицирован на данных машинного обучения (Ирвайн) и сгенерированных данных о Гауссовских кластерах, как в присутствии случайных признаков, так и в их отсутствие. Метод оказался не хуже, а в большинстве случаев - лучше методов, вычисляющих веса признаков в методе к -средних.

Добавлено: 26 ноября 2012
Статья
Mirkin B., Amorim R., Makarenkov V. et al. Pattern Recognition. 2017. Vol. 67. P. 62-72.

The Minkowski weighted K-means (MWK-means) is a recently developed clustering algorithm capable of computing feature weights. The cluster-specific weights in MWK-means follow the intuitive idea that a feature with low variance should have a greater weight than a feature with high variance. The final clustering found by this algorithm depends on the selection of the Minkowski distance exponent. This paper explores the possibility of using the central Minkowski partition in the ensemble of all Minkowski partitions for selecting an optimal value of the Minkowski exponent. The central Minkowski partition appears to be also a good consensus partition. Furthermore, we discovered some striking correlation results between the Minkowski profile, defined as a mapping of the Minkowski exponent values into the average similarity values of the optimal Minkowski partitions, and the Adjusted Rand Index vectors resulting from the comparison of the obtained partitions to the ground truth. Our findings were confirmed by a series of computational experiments involving synthetic Gaussian clusters and real-world data

Добавлено: 30 марта 2017