Дубнов, Ю. А.
    Об энтропийных критериях отбора признаков в задачах анализа данных [Текст] = On Entropic Criteria For Feature Selection In Data Analysis Problems / Дубнов Ю. А. // Информационные технологии и вычислительные системы = Journal of Information Technologies and Computing Systems. - 2018. - № 2. - С. 60-69 : ил., 2 табл. - Библиогр.: с. 67-69 (30 назв. ) . - ISSN 2071-8632
УДК
ББК 32.973-018.2 + 32.973-018.2 + 22.16
Рубрики: Вычислительная техника
   Прикладные информационные (компьютерные) технологии в целом

   Распознавание и преобразование образов

   Математика

   Математический анализ

Кл.слова (ненормированные):
PCA -- Principal Component Analysis -- conditional entropy -- dimentionality reduction -- mutual information -- Кульбака - Ляйблера расстояние -- Шеннона энтропия -- Шенноновская энтропия -- бинарная классификация -- взаимная информация -- задачи анализа данных -- задачи понижение размерности -- машинное обучение -- метод главных компонент -- методы извлечения информации -- обзоры -- описание объектов -- прикладные задачи -- расстояние Кульбака - Ляйблера -- условная энтропия -- энтропия Шеннона
Аннотация: Рассматривается задача понижения размерности пространства признаков для описания объектов в задачах анализа данных на примере бинарной классификации. Приводится обзор существующих подходов к решению данной задачи и предлагается несколько модификаций, в которых понижение размерности рассматривается, как задача извлечения наиболее релевантной информации из признакового описания объектов, и решается в терминах Шенноновской энтропии. Для выявления наиболее значимых признаков используются такие информационные критерии, как условная энтропия (conditional entropy), взаимная информация (mutual information) и расстояние Кульбака - Ляйблера (Kullback - Leibler divergence).


Имеются экземпляры в отделах: всего 1 : ч.з. (1)
Свободны: ч.з. (1)