RAS Energy, Mechanics & ControlАвтоматика и телемеханика Automation and Remote Control

  • ISSN (Print) 0005-2310
  • ISSN (Online) 2413-9777

Using Ensembles with Enhanced Divergence in Forecast Space in Recommender Systems

PII
10.31857/S0005231025040061-1
DOI
10.31857/S0005231025040061
Publication type
Article
Status
Published
Authors
Volume/ Edition
Volume / Issue number 4
Pages
92-100
Abstract
Рассматривается метод дивергентного решающего леса, основанный на достижении более высокой дивергенции в пространстве прогнозов по сравнению со стандартным случайным решающим лесом за счет включения на каждом шаге в ансамбль нового дерева Tx, которое строится исходя из условий минимизации специального функционала, являющегося разностью квадратичной ошибки Tx и квадрата расхождения прогнозов Tx и текущего ансамбля. Метод является развитием аналогичных ранее разработанных методов, которые предназначены для прогнозирования числовых переменных. Вработе представлены результаты применения метода дивергентного решающего леса для решения задач классификации, возникающих при создании рекомендательных систем. Исследована зависимость эффективности прогноза от глубины деревьев и одного из ключевых параметров алгоритма, регулирующего вклад двух составляющих в минимизируемый функционал. Исследования показали, что точность предлагаемой технологии заметно превышает точность случайного решающего леса и близка к точности метода CatBoost.
Keywords
Date of publication
01.04.2025
Year of publication
2025
Number of purchasers
0
Views
10

References

  1. 1. Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning Data Mining, Inference, and Prediction. Springer Series in Statistics. New York: Springer, 2009.
  2. 2. Breiman L. Random Forests // Machine Learning. 2001. V. 45. No. 1. P. 5–32.
  3. 3. Friedman J. Stochastic gradient boosting // Comput. Statist. Data Anal. 2002. V. 38. No. 4. P. 367–378.
  4. 4. Breiman L. Bagging predictors // Machine Learning. 1996. No. 24. P. 123–140.
  5. 5. Tin Kam Ho. The random subspace method for constructing decision forests // IEEE Transact. Patt. Machine Intelligen. 1998. V. 20. No. 8. P. 832–844.
  6. 6. Chen T., Guestrin C. XGBoost: A Scalable Tree Boosting System // Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, CA, USA, August 13–17 / eds. Krishnapuram B., Shah M., Smola A.J., Aggarwal C.C., Shen D., Rastogi R. 2016. P. 785–794.
  7. 7. Ke G., Meng Q., Finley T. et al. LightGBM: A Highly Efficient Gradient Boosting Decision Tree // NIPS’17: Proc. 31st Int. Conf. Neural Inform. Proc. Syst. 2017. P. 3149–3157.
  8. 8. Hancock J.T., Khoshgoftaar T.M. CatBoost for big data: an interdisciplinary review // J. Big Data. 2020. V. 7. No. 94.
  9. 9. Zhuravlev Yu.I., Senko O.V., Dokukin A.A., Kiselyova N.N., Saenko I.A. Two-Level Regression Method Using Ensembles of Trees with Optimal Divergence // Dokl. Math. 2021. V. 103. P. 1–4.
  10. 10. Докукин А.А., Сенько О.В. Новый двухуровневый метод машинного обучения для оценивания вещественных характеристик объектов // Изв. РАН. Теория и системы управления. 2023. No. 4. P. 17–24.
  11. 11. Senko O.V., Dokukin A.A., Kiselyova N.N., et al. New Two-Level Ensemble Method and Its Application to Chemical Compounds Properties Prediction // Lobachev. J. Math. 2023. V. 44. No. 1. P. 188–197.
  12. 12. Roy D., Dutta M. A systematic review and research perspective on recommender systems // J. Big Data. 2022. V. 9. No. 59.
QR
Translate

Индексирование

Scopus

Scopus

Scopus

Crossref

Scopus

Higher Attestation Commission

At the Ministry of Education and Science of the Russian Federation

Scopus

Scientific Electronic Library