Ядерне кластерування на основi узагальненої регресiйної нейронної мережi та самоорганiзовної мапи Т. Коґонена
DOI:
https://doi.org/10.18664/ikszt.v0i3.76317Ключові слова:
нейронні мережі, еволюцiйна узагальнена регресiйна нейронна мережа, самоорганiзовна мапа Т. Коґонена, «прокляття розмiрностi»Анотація
У роботі запропоновано архiтектуру гiбридної нейронної мережi та метод її самонавчання, призначенi для ядерного кластерування потоку спостережень, які послідовно надходять на обробку в on-line режимі. Запропонована система побудована на основі еволюційної узагальненої регресійної нейронної мережі та самоорганізовної мапи Т. Коґонена. Налаштування параметрів системи засновано на «лінивому» навчанні і самонавчанні на основі принципу «Переможець отримує більше», при цьому як функція сусідства використовується вихідний сигнал гібридної мережі. Запропонована система не схильна до «прокляття розмірності», проста в реалізації, не критична до форми відновлюваних кластерів.
Посилання
Rutkowski, L. Computational Intelligence. Methods and Techniques. / L. Rutkowski // Berlin: Springer-Verlag, Heidelberg. – 2008. – 514 p.
Mumford, C. Computational Intelligence. Collaboration, Fuzzy and Emergence. / C. Mumford, L. Jain // Berlin: Springer-Verlag. – 2009. – 726 p.
Kruse, R. Computational Intelligence. A Methodological Introduction. / R. Kruse, C. Borgelt, F. Klawonn, C. Moewes, M. Steinbrecher, P. Held // Berlin: Springer. – 2013. – 488 p.
Du, K.-L. Neural Networks and Statistical Learning. / K.-L Du, M.N.S. Swamy // London: Springer-Verlag. – 2014. – 824 p.
Han, J. Data Mining: Concepts and Techniques. / J. Han, M. Kamber // Amsterdam: Morgan Kaufmann Publ. – 2006. – 754 p.
Aggarwal, C.C. Data Mining. / C.C. Aggarwal // Cham: Springer, Int. Publ. Switzerland. – 2015. – 734 p.
Aggarwal, C.C. Data Clustering. Algorithms and Application. / C.C.Aggarwal, C.K. Reddy // Boca Raton: CRC Press. – 2014. – 648 p.
Xu, R. Clustering. / R. Xu, D.C. Wunsch // IEEE Press Series on Computational Intelligence. Hoboken, NJ:John Wiley & Sons, Inc. – 2009.– 370 p.
Haykin, S. Neural Networks. A Comprehensive Foundation. / S. Haykin // Upper Saddle River, N.J.: Prentice Hall, Inc. – 1999. – 842 р.
Kohonen, T. Self-Organizing Maps / T. Kohonen // Berlin: Springer-Verlag. – 1995. – 362 p.
Bifet, A. Adaptive Stream Mining: Pattern Learning and Mining from Evolving Data Streams / A. Bifet // IOS Press. – 2010. – 224 p.
MacDonald, D. Clustering in data space and feature space. / D.MacDonald, C. Fyfe // ESANN'2002 Proc. European Symp. on Artificial Neural Networks. Bruges (Belgium), 24-26 April. – 2002. – 137-142 pp.
Girolami, M. Mercer kernel-based clustering in feature space. IEEE Trans. on Neural Networks. / M. Girolami // 13. №3. 780-784 pp.
Camastra, F. A novel kernel method for clustering. / F. Camastra, A. Verri // IEEE Trans. on Pattern Analysis and Machine Intelligence. No. 5. – 2005. – 801-805 pp.
Schölkopf, B. Learning with Kernels. / B. Schölkopf, A. Smola // Cambridge, M.A.: MIT Press. – 2002 – 648 р.
Вапник, В.Н. Теория распознавания образов (Cтатистические проблемы обучения). / В.Н.Вапник, А.Я. Червоненкис // М.: Наука. – 1974. – 416 c.
Cortes, C. Support Vector Networks. / C.Cortes, V. Vapnik. // Machine Learning. – 1995. – 273–297 pp.
Suykens, J.A.K. Least Squares Support Vector Machines. / J.A.K.Suykens, T.V Gestel, J.D Brabanter, B.D.Moor, J. Vandewalle // Singapore: World Scientific. – 2002. – 294 p.
Parzen E. On the estimation of a probability density function and the mode / E. Parzen // Ann. Math. Statist. – 1962. – no.38. – 1065-1076 pp.
Specht D.F. A general regression neural network / D.F. Specht // IEEE Trans. on Neural Networks. – 1991 – Vol 2. – 568-576 pp.
Cover T. M. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition. / T. M. Cover // IEEE Trans. on Electronic Computers. – 1965. – No. 14. – 326-334 pp.
Zahirniak, D., Pattern recognition using radial basis function network. / D. Zahirniak, R.Chapman, S. Rogers, B. Suter, M. Kabrisky, V. Piati // Proc 6th Ann. Aerospace Application of Artificial Intelligence Conf. – Dayton. – OH. – 1990. – 249-260 pp.
Angelov, P. Evolving Rule-based Models: A Tool for Design of Flexible Adaptive Systems. / P. Angelov // Heidelberg-New York: Springer-Verlag. – 2002 – 227 p.
Kasabov, N. Evolving Connectionist Systems. / N. Kasabov // London: Springer-Verlag. – 2003 – 451 p.
Angelov, P. Evolving computational intelligence systems / P. Angelov, N. Kasabov // Proc. 1st Int. Workshop on Genetic Fuzzy Systems. – Granada, Spain. – 2005. – 76-82 p.
Lughofer, E. Evolving Fuzzy Systems – Methodologies, Advanced Concepts and Applications. / E. Lughofer // Berlin-Heidelberg: Springer-Verlag. – 2011 – 456 p.
Bodyanskiy, Ye.V. An Evolving Radial Basis Neural Network with Adaptive Learning of Its Parameters and Architecture / Ye.V. Bodyanskiy, O.K. Tyshchenko, A.O. Deineko // Automatic Control and Computer Sciences. – 2015. – Vol. 49, No. 5. – 255–260 pp.
Бодянский, Е.В. Искусственные нейронные сети: архитектуры, обучение, применение [Текст]/ Е.В. Бодянский, О.Г. Руденко. - Харьков: ТЕЛЕТЕХ, 2004. – 372 с.
Bodyanskiy, Ye. Evolving Neuro-Fuzzy Systems with Kernel Activation Functions. Their Adaptive Learning for Data Mining Tasks / Ye. Bodyanskiy, O. Tyshchenko, A. Deineko // Saarbrucken: LAP LAMBERT Academic Publishing. – 2015 – 64 p.
Cottrel, M. A stochastic model of retinotopy: a self-organizing process / M.Cottrel, J. Fort // Biolog. Cybernetics. 1986. 53. 405 – 411pp.
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2016 Е. В. БОДЯНСКИЙ, А. А. ДЕЙНЕКО, Я. В. КУЦЕНКО
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.