Ядерне кластерування на основi узагальненої регресiйної нейронної мережi та самоорганiзовної мапи Т. Коґонена

Автор(и)

  • Е. В. БОДЯНСКИЙ Харьковский национальный университет радиоэлектроники, Ukraine
  • А. А. ДЕЙНЕКО Харьковский национальный университет радиоэлектроники,
  • Я. В. КУЦЕНКО Харьковский национальный университет радиоэлектроники,

DOI:

https://doi.org/10.18664/ikszt.v0i3.76317

Ключові слова:

нейронні мережі, еволюцiйна узагальнена регресiйна нейронна мережа, самоорганiзовна мапа Т. Коґонена, «прокляття розмiрностi»

Анотація

У роботі запропоновано архiтектуру гiбридної нейронної мережi та метод її самонавчання, призначенi для ядерного кластерування потоку спостережень, які послідовно надходять на обробку в on-line режимі. Запропонована система побудована на основі еволюційної узагальненої регресійної нейронної мережі та самоорганізовної мапи Т. Коґонена. Налаштування параметрів системи засновано на «лінивому» навчанні і самонавчанні на основі принципу «Переможець отримує більше», при цьому як функція сусідства використовується вихідний сигнал гібридної мережі. Запропонована система не схильна до «прокляття розмірності», проста в реалізації, не критична до форми відновлюваних кластерів.

 

Біографії авторів

Е. В. БОДЯНСКИЙ, Харьковский национальный университет радиоэлектроники

д.т.н., профессор

А. А. ДЕЙНЕКО, Харьковский национальный университет радиоэлектроники

к.т.н.

Я. В. КУЦЕНКО, Харьковский национальный университет радиоэлектроники

аспирант

Посилання

Rutkowski, L. Computational Intelligence. Methods and Techniques. / L. Rutkowski // Berlin: Springer-Verlag, Heidelberg. – 2008. – 514 p.

Mumford, C. Computational Intelligence. Collaboration, Fuzzy and Emergence. / C. Mumford, L. Jain // Berlin: Springer-Verlag. – 2009. – 726 p.

Kruse, R. Computational Intelligence. A Methodological Introduction. / R. Kruse, C. Borgelt, F. Klawonn, C. Moewes, M. Steinbrecher, P. Held // Berlin: Springer. – 2013. – 488 p.

Du, K.-L. Neural Networks and Statistical Learning. / K.-L Du, M.N.S. Swamy // London: Springer-Verlag. – 2014. – 824 p.

Han, J. Data Mining: Concepts and Techniques. / J. Han, M. Kamber // Amsterdam: Morgan Kaufmann Publ. – 2006. – 754 p.

Aggarwal, C.C. Data Mining. / C.C. Aggarwal // Cham: Springer, Int. Publ. Switzerland. – 2015. – 734 p.

Aggarwal, C.C. Data Clustering. Algorithms and Application. / C.C.Aggarwal, C.K. Reddy // Boca Raton: CRC Press. – 2014. – 648 p.

Xu, R. Clustering. / R. Xu, D.C. Wunsch // IEEE Press Series on Computational Intelligence. Hoboken, NJ:John Wiley & Sons, Inc. – 2009.– 370 p.

Haykin, S. Neural Networks. A Comprehensive Foundation. / S. Haykin // Upper Saddle River, N.J.: Prentice Hall, Inc. – 1999. – 842 р.

Kohonen, T. Self-Organizing Maps / T. Kohonen // Berlin: Springer-Verlag. – 1995. – 362 p.

Bifet, A. Adaptive Stream Mining: Pattern Learning and Mining from Evolving Data Streams / A. Bifet // IOS Press. – 2010. – 224 p.

MacDonald, D. Clustering in data space and feature space. / D.MacDonald, C. Fyfe // ESANN'2002 Proc. European Symp. on Artificial Neural Networks. Bruges (Belgium), 24-26 April. – 2002. – 137-142 pp.

Girolami, M. Mercer kernel-based clustering in feature space. IEEE Trans. on Neural Networks. / M. Girolami // 13. №3. 780-784 pp.

Camastra, F. A novel kernel method for clustering. / F. Camastra, A. Verri // IEEE Trans. on Pattern Analysis and Machine Intelligence. No. 5. – 2005. – 801-805 pp.

Schölkopf, B. Learning with Kernels. / B. Schölkopf, A. Smola // Cambridge, M.A.: MIT Press. – 2002 – 648 р.

Вапник, В.Н. Теория распознавания образов (Cтатистические проблемы обучения). / В.Н.Вапник, А.Я. Червоненкис // М.: Наука. – 1974. – 416 c.

Cortes, C. Support Vector Networks. / C.Cortes, V. Vapnik. // Machine Learning. – 1995. – 273–297 pp.

Suykens, J.A.K. Least Squares Support Vector Machines. / J.A.K.Suykens, T.V Gestel, J.D Brabanter, B.D.Moor, J. Vandewalle // Singapore: World Scientific. – 2002. – 294 p.

Parzen E. On the estimation of a probability density function and the mode / E. Parzen // Ann. Math. Statist. – 1962. – no.38. – 1065-1076 pp.

Specht D.F. A general regression neural network / D.F. Specht // IEEE Trans. on Neural Networks. – 1991 – Vol 2. – 568-576 pp.

Cover T. M. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition. / T. M. Cover // IEEE Trans. on Electronic Computers. – 1965. – No. 14. – 326-334 pp.

Zahirniak, D., Pattern recognition using radial basis function network. / D. Zahirniak, R.Chapman, S. Rogers, B. Suter, M. Kabrisky, V. Piati // Proc 6th Ann. Aerospace Application of Artificial Intelligence Conf. – Dayton. – OH. – 1990. – 249-260 pp.

Angelov, P. Evolving Rule-based Models: A Tool for Design of Flexible Adaptive Systems. / P. Angelov // Heidelberg-New York: Springer-Verlag. – 2002 – 227 p.

Kasabov, N. Evolving Connectionist Systems. / N. Kasabov // London: Springer-Verlag. – 2003 – 451 p.

Angelov, P. Evolving computational intelligence systems / P. Angelov, N. Kasabov // Proc. 1st Int. Workshop on Genetic Fuzzy Systems. – Granada, Spain. – 2005. – 76-82 p.

Lughofer, E. Evolving Fuzzy Systems – Methodologies, Advanced Concepts and Applications. / E. Lughofer // Berlin-Heidelberg: Springer-Verlag. – 2011 – 456 p.

Bodyanskiy, Ye.V. An Evolving Radial Basis Neural Network with Adaptive Learning of Its Parameters and Architecture / Ye.V. Bodyanskiy, O.K. Tyshchenko, A.O. Deineko // Automatic Control and Computer Sciences. – 2015. – Vol. 49, No. 5. – 255–260 pp.

Бодянский, Е.В. Искусственные нейронные сети: архитектуры, обучение, применение [Текст]/ Е.В. Бодянский, О.Г. Руденко. - Харьков: ТЕЛЕТЕХ, 2004. – 372 с.

Bodyanskiy, Ye. Evolving Neuro-Fuzzy Systems with Kernel Activation Functions. Their Adaptive Learning for Data Mining Tasks / Ye. Bodyanskiy, O. Tyshchenko, A. Deineko // Saarbrucken: LAP LAMBERT Academic Publishing. – 2015 – 64 p.

Cottrel, M. A stochastic model of retinotopy: a self-organizing process / M.Cottrel, J. Fort // Biolog. Cybernetics. 1986. 53. 405 – 411pp.

##submission.downloads##

Опубліковано

2016-06-29