Список литературы

Общая литература

Тема 1.1. Основные понятия. Типология задач, решаемых методами машинного обучения. Многослойный персептрон.

См. общую литературу. См.также:
  • В.Сидоров. Что такое закон Мура?
  • А.Скробов. Закон Мура
  • W.S.McCulloch, W,Pitts. A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 1943, V. 5, pp. 115–133.
  • F.Rosenblatt. The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Psychological Review, 1958, V.65, No. 6, pp. 386-408.
  • K.Hornick, M.Stinchcombe, H.White. Multilayer Feedforward Networks are Universal Approximators. Neural Networks, 1989, v. 2, № 5, pp.359-366.
  • G.Cybenko. Approximation by Superpositions of a Sigmoidal Function. Mathematics of Control, Signals. and Systems, 1989, v. 2, № 4, pp.303-314.
  • K.Funahashi. On the Approximate Realization of Continuous Mappings by Neural Networks. Neural Networks, 1989, v. 2, № 3, pp.183-191.
  • Нейронные сети: история развития теории. Сборник статей под общей редакцией А.И.Галушкина, Я.З.Цыпкина. ИПРЖР, Москва 2001.
  • З.М.Шибзухов. Некоторые вопросы теоретической нейроинформатики. В кн.: XIII Всероссийская научно-техническая конференция "Нейроинформатика-2011". Лекции по нейроинформатике. М., НИЯУ МИФИ, 2010. С.44-72.

Тема 1.2. Алгоритм обратного распространения ошибки и его модификации. Многослойные персептроны. Выбор оптимальных параметров сети

См. общую литературу и литературу к Теме 1.1. См.также:

Тема 1.3. Нейронная сеть с общей регрессией. Вероятностная нейронная сеть. Нейронные сети с радиальными базисными функциями.

  • Specht, D. Probabilistic Neural Networks. Neural Networks, 1990, 3, 109-118.
  • Specht, D. A General Regression Neural Network. IEEE Trans. on Neural Networks, Nov. 1991, 2, 6, 568-576.
  • Burrascano, P. Learning Vector Quantization for the Probabilistic Neural Network. IEEE Trans. on Neural Networks, July 1991, 2, 458-461.
  • Schieler, H., Hartmann, U. Mapping neural network derived from the parzen window estimator. Neural Networks, 1992, V.5, pp.903-909.
  • Specht, D. The General Regression Neural Network – Rediscovered. Neural Networks, 1993, V.6, pp.1033-1034.

Тема 1.4. Нейронная сеть и самоорганизующиеся карты Кохонена.

Тема 1.5. Нейронные сети Хопфилда. Нейронные сети Хэмминга. Машина Больцмана.
  • J.J.Hopfield. Neural networks and physical systems with emergent collective computational abilities. Proceedings of National Academy of Sciences of USA, 1982, V.79, No.8, pp.2554-2558. Электронная версия находится здесь.
  • Я.М.Карандашев, Б.В.Крыжановский, Л.Б.Литинский. Обобщённая модель Хопфилда и статфизический подход: общий случай. Нейроинформатика-2011. XIII Всероссийская научно-техническая конференция. Сборник научных трудов, ч.3, с.181-190. М., НИЯУ МИФИ, 2010.
  • B.Denby. The Use of Neural Networks in High-Enegry Physics. Neural Computation, v.5, 1993, pp. 505-549
  • См. также общую литературу

Тема 1.6. Глубокие нейронные сети. Свёрточные нейронные сети

  • В.А.Головко. От многослойных персептронов к нейронным сетям глубокого доверия: парадигмы обучения и применение. В сб.: Нейроинформатика-2015. XVII Всероссийская научно-техническая конференция с международным участием. Лекции по нейроинформатике, с.47-84. НИЯУ МИФИ, 2015.
  • I.Sutskever, J.Martens, G.Dahl, G.Hinton. On the importance of initialization and momentum in deep learning. J. of Machine Learning Research, 2013, V. 28, No. 3, pp. 1139–1147.
  • Y.Bengio. Practical Recommendations for Gradient-Based Training of Deep Architectures. https://arxiv.org/abs/1206.5533v2
  • I.Goodfellow, Y.Bengio, A.Courville. Deep Learning. MIT Press, 2016. http://www.deeplearningbook.org/
  • A.Gibson, J.Patterson. Deep Learning. O’Reilly Media, Inc., 2017. https://www.safaribooksonline.com/library/view/deep-learning/9781491924570/
  • K.He, X.Zhang, Sh.Ren, J.Sun. Deep Residual Learning for Image Recognition. http://arxiv.org/abs/1512.03385v1
  • L.A.Gatys, A.S.Ecker, M.Bethge. A Neural Algorithm of Artistic Style. http://arxiv.org/abs/1508.06576v1
  • A.Mordvintsev, C.Olah, M.Tyka. Inceptionism: Going Deeper into Neural Networks. Google Research Blog, June 17, 2015. http://googleresearch.blogspot.ru/2015/06/inceptionism-going-deeper-into-neural.html
  • Le Cun et.al. Backpropagation applied to handwritten ZIP code recognition. Neural Computation, v.1, n.4, 1989, pp.541-551.

Тема 1.7. Генеративные состязательные сети

  • I.J. Goodfellow, J. Pouget-Abadie, M. Mirza, Bing Xu, D. Warde-Farley, Sh. Ozairy, A. Courville, Y. Bengio. Generative Adversarial Nets. http://arxiv.org/abs/1406.2661v1
  • I.Goodfellow. NIPS 2016 Tutorial: Generative Adversarial Networks. https://arxiv.org/abs/1701.00160v4
  • D.Foster. Generative Deep Learning: Teaching Machines to Paint, Write, Compose, and Play. O'Reilly Media, 2019. ISBN 1492041947.

Тема 2.1. Кодирование и нормировка данных. Линейный и нелинейный анализ главных компонент. Оценка значимости входов

См. общую литературу. См.также:

  • Esbensen, K.H., Multivariate Data Analysis—In Practice, an Introduction to Multivariate Data Analysis and Experimental Design, 5th ed., CAMO Software AS, 2006.
  • Нелинейный метод главных компонент. http://pca.narod.ru
  • Алексей Померанцев. Метод главных компонент (PCA)
  • Алексей Померанцев. Многомерное разрешение кривых
  • De Juan, Anna and Tauler, Roma. Multivariate Curve Resolution (MCR) from 2000: Progress in Concepts and Applications. Critical Reviews in Analytical Chemistry, 2006, V.36, No:3, pp.163-176.
  • Herve Abdi. Partial Least Square Regression (PLS-Regression). In: Neil Salkind (Ed.) Encyclopedia of Measurement and Statistics. Thousand Oaks (CA): Sage, 2007.
  • А.Г.Гужва, С.А.Доленко, И.Г.Персианцев, Ю.С.Шугай. Сравнительный анализ методов определения существенности входных переменных при нейросетевом моделировании: методика сравнения и её применение к известным задачам реального мира. Нейроинформатика-2008. X Всероссийская научно-техническая конференция. Сборник научных трудов, ч.2, с.216-225. М., МИФИ, 2008.
  • А.Г.Гужва, С.А.Доленко, И.Г.Персианцев. Методика отбора существенных входных признаков при нейросетевом решении задач регрессии. Нейрокомпьютеры: разработка, применение, 2010, №3, с.20-32.

Тема 2.2. Фрактальная размерность и алгоритмы её определения. Анализ временных рядов

Тема 2.3. Спектральные методы обработки сигналов. Вейвлет-анализ. Вейвлет нейронные сети.

Тема 3.1. Основные понятия языка Python и приёмы работы с ним

  • J.VanderPlas. Python Data Science Handbook: Essential Tools for Working with Data. O'Reilly Media, 2016, 541 pp. ISBN 978-1-491-91205-8.
  • Перевод: Дж.Вандер Плас. Python для сложных задач. Наука о данных и машинное обучение. Питер, 2018. ISBN 978-5-446-10914-2.
  • M.Dawson. Python Programming for the Absolute Beginner. 3rd Edition. Course Technology, 2010. ISBN 978-1-435-45500-9.
  • Перевод: М.Доусон. Программируем на Python. Питер, 2012. ISBN 978-5-459-00314-7.
  • M.Lutz. Programming Python. 4th Edition. O'Reilly Media, 2010. ISBN 978-0-596-15810-1.
  • Перевод: М.Лутц. Программирование на Python. Том 1. Символ-Плюс , 2011. ISBN 978-5-93286-210-0.
  • W.McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython. O'Reilly Media, 2012, 466 pp. ISBN 978-1-491-95766-0.
  • Перевод: У.Маккинни. Python и анализ данных. ДМК Пресс , 2015, 482 c. ISBN 978-5-97060-315-4.
  • A.C.Muller, S.Guido. Introduction to Machine Learning with Python: A Guide for Data Scientists. O'Reilly Media, 2016. ISBN 978-1-449-36941-5.
  • Перевод: А.Мюллер, С.Гвидо. Введение в машинное обучение с помощью Python. Руководство для специалистов по работе с данными. Вильямс, 2017, 480 c. ISBN 978-5-99089-108-1.
  • B.Lubanovic. Introducing Python: Modern Computing in Simple Packages. O'Reilly Media, 2015. ISBN 978-1-449-35936-2.
  • Перевод: Б.Любанович. Простой Python. Современный стиль программирования. Питер, 2019, 480 c. ISBN 978-5-446-11054-4.
  • Au.Geron. Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems. O'Reilly Media, 2017. ISBN 978-1-491-96229-9.
  • Перевод: О.Жерон. Прикладное машинное обучение с помощью Scikit-Learn и TensorFlow. Концепции, инструменты и техники для создания интеллектуальных систем. Вильямс, 2018, 688 c. ISBN 978-5-950-02962-2.
  • M.Lutz. Python Pocket Reference: Python In Your Pocket. 5th Edition. O'Reilly Media, 2014. 258 pp. ISBN 978-1-449-35701-6.
  • Перевод: М.Лутц. Python. Карманный справочник. Вильямс, 2016, 320 c. ISBN 978-5-845-91965-6.
  • L.Ramalho. Fluent Python: Clear, Concise, and Effective Programming. O'Reilly Media, 2015. 768 pp. ISBN 978-1-491-94600-8.
  • Перевод: Л.Рамальо. Python. К вершинам мастерства. ДМК Пресс, 2016, 768 c. ISBN 978-5-97060-384-0.

Тема 3.2. Работа с нейронными сетями на языке R

  • H.Wickham, G.Grolemund. R for Data Science: Import, Tidy, Transform, Visualize, and Model Data. O'Reilly Media, 2017, 522 pp. ISBN 978-1-491-91039-9.
  • Перевод: Х.Уикем, Г.Гроулмунд. Язык R в задачах науки о данных. Импорт, подготовка, обработка, визуализация и моделирование данных. Вильямс, 2017. ISBN 978-5-9909446-8-8.
  • J.Adler. R in a Nutshell. 2nd Edition. O'Reilly Media, 2012, 724 pp. ISBN 978-1-449-31208-4.
  • N.Matloff. The Art of R Programming: A Tour of Statistical Software Design. O'Reilly Media, 2011, 316 pp. ISBN 978-1-593-27384-2.
  • R.Kabacoff. R in Action: Data Analysis and Graphics with R. Second Edition. Manning Publications, 2015, 608 pp. ISBN 978-1-617-29138-8.
  • Перевод: Р.Кабаков. R в действии. Анализ и визуализация данных на языке R. ДМК Пресс, 2014, 588 с. ISBN 978-5-97060-241-6.
  • P.Dalgaard. Introductory Statistics with R. Springer, 2008, XVI+364 pp. ISBN 978-0-387-79054-1.
  • R.Wehrens. Chemometrics with R: Multivariate Data Analysis in the Natural Sciences and Life Sciences. Springer, 2011, XIV+286 pp. ISBN 978-3-642-17840-5.
  • P.Cowpertwait, A.Metcalfe. Introductory Time Series with R. Springer, 2009, XVI+256 pp. ISBN 978-0-387-88698-5.

Тема 4.1. Генетические алгоритмы. Многоагентные методы

Тема 4.2. Генетическое программирование

Тема 4.3. Метод группового учета аргументов (МГУА)

Тема 5.1. Нечёткая логика. Нейро-нечёткие системы

Тема 6.1. Комбинированные алгоритмы. Ансамбли. Кластер-анализ

  • D.H.Wolpert. Stacked Generalization. Neural Networks, 1992, v.5, pp.241-259.
  • С.А.Терехов. Гениальные комитеты умных машин. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2, с.11-42. М., МИФИ, 2007. Электронная версия находится здесь.
  • С.А.Доленко, Ю.В.Орлов, И.Г.Персианцев, Ю.С.Шугай. Адаптивное построение иерархических нейросетевых классификаторов. Нейрокомпьютеры: разработка, применение, 2005, №1-2, с.4-11.
  • И.Г.Персианцев. Адаптивное построение иерархических нейросетевых систем для классификации и для сегментации временных рядов. Научная сессия НИЯУ МИФИ-2010. XII Всероссийская научно-техническая конференция «Нейроинформатика-2010»: Лекции по нейроинформатике. М., НИЯУ МИФИ, 2010, с.212-242.
  • V.A.Svetlov, S.A.Dolenko. Development of the algorithm of adaptive construction of hierarchical neural network classifiers. Optical Memory and Neural Networks (Information Optics), 2017, V.26, No.1, p.40-46.
  • B.S.Everitt, S.Landau, M.Leese, D.Stahl. Cluster Analysis. 5th Edition. Wiley, 2011. ISBN 0470749911
  • C.Bouveyron, G.Celeux, T.B.Murphy, A.E.Raftery. Model-Based Clustering and Classification for Data Science: With Applications in R. Cambridge University Press, 2019. ISBN 110849420X.

См. также общую литературу

Тема 6.2. Работа с нейронными сетями на языке Python на примере задач обработки изображений

  • T.Rashid. Make Your Own Neural Network. A step-by-step gentle journey through the mathematics of neural networks, and making your own using the Python computer language. CreateSpace Independent Publishing Platform, 2016. ISBN 1530826608.
  • Перевод: Т.Рашид. Создаём нейронную сеть. Математические идеи, лежащие в основе нейронных сетей, и поэтапное создание собственной нейронной сети на языке Python. Вильямс, 2018. ISBN 978-1530826605.
  • F.Chollet. Deep Learning with Python. Manning Publications, 2017. ISBN 9781617294433.
  • Перевод: Ф.Шолле. Глубокое обучение на Python. Питер, 2018. ISBN 978-5-4461-0770-4.
  • S.Rashka, V.Mirjalili. Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow. 2nd Edition. Packt Publishing, 2017. ISBN 9781787125933.
  • Перевод: С.Рашка, В.Мирджалили. Python и машинное обучение. Машинное и глубокое обучение с использованием Python, scikit-learn и TensorFlow. 2-е издание. Вильямс, 2019. ISBN 978-5-907114-52-4.

Тема 6.3. Решение задач обработки текстовой информации

  • S.Bird, E.Klein, E.Loper. Natural Language Processing with Python. Analyzing Text with the Natural Language Toolkit. O’Reilly Media, 2009.
  • B.Benfort, T.Ojeda, R.Bilbro. Applied Text Analysis with Python. Enabling Language-Aware Data Products with Machine Learning. O’Reilly Media, 2018.
  • Перевод: Б.Бенгфорт, Р.Билбро, Т.Охеда. Прикладной анализ текстовых данных на Python. Машинное обучение и создание приложений обработки естественного языка. Питер, 2019. ISBN 978-5-4461-1153-4.Я

Тема 6.4. Обучение с подкреплением.

  • R.Sutton, A.Barto. Reinforcement Learning: An Introduction. MIT Press, 1998.
  • L.Graesser, W.L.Keng. Foundations of Deep Reinforcement Learning: Theory and Practice in Python. Addison-Wesley Professional, 2019.
  • T.Beysolow II. Applied Reinforcement Learning with Python: With OpenAI Gym, Tensorflow, and Keras. Apress, 2019. ISBN 1484251261.
  • M.Lapan. Deep Reinforcement Learning Hands-On: Apply modern RL methods, with deep Q-networks, value iteration, policy gradients, TRPO, AlphaGo Zero and more. Packt Publishing, 2018. ISBN 1788834240.

Тема 6.5. Решение обратных задач в физике с помощью ИНС и ГА

  • А.Н. Тихонов, В.Я. Арсенин. Методы решения некорректных задач. М., Наука, 1979.
  • А.С.Леонов. Решение некорректно поставленных обратных задач: Очерк теории, практические алгоритмы и демонстрации в МАТЛАБ. М., Книжный дом "Либроком", 2010.
  • В.И.Дмитриев. Обратные задачи геофизики. М., МАКС Пресс, 2012. ISBN 978-5-317-04151-9
  • T.A.Dolenko, I.V.Churina, V.V.Fadeev, and S.M.Glushkov. Valence band of liquid water Raman scattering: some peculiarities and applications in the diagnostics of water media. J. Raman Spectroscopy, 2000, v.31, p. 863-870.
  • И.В. Бойчук, Т.А. Доленко, А.Р. Сабиров, В.В. Фадеев, Е.М. Филиппова. Исследование единственности и устойчивости решения обратной задачи флуориметрии насыщения. Квантовая электроника, 2000, т.30, N7, с 611-616.
  • С.А.Доленко, И.В.Гердова, Т.А.Доленко, В.В.Фадеев. Лазерная флуориметрия смесей сложных органических соединений с использованием искусственных нейронных сетей. Квантовая электроника, 2001, т.31, N 9, стр.834-838.
  • T.A.Dolenko, V.V.Fadeev, I.V.Gerdova, S.A.Dolenko, and R.Reuter. Fluorescence Diagnostics of Oil Pollution in Coastal Marine Waters by Use of Artificial Neural Networks. Applied Optics, 2002, v.41, No.24, pp.5155-5166.
  • A.Tanaka, M.Kishino, T.Oishi, R.Doerffer, H.Schiller. Application of neural network method to case II water. In: Proc. SPIE, Remote Sensing of the Ocean and Sea Ice 2000 (Ed. C.R.Bostater, R.Santoleri), 2000, v.4172, pp. 144-152.
  • K.Hennig, T. de Vries, R.Paetzold, K.Jantos, E.Voss, A.Anders. Multi Sensor System for Fast Analyses in Environmental Monitoring with an Application in Waste Water Treatment. European Association of Remote Sensing Laboratories (EARSeL) eProceedings (Workshop on LIDAR on Land and Sea) Editor: R.Reuter. 2001, v. 1, pp.61-67.
  • S.Dolenko, A.Guzhva, E.Obornev, I.Persiantsev, M.Shimelevich. Comparison of Adaptive Algorithms for Significant Feature Selection in Neural Network Based Solution of the Inverse Problem of Electrical Prospecting. In: C.Alippi et al (Eds.): ICANN 2009, Part II. (Lecture Notes in Computer Science, 2009, V.5769, pp.397-405.) Springer-Verlag Berlin Heidelberg 2009.
  • S.A.Burikov, S.A.Dolenko, T.A.Dolenko, I.G.Persiantsev. Application of Artificial Neural Networks to Solve Problems of Identification and Determination of Concentration of Salts in Multi-Component Water Solutions by Raman spectra. Optical Memory and Neural Networks (Information Optics), 2010, V.19, No.2, pp.140-148.
  • S.Dolenko, T.Dolenko, S.Burikov, V.Fadeev, A.Sabirov, and I.Persiantsev. Comparison of Input Data Compression Methods in Neural Network Solution of Inverse Problem in Laser Raman Spectroscopy of Natural Waters. In: A.E.P. Villa et al. (Eds.): ICANN 2012, Part II. Lecture Notes in Computer Science, 2012, V.7553, pp.443-450.
  • S.Dolenko, I.Isaev, E.Obornev, I.Persiantsev, M.Shimelevich. Study of Influence of Parameter Grouping on the Error of Neural Network Solution of the Inverse Problem of Electrical Prospecting. L.Iliadis, H.Papadopoulos, and C.Jayne (Eds.): EANN-2013, Part 1. Communications in Computer and Information Science (CCIS), 2013, V.383, pp.81-90.
  • С.А.Доленко, И.В.Исаев, Е.А.Оборнев, И.Г.Персианцев, М.И.Шимелевич. Сравнение методов нейросетевого решения многопараметрической обратной задачи магнитотеллурики. Известия ВУЗов. Геология и разведка, 2013, №5, с.47-52.
  • S.Dolenko, S.Burikov, T.Dolenko, A.Efitorov, K.Gushchin, I.Persiantsev. Neural Network Approaches to Solution of the Inverse Problem of Identification and Determination of Partial Concentrations of Salts in Multi-сomponent Water Solutions. S.Wermter et al. (Eds.): ICANN 2014. Lecture Notes in Computer Science (LNCS), 2014, V.8681, pp.805–812.
  • S.Dolenko, A.Efitorov, S.Burikov, T.Dolenko, K.Laptinskiy, and I.Persiantsev. Neural Network Approaches to Solution of the Inverse Problem of Identification and Determination of the Ionic Composition of Multi-сomponent Water Solutions. L.Iliadis and C.Jayne (Eds.): EANN 2015. Springer International Publishing Switzerland 2015. Communications in Computer and Information Science (CCIS), 2015, v.517, pp.109-
  • I.Isaev, S.Dolenko. Comparative Analysis of Residual Minimization and Artificial Neural Networks as Methods of Solving Inverse Problems: Test on Model Data. A.V.Samsonovich, V.V.Klimov, G.V.Rybina, eds. Biologically Inspired Cognitive Architectures (BICA) for Young Scientists. Proceedings of the First International Early Research Career Enhancement School (FIERCES 2016). Springer, Advances in Intelligent Systems and Computing, V.449, pp.289-295.
  • I.V.Isaev, S.A.Dolenko. Training with noise as a method to increase noise resilience of neural network solution of inverse problems. Optical Memory and Neural Netwroks (Information Optics), 2016, V.25, No.3, pp. 142-148.
  • T.A.Dolenko, S.A.Burikov, E.N.Vervald, A.O.Efitorov, K.A.Laptinskiy, O.E.Sarmanova, S.A.Dolenko. Improvement of reliability of molecular DNA computing: solution of inverse problem of Raman spectroscopy using artificial neural networks. Laser Physics, 2017, V.27, No.2, p.025203-1-025203-8.
  • A.Efitorov, T.Dolenko, S.Burikov, K.Laptinskiy, S.Dolenko. Study of Efficiency of Dividing the Problem Space as a Means to Improve Solution of Multi-parameter Inverse Problem by Adaptive Methods. Procedia Computer Science, 2018, V.123, pp.122-127. DOI: 10.1016/j.procs.2018.01.020
  • I.Isaev, S.Dolenko. Group Determination of Parameters and Training with Noise Addition: Joint Application to Improve the Resilience of the Neural Network Solution of a Model Inverse Problem to Noise in Data. Advances in Intelligent Systems and Computing, 2019, V.848, pp.138-144. Springer, Cham. DOI: 10.1007/978-3-319-99316-4_18
  • I.Isaev, S.Burikov, T.Dolenko, K.Laptinskiy, S.Dolenko. Artificial Neural Networks for Diagnostics of Water-Ethanol Solutions by Raman Spectra. Studies in Computational Intelligence, 2019, V.799, pp.167-175. DOI: 10.1007/978-3-030-01328-8_18