MATLAB.Exponenta
–Û·Ë͇ Matlab&Toolboxes

Математика\Neural Network Toolbox

Список литературы по нейронным сетям

  • Battiti, R., "First and second order methods for learning: Between steepest descent and Newton's method," Neural Computation, vol. 4, no. 2, pp. 141-166, 1992.
  • Caudill, M., Neural Networks Primer, San Francisco, CA: Miller Freeman Publications, 1989.
    (Этот сборник статей может служить введением в мир искусственных нейронных сетей. При минимальном использовании математики дает четкие представления об основных принципах использования нейронных сетей.)
  • Caudill, M., and C. Butler, Understanding Neural Networks: Computer Explorations, Vols. 1 and 2, Cambridge, MA: the МГГ Press, 1992.
    (Этот двухтомник рассчитан на студентов, которые желают получить практические навыки использования нейронных сетей. Он написан как руководство к лабораторным работам для старшекурсников и аспирантов. Приведены программы для IBM и Macintosh.)
  • Charalambous, C.,"Conjugate gradient algorithm for efficient training of artificial neural networks," IEEE Proceedings, vol. 139, no. 3, pp. 301-310, 1992.
  • Chen, S., C. F. N. Cowan, and P. M. Grant, "Orthogonal least squares learning algorithm for radial basis function networks," IEEE Transactions on Neural Networks, vol. 2, no. 2, pp. 302-309, 1991.
    (Работа представляет собой отличное введение в теорию радиальных базисных функций.)
  • DARPA Neural Network Study, Lexington, MA: M.I.T. Lincoln Laboratory, 1988.
    (Эта книга представляет собой изложение состояния знаний о нейронных сетях на начало 1988 года. В представлены теоретические основы нейронных сетей и обсуждаются их приложения к решшению различных задач, таких как ассоциативная память, распознавание изображений и речи, рекуррентные сети и многое другое.)
  • Elman, J. L.,"Finding structure in time," Cognitive Science, vol. 14, pp. 179-211, 1990.
    (Эта работа может служить введением к разделу 10 руководства пользователя “Neural Network Toolbox".)
  • Fletcher, R., and С. М. Reeves, "Function minimization by conjugate gradients," Computer Journal, vol. 7, pp. 149-154, 1964.
  • Foresee, F. D., and M. T. Hagan, "Gauss-Newton approximation to Bayesian regularization," Proceedings of the 1997 International Joint Conference on Neural Networks, pages 1930-1935, 1997.
  • Hagan, M.T. and H.B. Demuth, "Neural Networks for Control," Proceedings of the 1999 American Control Conference, San Diego, CA, 1999, pp. 1642-1656.
  • Hagan, M.T., O. De Jesus, and R. Schultz, "Training Recurrent Networks for Filtering and Control," Chapter 12 in Recurrent Neural Networks: Design and Applications, L. Medsker and L.C. Jain, Eds., CRC Press, 1999, pp. 311-340.
  • Hagan, M. Т., and M. Menhaj, "Training feedforward networks with the Marquardt algorithm," IEEE Transactions on Neural Networks, vol. 5, no. 6, pp. 989-993, 1994.
    (В работе впервые представлен алгоритм обучения нейронных сетей Левенберга-Маркарта. Описана теория алгоритма, который обеспечивает увеличение скорости обучения в 10 – 100 раз по сравнению с обычным методом градиентного спуска.)
  • Hagan, M. Т., H. B. Demuth, and M. H. Beale, Neural Network Design, Boston, MA: PWS Publishing, 1996.
    (Книга дает исчерпывающее описание основных типов нейронных сетей и алгоритмов их обучения. Представлен математический анализ сетей, алгоритмов обучения и обсуждаются применения сетей для решения практических инженерных проблем. В книге содержатся демонстрационные программы.)
  • Hunt, K.J., D. Sbarbaro, R. Zbikowski, and PJ. Gawthrop, Neural Networks for Control System - A Survey," Automatica, Vol. 28, 1992, pp. 1083-1112. Kohonen, Т., Self-Organization and Associative Memory, 2nd Edition, Berlin: Springer-Verlag, 1987.
  • Kohonen, Т., Self-Organizing Maps, Second Edition, Berlin: Springer-Verlag, 1997.
    (В книге обсуждается история, основные положения, теория и приложения самоорганизующихся карт.)
  • Lippman, R. P., "An introduction to computing with neural nets," IEEE ASSP Magazine, pp. 4-22, 1987.
    (Работа представляет собой введение в теорию нейронных сетей, которые могут быть использованы для классификации. Показано, каким образом с помощью нейронных сетей могут быть реализованы алгоритмы классификации и кластеризации.)
  • Moller, M. F., "A scaled conjugate gradient algorithm for fast supervised learning," Neural Networks, vol. 6, pp. 525-533, 1993.
  • Murray, R., D. Neumerkel, and D. Sbarbaro, "Neural Networks for Modeling and Control of a Non-linear Dynamic System," Proceedings of the 1992 IEEE International Symposium on Intelligent Control, 1992, pp. 404-409.
  • Nguyen, D., and B. Widrow, "Improving the learning speed of 2-layer neural networks by choosing initial values of the adaptive weights," Proceedings of the International Joint Conference on Neural Networks, vol 3, pp. 21-26, 1990.
  • Powell, M. J. D., "Restart procedures for the conjugate gradient method," Mathematical Programming, vol. 12, pp. 241-254, 1977.
  • Riedmiller, M., and H. Braun, "A direct adaptive method for faster backpropagation learning: The RPROP algorithm," Proceedings of the IEEE International Conference on Neural Networks, 1993.
  • Rosenblatt, F., Principles of Neurodynamics, Washington D.C.: Spartan Press, 1961.
  • Rumelhart, D. E., G. E. Hinton, and R. J. Williams, "Learning internal representations by error propagation,", in D. E. Rumelhart and J. L. McClelland, eds. Parallel Data Processing, vol.1, Cambridge, MA: The M.I.T. Press, pp. 318-362, 1986.
    (Это основополагающая книга по алгоритму обратного распространения ошибки.)
  • Rumelhart, D. E., G. E. Hinton, and R. J. Williams, "Learning representations by back-propagating errors," Nature, vol. 323, pp. 533-536, 1986.
  • Rumelhart, D. E., J. L. McClelland, and the PDF Research Group, eds., Parallel Distributed Processing, Vols. 1 and 2, Cambridge, MArTheM.I.T. Press, 1986.
    (Двухтомник включает несколько разделов, которые могут служить введением в нейронные сети. Разделы написаны различными авторами и в сумме представляют состояние разработок в области нейронных сетей на дату публикации.)
  • Soloway, D. and P.J. Haley, "Neural Generalized Predictive Control," Proceedings of the 1996 IEEE International Symposium on Intelligent Control, 1996, pp. 277-281.
  • Vogl, T. P., J. K. Mangis, A. K. Rigler, W. T. Zink, and D. L. Alkon, "Accelerating the convergence of the backpropagation method," Biological Cybernetics, vol. 59, pp. 256-264, 1988.
  • Wasserman, P. D., Advanced Methods in Neural Computing, New York: Van Nostrand Reinhold, 1993.
  • Widrow, В., and M. E. Hoff, "Adaptive switching circuits," 1960IRE WESCON Convention Record, New York IRE, pp. 96-104, 1960.
  • Widrow, В., and S. D. Sterns, Adaptive Signal Processing, New York: Prentice-Hall, 1985.
    (Это основная работа по адаптивной обработке сигналов.)
  • S.Haykin, Neural Networks: A Comprehensive Foundation New York: Prentice Hall Press, 1998.
  • Christopher M. Bishop, Neural Networks for Pattern Recognition, Oxford Univ. Press, 1995.
  • F. Laurene, Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Prentice Hall, 1994.
  • K.Swingler, Applying Neural Networks, A Practical Guide, Academic Press, 1996.
  • Brian D. Ripley, Pattern recognition and Neural Networks, Cambridge University Press, 1996
  • А.Н.Горбань, Обучение нейронных сетей, М.: СП ПараГраф, 1991
  • А.Н.Горбань, В.Л.Дунин-Барковский, А.Н.Кардин и др. Нейроинформатика, Отв. Ред. Новиков Е.А., РАН, Сиб. Отд., Институт выч. Моделирования – Новосибирск: Наука, 1998.
  • Ф. Уоссерман, Нейрокомпьютерная техника: Теория и практика, М. Мир, 1992.

 

Информацию о других книгах и статьях данной тематики, пожалуйста, направляйте по e-mail matlab@exponenta.ru.


Поиск по сайту:

Система Orphus

Яндекс.Метрика