ON THE GRADIENT OF NEURONETWORK FUNCTION

Cover Page

Cite item

Full Text

Abstract

The paper proposes a matrix formula for the gradient of neuronetwork function ∇Wf(X;W) with respect to the parameter vector W .

About the authors

Nikolay Mikhailovich Mishachev

Lipetsk State Technical University

Email: nmish@lipetsk.ru
Candidate of Physics and Mathematics, Associate Professor of the Higher Mathematics Department Lipetsk, the Russian Federation

Anatoliy Mikhailovich Shmyrin

Lipetsk State Technical University

Email: amsh@lipetsk.ru
Doctor of Techniques, Professor, the Head of the Higher Mathematics Department Lipetsk, the Russian Federation

References

  1. Хайкин С. С. Нейронные сети: полный курс. М.: Вильямс, 2006.
  2. Rumelhart D.E., Hinton G.E., Williams R.J. Learning Internal Representations by Error Propagation // Parallel Distributed Processing, Cambridge: MA, MIT Press. 1986. V. 1. P. 318-362.

Supplementary files

Supplementary Files
Action
1. JATS XML


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).