Anbieter: Ria Christie Collections, Uxbridge, Vereinigtes Königreich
EUR 70,32
Anzahl: Mehr als 20 verfügbar
In den WarenkorbZustand: New. In.
Sprache: Englisch
Verlag: Springer International Publishing, 2018
ISBN 10: 3319753037 ISBN 13: 9783319753034
Anbieter: moluna, Greven, Deutschland
EUR 66,44
Anzahl: Mehr als 20 verfügbar
In den WarenkorbZustand: New.
Sprache: Englisch
Verlag: Springer-Verlag New York Inc, 2018
ISBN 10: 3319753037 ISBN 13: 9783319753034
Anbieter: Revaluation Books, Exeter, Vereinigtes Königreich
EUR 108,22
Anzahl: 2 verfügbar
In den WarenkorbPaperback. Zustand: Brand New. 84 pages. 9.00x6.00x0.25 inches. In Stock.
Anbieter: preigu, Osnabrück, Deutschland
Taschenbuch. Zustand: Neu. Deep Neural Networks in a Mathematical Framework | Anthony L. Caterini (u. a.) | Taschenbuch | xiii | Englisch | 2018 | Springer | EAN 9783319753034 | Verantwortliche Person für die EU: Springer Verlag GmbH, Tiergartenstr. 17, 69121 Heidelberg, juergen[dot]hartmann[at]springer[dot]com | Anbieter: preigu.
Sprache: Englisch
Verlag: Springer, Berlin, Springer, 2018
ISBN 10: 3319753037 ISBN 13: 9783319753034
Anbieter: AHA-BUCH GmbH, Einbeck, Deutschland
Taschenbuch. Zustand: Neu. Druck auf Anfrage Neuware - Printed after ordering - This SpringerBrief describes how to build a rigorous end-to-end mathematical framework for deep neural networks. The authors provide tools to represent and describe neural networks, casting previous results in the field in a more natural light. In particular, the authors derive gradient descent algorithms in a unified way for several neural network structures, including multilayer perceptrons, convolutional neural networks, deep autoencoders and recurrent neural networks. Furthermore, the authors developed framework is both more concise and mathematically intuitive than previous representations of neural networks.This SpringerBrief is one step towards unlocking the black box of Deep Learning. The authors believe that this framework will help catalyze further discoveries regarding the mathematical properties of neural networks.This SpringerBrief is accessible not only to researchers, professionals and students working and studying in the field of deep learning, but alsoto those outside of the neutral network community.