Skip to main content

Maschinelles Lernen: Deep Learning mit neuronalen Netzen

  • Chapter
  • First Online:
Grundkurs Informatik

Zusammenfassung

Dieses Kapitel bietet eine kurze Einführung in das immer populärer werdende Gebiet des maschinellen Lernens, mit Fokus auf neuronalen Netzen. Maschinelles Lernen ist ein Teilgebiet der künstlichen Intelligenz (KI), das sich mit Algorithmen befasst, mit denen auf Basis von Beispielen (Trainingsdaten) erwünschtes Verhalten automatisiert vom System erlernt werden kann. Dies ist ein sehr weites Feld, weswegen hier nur auf Grundlagen eingegangen werden kann. Zur Vertiefung bietet sich einschlägige Literatur an: Ein Klassiker zur Einführung in die künstliche Intelligenz ist das Buch von Russel und Norvig [Rus10]. Neuere Entwicklungen im Bereich des maschinellen Lernens sind dort allerdings bisher nicht abgedeckt. Moderner ist [Ert16]. Ebenfalls breit aufgestellt, aber mit einem Schwerpunkt auf Anwendungen in Computerspielen ist [Mil19].

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 39.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  • [Agg18] C. Aggarwal. Neural Networks and Deep Learning: A Textbook. Springer, 2018.

    Google Scholar 

  • [Bis06] C. Bishop. Pattern Recognition and Machine Learning. Springer, 2006.

    Google Scholar 

  • [Bru05] Bruce. Bella the Saint-Hubert Bloodhound relaxes. https://commons.wikimedia.org/wiki/File:Bella_the_Saint-Hubert_Bloodhound_relaxes.jpg, 2005. CC BY 2.0: https://creativecommons.org/licenses/by/2.0/legalcode.

  • [Cyb89] G. Cybenko. Approximation by superpositions of a sigmoidal function. Mathematics of Control, Signals and Systems, 2(4):303–314, 1989.

    Google Scholar 

  • [Dar] Darknet: Open Source Neural Networks in C. https://pjreddie.com/darknet/.

  • [Dua17] D. Dua und C. Graff. UCI Machine Learning Repository, 2017. Univ. of California, Irvine, School of Information and Computer Sciences, http://archive.ics.uci.edu/ml.

  • [Duc11] J. Duchi, E. Hazan und Y. Singer. Adaptive Subgradient Methods for Online Learning and Stochastic Optimization. J. Mach. Learn. Res., 12:2121–2159, Juli 2011.

    Google Scholar 

  • [Dud00] R. Duda, P. Hart und D. Stork. Pattern Classification. Wiley-Interscience, 2. Aufl., 2000.

    Google Scholar 

  • [Ert16] W. Ertel. Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. Springer Vieweg, 4. Aufl., 2016.

    Google Scholar 

  • [Fro19] J. Frochte. Maschinelles Lernen: Grundlagen und Algorithmen in Python. Hanser, 2. Aufl., 2019.

    Google Scholar 

  • [Fry19] H. Fry. Hello World: Was Algorithmen können und wie sie unser Leben verändern. C.H.Beck, 2. Aufl., 2019.

    Google Scholar 

  • [Fuk82] K. Fukushima und S. Miyake. Neocognitron: A new algorithm for pattern recognition tolerant of deformations and shifts in position. Pattern Recognition, 15(6):455 – 469, 1982.

    Google Scholar 

  • [Gew] Gewissensbits: Fallbeispiele zu Informatik und Ethik. https://gewissensbits.gi.de.

  • [Gir14] R. Girshick, J. Donahue, T. Darrell und J. Malik. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. In Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, CVPR ’14, S. 580–587. IEEE Computer Society, USA, 2014.

    Google Scholar 

  • [Goo17] I. Goodfellow, Y. Bengio und A. Courville. Deep Learning. MIT Press, 2017.

    Google Scholar 

  • [Gra14] A. Graves, G. Wayne und I. Danihelka. Neural Turing Machines, 2014. ar-Xiv:abs/1410.5401.

    Google Scholar 

  • [Han11] J. Han, M. Kamber und J. Pei. Data Mining: Concepts and Techniques. Morgan Kaufmann, 3. Aufl., 2011.

    Google Scholar 

  • [Han17] B. Hanin und M. Sellke. Approximating Continuous Functions by ReLU Nets of Minimal Width, 2017. arXiv:abs/1710.11278.

    Google Scholar 

  • [Has09] T. Hastie, R. Tibshirani und J. Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Springer, 2. Aufl., 2009.

    Google Scholar 

  • [He15] K. He, X. Zhang, S. Ren und J. Sun. Deep Residual Learning for Image Recognition, 2015. arXiv:abs/1512.03385.

    Google Scholar 

  • [Hoc97] S. Hochreiter und J. Schmidhuber. Long Short-Term Memory. Neural Computation, 9(8):1735–1780, 1997.

    Google Scholar 

  • [Hor89] K. Hornik, M. Stinchcombe und H. White. Multilayer Feedforward Networks are Universal Approximators. Neural Networks, 2(5):359 – 366, 1989.

    Google Scholar 

  • [Hor91] K. Hornik. Approximation Capabilities of Multilayer Feedforward Networks. Neural Networks, 4(2):251 – 257, 1991.

    Google Scholar 

  • [Ima] ImageNet. http://image-net.org/.

  • [Kag] Kaggle. https://www.kaggle.com/.

  • [Kai16] L. Kaiser und I. Sutskever. Neural GPUs Learn Algorithms. In Y. Bengio und Y. LeCun, Hg., 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings. 2016.

    Google Scholar 

  • [Kin14] D. Kingma und J. Ba. Adam: A Method for Stochastic Optimization. In 3rd International Conference on Learning Representations. 2014.

    Google Scholar 

  • [Kri17] A. Krizhevsky, I. Sutskever und G. E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. Commun. ACM, 60(6):84–90, Mai 2017.

    Google Scholar 

  • [LeC98] Y. LeCun, L. Bottou, Y. Bengio und P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11):2278–2324, Nov 1998.

    Google Scholar 

  • [LeC15] Y. LeCun, Y. Bengio und G. Hinton. Deep learning. Nature, 521(7553):436–444, 2015.

    Google Scholar 

  • [Liu16] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu und A. C. Berg. SSD: Single Shot MultiBox Detector. In B. Leibe, J. Matas, N. Sebe und M. Welling, Hg., Computer Vision – ECCV 2016, S. 21–37. Springer International Publishing, Cham, 2016.

    Google Scholar 

  • [Lu17] Z. Lu, H. Pu, F. Wang, Z. Hu und L. Wang. The Expressive Power of Neural Networks: A View from the Width. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan und R. Garnett, Hg., Advances in Neural Information Processing Systems 30, S. 6231–6239. Curran Associates, Inc., 2017.

    Google Scholar 

  • [Mak89] Makhoul, El-Jaroudi und Schwartz. Formation of disconnected decision regions with a single hidden layer. In International 1989 Joint Conference on Neural Networks, S. 455–460 vol.1. 1989.

    Google Scholar 

  • [McC43] W. McCulloch und W. Pitts. A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5:127–147, 1943.

    Google Scholar 

  • [Mil19] I. Millington und J. Funge. Artificial Intelligence for Games. Taylor & Francis, 3. Aufl., 2019.

    Google Scholar 

  • [Neta] Netzmodelle: Model Zoo. https://github.com/BVLC/caffe/wiki/Model-Zoo.

  • [Netb] Netzmodelle: Tensorflow Models. https://github.com/tensorflow/models.

  • [Nie03] H. Niemann. Klassifikation von Mustern. Eigenverlag, 2. Aufl., 2003. http://www5.informatik.uni-erlangen.de/fileadmin/Persons/NiemannHeinrich/klassifikation-von-mustern/m00links.html.

  • [Nod07] Noddy93. Neuron (deutsch)-1. https://commons.wikimedia.org/wiki/File:Neuron_(deutsch)-1.svg, 2007. CC BY-SA 3.0: https://creativecommons.org/licenses/by-sa/3.0/legalcode

  • [Pér19] J. Pérez, J. Marinkovic und P. Barceló. On the Turing Completeness of Modern Neural Network Architectures. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019.

    Google Scholar 

  • [Pyta] Python. https://www.python.org/.

  • [PyTb] PyTorch. https://pytorch.org.

    Google Scholar 

  • [Red16] J. Redmon, S. Divvala, R. Girshick und A. Farhadi. You Only Look Once: Unified, Real-Time Object Detection. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), S. 779–788. June 2016.

    Google Scholar 

  • [Red17] J. Redmon und A. Farhadi. YOLO9000: Better, Faster, Stronger. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), S. 6517–6525. July 2017.

    Google Scholar 

  • [Red18] J. Redmon und A. Farhadi. YOLOv3: An Incremental Improvement, 2018. ar-Xiv:abs/1804.02767.

    Google Scholar 

  • [Ros58] F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6):386–408, 1958.

    Google Scholar 

  • [Rus10] S. Russell und P. Norvig. Artificial Intelligence. Prentice Hall, 3. Aufl., 2010.

    Google Scholar 

  • [Sch15] J. Schmidhuber. Deep learning in neural networks: An overview. Neural Networks, 61:85 – 117, 2015. Preprint: https://arxiv.org/abs/1404.7828.

  • [Sci] Scikit-Learn. https://scikit-learn.org.

  • [Sie92] H. T. Siegelmann und E. D. Sontag. On the Computational Power of Neural Nets. In Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT ’92, S. 440–449. Association for Computing Machinery, New York, NY, USA, 1992.

    Google Scholar 

  • [Sie95] H. T. Siegelmann und E. D. Sontag. On the Computational Power of Neural Nets. J. Comput. Syst. Sci., 50(1):132–150, Febr. 1995.

    Google Scholar 

  • [Sta] StackExchange, Drawing a convolution with tikz. https://tex.stackexchange.com/questions/437007/drawing-a-convolution-with-tikz.

  • [Ten] TensorFlow. https://www.tensorflow.org/.

  • [Vas17] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser und I. Polosukhin. Attention is All you Need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan und R. Garnett, Hg., Advances in Neural Information Processing Systems 30, S. 5998–6008. Curran Associates, Inc., 2017.

    Google Scholar 

  • [Wen19] M. Wenninger, S. P. Bayerl, J. Schmidt und K. Riedhammer. Timage – A Robust Time Series Classification Pipeline. In I. V. Tetko, V. K°urková, P. Karpov und F. Theis, Hg., Artificial Neural Networks and Machine Learning – ICANN 2019: Text and Time Series, S. 450–461. Springer International Publishing, Cham, 2019.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Hartmut Ernst .

Rights and permissions

Reprints and permissions

Copyright information

© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Ernst, H., Schmidt, J., Beneken, G. (2020). Maschinelles Lernen: Deep Learning mit neuronalen Netzen. In: Grundkurs Informatik. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-30331-0_18

Download citation

Publish with us

Policies and ethics