Zusammenfassung
Dieses Kapitel bietet eine kurze Einführung in das immer populärer werdende Gebiet des maschinellen Lernens, mit Fokus auf neuronalen Netzen. Maschinelles Lernen ist ein Teilgebiet der künstlichen Intelligenz (KI), das sich mit Algorithmen befasst, mit denen auf Basis von Beispielen (Trainingsdaten) erwünschtes Verhalten automatisiert vom System erlernt werden kann. Dies ist ein sehr weites Feld, weswegen hier nur auf Grundlagen eingegangen werden kann. Zur Vertiefung bietet sich einschlägige Literatur an: Ein Klassiker zur Einführung in die künstliche Intelligenz ist das Buch von Russel und Norvig [Rus10]. Neuere Entwicklungen im Bereich des maschinellen Lernens sind dort allerdings bisher nicht abgedeckt. Moderner ist [Ert16]. Ebenfalls breit aufgestellt, aber mit einem Schwerpunkt auf Anwendungen in Computerspielen ist [Mil19].
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
[Agg18] C. Aggarwal. Neural Networks and Deep Learning: A Textbook. Springer, 2018.
[Bis06] C. Bishop. Pattern Recognition and Machine Learning. Springer, 2006.
[Bru05] Bruce. Bella the Saint-Hubert Bloodhound relaxes. https://commons.wikimedia.org/wiki/File:Bella_the_Saint-Hubert_Bloodhound_relaxes.jpg, 2005. CC BY 2.0: https://creativecommons.org/licenses/by/2.0/legalcode.
[Cyb89] G. Cybenko. Approximation by superpositions of a sigmoidal function. Mathematics of Control, Signals and Systems, 2(4):303–314, 1989.
[Dar] Darknet: Open Source Neural Networks in C. https://pjreddie.com/darknet/.
[Dua17] D. Dua und C. Graff. UCI Machine Learning Repository, 2017. Univ. of California, Irvine, School of Information and Computer Sciences, http://archive.ics.uci.edu/ml.
[Duc11] J. Duchi, E. Hazan und Y. Singer. Adaptive Subgradient Methods for Online Learning and Stochastic Optimization. J. Mach. Learn. Res., 12:2121–2159, Juli 2011.
[Dud00] R. Duda, P. Hart und D. Stork. Pattern Classification. Wiley-Interscience, 2. Aufl., 2000.
[Ert16] W. Ertel. Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. Springer Vieweg, 4. Aufl., 2016.
[Fro19] J. Frochte. Maschinelles Lernen: Grundlagen und Algorithmen in Python. Hanser, 2. Aufl., 2019.
[Fry19] H. Fry. Hello World: Was Algorithmen können und wie sie unser Leben verändern. C.H.Beck, 2. Aufl., 2019.
[Fuk82] K. Fukushima und S. Miyake. Neocognitron: A new algorithm for pattern recognition tolerant of deformations and shifts in position. Pattern Recognition, 15(6):455 – 469, 1982.
[Gew] Gewissensbits: Fallbeispiele zu Informatik und Ethik. https://gewissensbits.gi.de.
[Gir14] R. Girshick, J. Donahue, T. Darrell und J. Malik. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. In Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, CVPR ’14, S. 580–587. IEEE Computer Society, USA, 2014.
[Goo17] I. Goodfellow, Y. Bengio und A. Courville. Deep Learning. MIT Press, 2017.
[Gra14] A. Graves, G. Wayne und I. Danihelka. Neural Turing Machines, 2014. ar-Xiv:abs/1410.5401.
[Han11] J. Han, M. Kamber und J. Pei. Data Mining: Concepts and Techniques. Morgan Kaufmann, 3. Aufl., 2011.
[Han17] B. Hanin und M. Sellke. Approximating Continuous Functions by ReLU Nets of Minimal Width, 2017. arXiv:abs/1710.11278.
[Has09] T. Hastie, R. Tibshirani und J. Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Springer, 2. Aufl., 2009.
[He15] K. He, X. Zhang, S. Ren und J. Sun. Deep Residual Learning for Image Recognition, 2015. arXiv:abs/1512.03385.
[Hoc97] S. Hochreiter und J. Schmidhuber. Long Short-Term Memory. Neural Computation, 9(8):1735–1780, 1997.
[Hor89] K. Hornik, M. Stinchcombe und H. White. Multilayer Feedforward Networks are Universal Approximators. Neural Networks, 2(5):359 – 366, 1989.
[Hor91] K. Hornik. Approximation Capabilities of Multilayer Feedforward Networks. Neural Networks, 4(2):251 – 257, 1991.
[Ima] ImageNet. http://image-net.org/.
[Kag] Kaggle. https://www.kaggle.com/.
[Kai16] L. Kaiser und I. Sutskever. Neural GPUs Learn Algorithms. In Y. Bengio und Y. LeCun, Hg., 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings. 2016.
[Kin14] D. Kingma und J. Ba. Adam: A Method for Stochastic Optimization. In 3rd International Conference on Learning Representations. 2014.
[Kri17] A. Krizhevsky, I. Sutskever und G. E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. Commun. ACM, 60(6):84–90, Mai 2017.
[LeC98] Y. LeCun, L. Bottou, Y. Bengio und P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11):2278–2324, Nov 1998.
[LeC15] Y. LeCun, Y. Bengio und G. Hinton. Deep learning. Nature, 521(7553):436–444, 2015.
[Liu16] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu und A. C. Berg. SSD: Single Shot MultiBox Detector. In B. Leibe, J. Matas, N. Sebe und M. Welling, Hg., Computer Vision – ECCV 2016, S. 21–37. Springer International Publishing, Cham, 2016.
[Lu17] Z. Lu, H. Pu, F. Wang, Z. Hu und L. Wang. The Expressive Power of Neural Networks: A View from the Width. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan und R. Garnett, Hg., Advances in Neural Information Processing Systems 30, S. 6231–6239. Curran Associates, Inc., 2017.
[Mak89] Makhoul, El-Jaroudi und Schwartz. Formation of disconnected decision regions with a single hidden layer. In International 1989 Joint Conference on Neural Networks, S. 455–460 vol.1. 1989.
[McC43] W. McCulloch und W. Pitts. A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5:127–147, 1943.
[Mil19] I. Millington und J. Funge. Artificial Intelligence for Games. Taylor & Francis, 3. Aufl., 2019.
[Neta] Netzmodelle: Model Zoo. https://github.com/BVLC/caffe/wiki/Model-Zoo.
[Netb] Netzmodelle: Tensorflow Models. https://github.com/tensorflow/models.
[Nie03] H. Niemann. Klassifikation von Mustern. Eigenverlag, 2. Aufl., 2003. http://www5.informatik.uni-erlangen.de/fileadmin/Persons/NiemannHeinrich/klassifikation-von-mustern/m00links.html.
[Nod07] Noddy93. Neuron (deutsch)-1. https://commons.wikimedia.org/wiki/File:Neuron_(deutsch)-1.svg, 2007. CC BY-SA 3.0: https://creativecommons.org/licenses/by-sa/3.0/legalcode
[Pér19] J. Pérez, J. Marinkovic und P. Barceló. On the Turing Completeness of Modern Neural Network Architectures. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019.
[Pyta] Python. https://www.python.org/.
[PyTb] PyTorch. https://pytorch.org.
[Red16] J. Redmon, S. Divvala, R. Girshick und A. Farhadi. You Only Look Once: Unified, Real-Time Object Detection. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), S. 779–788. June 2016.
[Red17] J. Redmon und A. Farhadi. YOLO9000: Better, Faster, Stronger. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), S. 6517–6525. July 2017.
[Red18] J. Redmon und A. Farhadi. YOLOv3: An Incremental Improvement, 2018. ar-Xiv:abs/1804.02767.
[Ros58] F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6):386–408, 1958.
[Rus10] S. Russell und P. Norvig. Artificial Intelligence. Prentice Hall, 3. Aufl., 2010.
[Sch15] J. Schmidhuber. Deep learning in neural networks: An overview. Neural Networks, 61:85 – 117, 2015. Preprint: https://arxiv.org/abs/1404.7828.
[Sci] Scikit-Learn. https://scikit-learn.org.
[Sie92] H. T. Siegelmann und E. D. Sontag. On the Computational Power of Neural Nets. In Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT ’92, S. 440–449. Association for Computing Machinery, New York, NY, USA, 1992.
[Sie95] H. T. Siegelmann und E. D. Sontag. On the Computational Power of Neural Nets. J. Comput. Syst. Sci., 50(1):132–150, Febr. 1995.
[Sta] StackExchange, Drawing a convolution with tikz. https://tex.stackexchange.com/questions/437007/drawing-a-convolution-with-tikz.
[Ten] TensorFlow. https://www.tensorflow.org/.
[Vas17] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser und I. Polosukhin. Attention is All you Need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan und R. Garnett, Hg., Advances in Neural Information Processing Systems 30, S. 5998–6008. Curran Associates, Inc., 2017.
[Wen19] M. Wenninger, S. P. Bayerl, J. Schmidt und K. Riedhammer. Timage – A Robust Time Series Classification Pipeline. In I. V. Tetko, V. K°urková, P. Karpov und F. Theis, Hg., Artificial Neural Networks and Machine Learning – ICANN 2019: Text and Time Series, S. 450–461. Springer International Publishing, Cham, 2019.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Ernst, H., Schmidt, J., Beneken, G. (2020). Maschinelles Lernen: Deep Learning mit neuronalen Netzen. In: Grundkurs Informatik. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-30331-0_18
Download citation
DOI: https://doi.org/10.1007/978-3-658-30331-0_18
Published:
Publisher Name: Springer Vieweg, Wiesbaden
Print ISBN: 978-3-658-30330-3
Online ISBN: 978-3-658-30331-0
eBook Packages: Computer Science and Engineering (German Language)