دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 3
نویسندگان: Jörg Frochte
سری:
ISBN (شابک) : 9783446461444, 9783446463554
ناشر: Hanser
سال نشر: 2021
تعداد صفحات: 616
زبان: German
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 99 مگابایت
در صورت تبدیل فایل کتاب Maschinelles Lernen - Grundlagen und Algorithmen in Python به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری ماشین - مبانی و الگوریتم ها در پایتون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
1 Einleitung 2 Maschinelles Lernen – Überblick und Abgrenzung 2.1 Lernen, was bedeutet das eigentlich? 2.2 Künstliche Intelligenz, Data Mining und Knowledge Discovery in Databases 2.3 Strukturierte und unstrukturierte Daten in Big und Small 2.4 Überwachtes, unüberwachtes und bestärkendes Lernen 2.5 Werkzeuge und Ressourcen 2.6 Anforderungen im praktischen Einsatz 3 Python, NumPy, SciPy und Matplotlib – in a nutshell 3.1 Installation mittels Anaconda und die Spyder-IDE 3.2 Python-Grundlagen 3.3 Matrizen und Arrays in NumPy 3.4 Interpolation und Extrapolation von Funktionen mit SciPy 3.5 Daten aus Textdateien laden und speichern 3.6 Visualisieren mit der Matplotlib 3.7 Performance-Probleme und Vektorisierung 4 Statistische Grundlagen und Bayes-Klassifikator 4.1 Einige Grundbegriffe der Statistik 4.2 Satz von Bayes und Skalenniveaus 4.3 Bayes-Klassifikator, Verteilungen und Unabhängigkeit 5 Lineare Modelle und Lazy Learning 5.1 Vektorräume, Metriken und Normen 5.2 Methode der kleinsten Quadrate zur Regression 5.3 Der Fluch der Dimensionalität 5.4 k-Nearest-Neighbor-Algorithmus 6 Entscheidungsbäume 6.1 Bäume als Datenstruktur 6.2 Klassifikationsbäume für nominale Merkmale mit dem ID3-Algorithmus 6.3 Klassifikations- und Regressionsbäume für quantitative Merkmale 6.4 Overfitting und Pruning 7 Ein- und mehrschichtige Feedforward-Netze 7.1 Einlagiges Perzeptron und Hebbsche Lernregel 7.2 Multilayer Perceptron und Gradientenverfahren 7.3 Klassifikation und One-Hot-Codierung 7.4 Auslegung, Lernsteuerung und Overfitting 8 Deep Neural Networks mit Keras 8.1 Sequential Model von Keras 8.2 Verschwindender Gradient und weitere Aktivierungsfunktionen 8.3 Initialisierung und Batch Normalization 8.4 Loss-Function und Optimierungsalgorithmen 8.5 Overfitting und Regularisierungstechniken 9 Feature-Engineering und Datenanalyse 9.1 Pandas in a Nutshell 9.2 Aufbereitung von Daten und Imputer 9.3 Featureauswahl 9.4 Hauptkomponentenanalyse (PCA) 9.5 Autoencoder 9.6 Aleatorische und epistemische Unsicherheiten 9.7 Umgang mit unbalancierten Datenbeständen 10 Ensemble Learning mittels Bagging und Boosting 10.1 Bagging und Random Forest 10.2 Feature Importance mittels Random Forest 10.3 Gradient Boosting 11 Convolutional Neural Networks mit Keras 11.1 Grundlagen und eindimensionale Convolutional Neural Networks 11.2 Convolutional Neural Networks für Bilder 11.3 Data Augmentation und Flow-Verarbeitung 11.4 Class Activation Maps und Grad-CAM 11.5 Transfer Learning 11.6 Ausblicke Continual Learning und Object Detection 12 Support Vector Machines 12.1 Optimale Separation 12.2 Soft-Margin für nicht-linear separierbare Klassen 12.3 Kernel-Ansätze 12.4 SVM in scikit-learn 13 Clustering-Verfahren 13.1 k-Means und k-Means++ 13.2 Fuzzy-C-Means 13.3 Dichte-basierte Cluster-Analyse mit DBSCAN 13.4 Hierarchische Clusteranalyse 13.5 Evaluierung von Clustern und Praxisbeispiel Clustern von Ländern 13.6 Schlecht gestellte Probleme und Clusterverfahren 14 Grundlagen des bestärkenden Lernens 14.1 Software-Agenten und ihre Umgebung 14.2 Markow-Entscheidungsproblem 14.3 Q-Learning 14.4 Unvollständige Informationen und Softmax 14.5 Der SARSA-Algorithmus 15 Fortgeschrittene Themen des bestärkenden Lernens 15.1 Experience Replay und Batch Reinforcement Learning 15.2 Q-Learning mit neuronalen Netzen 15.3 Double Q-Learning 15.4 Credit Assignment und Belohnungen in endlichen Spielen 15.5 Inverse Reinforcement Learning 15.6 Deep Q-Learning 15.7 Hierarchical Reinforcement Learning 15.8 Model-based Reinforcement Learning 15.9 Multi-Agenten-Szenarien Literatur Index