ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب The Unsupervised Learning Workshop: Get started with unsupervised learning algorithms and simplify your unorganized data to help make future predictions

دانلود کتاب کارگاه آموزشی بدون نظارت: با الگوریتم های یادگیری بدون نظارت شروع کنید و داده های سازمان نیافته خود را برای کمک به پیش بینی های آینده ساده کنید.

The Unsupervised Learning Workshop: Get started with unsupervised learning algorithms and simplify your unorganized data to help make future predictions

مشخصات کتاب

The Unsupervised Learning Workshop: Get started with unsupervised learning algorithms and simplify your unorganized data to help make future predictions

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 1800200706, 9781800200708 
ناشر: Packt Publishing 
سال نشر: 2020 
تعداد صفحات: 0 
زبان: English 
فرمت فایل : EPUB (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 39 مگابایت 

قیمت کتاب (تومان) : 46,000

در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 13


در صورت تبدیل فایل کتاب The Unsupervised Learning Workshop: Get started with unsupervised learning algorithms and simplify your unorganized data to help make future predictions به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب کارگاه آموزشی بدون نظارت: با الگوریتم های یادگیری بدون نظارت شروع کنید و داده های سازمان نیافته خود را برای کمک به پیش بینی های آینده ساده کنید. نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب کارگاه آموزشی بدون نظارت: با الگوریتم های یادگیری بدون نظارت شروع کنید و داده های سازمان نیافته خود را برای کمک به پیش بینی های آینده ساده کنید.



یادگیری نحوه اعمال الگوریتم‌های بدون نظارت بر روی مجموعه داده‌های بدون برچسب از ابتدا می‌تواند آسان‌تر از آنچه فکر می‌کردید با این کارگاه مبتدی، شامل مثال‌ها و فعالیت‌های جالب باشد

ویژگی‌های کلیدی

  • با اکوسیستم الگوریتم‌های بدون نظارت آشنا شوید
  • روش‌های جالب برای ساده‌سازی حجم زیادی از داده‌های سازمان‌یافته را بیاموزید
  • مقابله با چالش‌های دنیای واقعی، مانند برآورد تراکم جمعیت از یک منطقه جغرافیایی

توضیحات کتاب

آیا درک اینکه چگونه شرکت‌های محبوبی مانند واتس‌اپ و آمازون بینش‌های ارزشمندی را از حجم زیادی از داده‌های سازمان‌یافته به دست می‌آورند برای شما دشوار است؟ کارگاه آموزشی بدون نظارت به شما اعتماد به نفس می دهد تا با مجموعه داده های به هم ریخته و بدون برچسب، با استفاده از الگوریتم های نظارت نشده به شیوه ای آسان و تعاملی مقابله کنید.

این کتاب با معرفی محبوب‌ترین الگوریتم‌های خوشه‌بندی یادگیری بدون نظارت شروع می‌شود. شما متوجه خواهید شد که چگونه خوشه بندی سلسله مراتبی با k-means متفاوت است، همراه با درک نحوه اعمال DBSCAN برای داده های بسیار پیچیده و پر سر و صدا. در ادامه، از رمزگذارهای خودکار برای رمزگذاری کارآمد داده ها استفاده خواهید کرد.

هنگام پیشرفت، از مدل‌های t-SNE برای استخراج اطلاعات با ابعاد بالا در ابعاد پایین‌تر برای تجسم بهتر، علاوه بر کار با مدل‌سازی موضوع برای اجرای پردازش زبان طبیعی (NLP) استفاده می‌کنید. در فصل‌های بعدی، روابط کلیدی بین مشتریان و کسب‌وکارها را با استفاده از تجزیه و تحلیل سبد بازار پیدا خواهید کرد، قبل از اینکه به استفاده از تجزیه و تحلیل نقاط مهم برای تخمین تراکم جمعیت یک منطقه بروید.

در پایان این کتاب، به مهارت‌هایی مجهز می‌شوید که برای استفاده از الگوریتم‌های بدون نظارت بر روی مجموعه داده‌های بهم ریخته برای یافتن الگوها و بینش‌های مفید نیاز دارید.

آنچه خواهید آموخت< /h4>

  • بین خوشه‌بندی سلسله مراتبی و الگوریتم k-means تمایز قائل شوید
  • درک فرآیند یافتن خوشه‌ها در داده‌ها
  • تکنیک‌های جالب برای کاهش اندازه داده‌ها را درک کنید.
  • استفاده از رمزگذارهای خودکار برای رمزگشایی داده ها
  • استخراج متن از مجموعه بزرگی از اسناد با استفاده از مدل سازی موضوع
  • یک مدل کیسه ای از کلمات با استفاده از CountVetorizer ایجاد کنید
  • li>

این کتاب برای چه کسی است

اگر شما یک دانشمند داده هستید که به تازگی شروع به کار کرده اید و می خواهید نحوه پیاده سازی الگوریتم های یادگیری ماشینی برای ساخت مدل های پیش بینی را بیاموزید، پس این کتاب برای تو است. برای تسریع فرآیند یادگیری، درک کاملی از زبان برنامه نویسی پایتون توصیه می شود، زیرا به جای ایجاد کلاس ها و توابع از ابتدا، آنها را ویرایش می کنید.

فهرست محتوا

  1. مقدمه ای بر خوشه بندی
  2. خوشه بندی سلسله مراتبی
  3. رویکردهای همسایگی و DBSCAN
  4. تکنیک های کاهش ابعاد و PCA
  5. رمزگذارهای خودکار
  6. t-Distributed Stochastic Neighbor Embedding
  7. مدلسازی موضوع
  8. تجزیه و تحلیل سبد بازار
  9. تحلیل نقطه کانونی

توضیحاتی درمورد کتاب به خارجی

Learning how to apply unsupervised algorithms on unlabeled datasets from scratch can be easier than you thought with this beginner's workshop, featuring interesting examples and activities

Key Features

  • Get familiar with the ecosystem of unsupervised algorithms
  • Learn interesting methods to simplify large amounts of unorganized data
  • Tackle real-world challenges, such as estimating the population density of a geographical area

Book Description

Do you find it difficult to understand how popular companies like WhatsApp and Amazon find valuable insights from large amounts of unorganized data? The Unsupervised Learning Workshop will give you the confidence to deal with cluttered and unlabeled datasets, using unsupervised algorithms in an easy and interactive manner.

The book starts by introducing the most popular clustering algorithms of unsupervised learning. You'll find out how hierarchical clustering differs from k-means, along with understanding how to apply DBSCAN to highly complex and noisy data. Moving ahead, you'll use autoencoders for efficient data encoding.

As you progress, you'll use t-SNE models to extract high-dimensional information into a lower dimension for better visualization, in addition to working with topic modeling for implementing natural language processing (NLP). In later chapters, you'll find key relationships between customers and businesses using Market Basket Analysis, before going on to use Hotspot Analysis for estimating the population density of an area.

By the end of this book, you'll be equipped with the skills you need to apply unsupervised algorithms on cluttered datasets to find useful patterns and insights.

What you will learn

  • Distinguish between hierarchical clustering and the k-means algorithm
  • Understand the process of finding clusters in data
  • Grasp interesting techniques to reduce the size of data
  • Use autoencoders to decode data
  • Extract text from a large collection of documents using topic modeling
  • Create a bag-of-words model using the CountVectorizer

Who this book is for

If you are a data scientist who is just getting started and want to learn how to implement machine learning algorithms to build predictive models, then this book is for you. To expedite the learning process, a solid understanding of the Python programming language is recommended, as you'll be editing classes and functions instead of creating them from scratch.

Table of Contents

  1. Introduction to Clustering
  2. Hierarchical Clustering
  3. Neighborhood Approaches and DBSCAN
  4. Dimensionality Reduction Techniques and PCA
  5. Autoencoders
  6. t-Distributed Stochastic Neighbor Embedding
  7. Topic Modeling
  8. Market Basket Analysis
  9. Hotspot Analysis


فهرست مطالب

Cover
FM
Copyright
Table of Contents
Preface
Chapter 1: Introduction to Clustering
	Introduction
	Unsupervised Learning versus Supervised Learning
	Clustering
		Identifying Clusters
		Two-Dimensional Data
		Exercise 1.01: Identifying Clusters in Data
	Introduction to k-means Clustering
		No-Math k-means Walkthrough
		K-means Clustering In-Depth Walkthrough
		Alternative Distance Metric – Manhattan Distance
		Deeper Dimensions
		Exercise 1.02: Calculating Euclidean Distance in Python
		Exercise 1.03: Forming Clusters with the Notion of Distance
		Exercise 1.04: K-means from Scratch – Part 1: Data Generation
		Exercise 1.05: K-means from Scratch – Part 2: Implementing k-means
		Clustering Performance – Silhouette Score
		Exercise 1.06: Calculating the Silhouette Score
		Activity 1.01: Implementing k-means Clustering
	Summary
Chapter 2: Hierarchical Clustering
	Introduction
	Clustering Refresher
		The k-means Refresher
	The Organization of the Hierarchy
	Introduction to Hierarchical Clustering
		Steps to Perform Hierarchical Clustering
		An Example Walkthrough of Hierarchical Clustering
		Exercise 2.01: Building a Hierarchy
	Linkage
		Exercise 2.02: Applying Linkage Criteria
	Agglomerative versus Divisive Clustering
		Exercise 2.03: Implementing Agglomerative Clustering with scikit-learn
		Activity 2.01: Comparing k-means with Hierarchical Clustering
	k-means versus Hierarchical Clustering
	Summary
Chapter 3: Neighborhood Approaches and DBSCAN
	Introduction
	Clusters as Neighborhoods
	Introduction to DBSCAN
		DBSCAN in Detail
		Walkthrough of the DBSCAN Algorithm
		Exercise 3.01: Evaluating the Impact of Neighborhood Radius Size
		DBSCAN Attributes – Neighborhood Radius
		Activity 3.01: Implementing DBSCAN from Scratch
		DBSCAN Attributes – Minimum Points
		Exercise 3.02: Evaluating the Impact of the Minimum Points Threshold
		Activity 3.02: Comparing DBSCAN with k-means and Hierarchical Clustering
	DBSCAN versus k-means and Hierarchical Clustering
	Summary
Chapter 4: Dimensionality Reduction Techniques and PCA
	Introduction
	What Is Dimensionality Reduction?
		Applications of Dimensionality Reduction
		The Curse of Dimensionality
	Overview of Dimensionality Reduction Techniques
		Dimensionality Reduction
	Principal Component Analysis
		Mean
		Standard Deviation
		Covariance
		Covariance Matrix
		Exercise 4.01: Computing Mean, Standard Deviation, and Variance Using the pandas Library
		Eigenvalues and Eigenvectors
		Exercise 4.02: Computing Eigenvalues and Eigenvectors
		The Process of PCA
		Exercise 4.03: Manually Executing PCA
		Exercise 4.04: scikit-learn PCA
		Activity 4.01: Manual PCA versus scikit-learn
		Restoring the Compressed Dataset
		Exercise 4.05: Visualizing Variance Reduction with Manual PCA
		Exercise 4.06: Visualizing Variance Reduction with scikit-learn
		Exercise 4.07: Plotting 3D Plots in Matplotlib
		Activity 4.02: PCA Using the Expanded Seeds Dataset
	Summary
Chapter 5: Autoencoders
	Introduction
	Fundamentals of Artificial Neural Networks
		The Neuron
		The Sigmoid Function
		Rectified Linear Unit (ReLU)
		Exercise 5.01: Modeling the Neurons of an Artificial Neural Network
		Exercise 5.02: Modeling Neurons with the ReLU Activation Function
		Neural Networks: Architecture Definition
		Exercise 5.03: Defining a Keras Model
		Neural Networks: Training
		Exercise 5.04: Training a Keras Neural Network Model
		Activity 5.01: The MNIST Neural Network
	Autoencoders
		Exercise 5.05: Simple Autoencoder
		Activity 5.02: Simple MNIST Autoencoder
		Exercise 5.06: Multi-Layer Autoencoder
		Convolutional Neural Networks
		Exercise 5.07: Convolutional Autoencoder
		Activity 5.03: MNIST Convolutional Autoencoder
	Summary
Chapter 6: t-Distributed Stochastic Neighbor Embedding
	Introduction
	The MNIST Dataset
	Stochastic Neighbor Embedding (SNE)
	t-Distributed SNE
		Exercise 6.01: t-SNE MNIST
		Activity 6.01: Wine t-SNE
	Interpreting t-SNE Plots
		Perplexity
		Exercise 6.02: t-SNE MNIST and Perplexity
		Activity 6.02: t-SNE Wine and Perplexity
		Iterations
		Exercise 6.03: t-SNE MNIST and Iterations
		Activity 6.03: t-SNE Wine and Iterations
		Final Thoughts on Visualizations
	Summary
Chapter 7: Topic Modeling
	Introduction
	Topic Models
		Exercise 7.01: Setting up the Environment
		A High-Level Overview of Topic Models
		Business Applications
		Exercise 7.02: Data Loading
	Cleaning Text Data
		Data Cleaning Techniques
		Exercise 7.03: Cleaning Data Step by Step
		Exercise 7.04: Complete Data Cleaning
		Activity 7.01: Loading and Cleaning Twitter Data
	Latent Dirichlet Allocation
		Variational Inference
		Bag of Words
		Exercise 7.05: Creating a Bag-of-Words Model Using the Count Vectorizer
		Perplexity
		Exercise 7.06: Selecting the Number of Topics
		Exercise 7.07: Running LDA
		Visualization
		Exercise 7.08: Visualizing LDA
		Exercise 7.09: Trying Four Topics
		Activity 7.02: LDA and Health Tweets
		Exercise 7.10: Creating a Bag-of-Words Model Using TF-IDF
	Non-Negative Matrix Factorization
		The Frobenius Norm
		The Multiplicative Update Algorithm
		Exercise 7.11: Non-negative Matrix Factorization
		Exercise 7.12: Visualizing NMF
		Activity 7.03: Non-negative Matrix Factorization
	Summary
Chapter 8: Market Basket Analysis
	Introduction
	Market Basket Analysis
		Use Cases
		Important Probabilistic Metrics
		Exercise 8.01: Creating Sample Transaction Data
		Support
		Confidence
		Lift and Leverage
		Conviction
		Exercise 8.02: Computing Metrics
	Characteristics of Transaction Data
		Exercise 8.03: Loading Data
		Data Cleaning and Formatting
		Exercise 8.04: Data Cleaning and Formatting
		Data Encoding
		Exercise 8.05: Data Encoding
		Activity 8.01: Loading and Preparing Full Online Retail Data
	The Apriori Algorithm
		Computational Fixes
		Exercise 8.06: Executing the Apriori Algorithm
		Activity 8.02: Running the Apriori Algorithm on the Complete Online Retail Dataset
	Association Rules
		Exercise 8.07: Deriving Association Rules
		Activity 8.03: Finding the Association Rules on the Complete Online Retail Dataset
	Summary
Chapter 9: Hotspot Analysis
	Introduction
	Spatial Statistics
		Probability Density Functions
		Using Hotspot Analysis in Business
	Kernel Density Estimation
		The Bandwidth Value
		Exercise 9.01: The Effect of the Bandwidth Value
		Selecting the Optimal Bandwidth
		Exercise 9.02: Selecting the Optimal Bandwidth Using Grid Search
		Kernel Functions
		Exercise 9.03: The Effect of the Kernel Function
		Kernel Density Estimation Derivation
		Exercise 9.04: Simulating the Derivation of Kernel Density Estimation
		Activity 9.01: Estimating Density in One Dimension
	Hotspot Analysis
		Exercise 9.05: Loading Data and Modeling with Seaborn
		Exercise 9.06: Working with Basemaps
		Activity 9.02: Analyzing Crime in London
	Summary
Appendix
Index




نظرات کاربران