ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Feature engineering for machine learning: principles and techniques for data scientists

دانلود کتاب مهندسی ویژگی برای یادگیری ماشین: اصول و تکنیک‌ها برای دانشمندان داده

Feature engineering for machine learning: principles and techniques for data scientists

مشخصات کتاب

Feature engineering for machine learning: principles and techniques for data scientists

ویرایش: [First edition] 
نویسندگان: ,   
سری:  
ISBN (شابک) : 9781491953198, 1491953217 
ناشر: O'Reilly Media, Inc. 
سال نشر: 2018 
تعداد صفحات: illustrations 
زبان: English 
فرمت فایل : MOBI (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 37 Mb 

قیمت کتاب (تومان) : 50,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 6


در صورت تبدیل فایل کتاب Feature engineering for machine learning: principles and techniques for data scientists به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مهندسی ویژگی برای یادگیری ماشین: اصول و تکنیک‌ها برای دانشمندان داده نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مهندسی ویژگی برای یادگیری ماشین: اصول و تکنیک‌ها برای دانشمندان داده

مقدمه کپی رایت؛ فهرست مطالب؛ پیشگفتار؛ معرفی؛ قراردادهای استفاده شده در این کتاب؛ با استفاده از نمونه کد؛ اوریلی سافاری; نحوه تماس با ما؛ قدردانی ها؛ تشکر ویژه از آلیس؛ تشکر ویژه از آماندا؛ فصل 1. خط لوله یادگیری ماشین. داده ها؛ وظایف؛ مدل ها؛ امکانات؛ ارزیابی مدل; فصل 2. ترفندهای فانتزی با اعداد ساده. اسکالرها، بردارها و فضاها. برخورد با شمارش؛ دوتایی سازی؛ Quantization یا Binning. تبدیل ورود به سیستم; ورود به سیستم تبدیل در عمل. تبدیل قدرت: تعمیم تبدیل لاگ. مقیاس بندی یا عادی سازی ویژگی. مقیاس‌بندی حداقل حداکثری؛ \"مهندسی ویژگی یک گام مهم در خط لوله یادگیری ماشینی است، اما این موضوع به ندرت به تنهایی مورد بررسی قرار می‌گیرد. با این کتاب کاربردی، تکنیک‌هایی را برای استخراج و تبدیل ویژگی‌ها - نمایش‌های عددی یاد خواهید گرفت. داده‌های خام - در قالب‌هایی برای مدل‌های یادگیری ماشینی. هر فصل شما را از طریق یک مسئله داده‌ای منفرد، مانند نحوه نمایش داده‌های متن یا تصویر راهنمایی می‌کند. این مثال‌ها با هم، اصول اصلی مهندسی ویژگی‌ها را نشان می‌دهند. به جای آموزش ساده اینها. نویسندگان آلیس ژنگ و آماندا کاساری بر روی کاربرد عملی با تمرین‌هایی در سراسر کتاب تمرکز می‌کنند. فصل پایانی با پرداختن به یک مجموعه داده واقعی و ساختار یافته با چندین تکنیک مهندسی ویژگی، همه چیز را گرد هم می‌آورد. بسته‌های پایتون شامل numpy، Pandas، Scikit-learn و Matplotlib در نمونه‌های کد استفاده می‌شوند. شما این موارد را بررسی خواهید کرد: مهندسی ویژگی برای داده‌های عددی: فیلتر کردن، باینینگ، مقیاس‌بندی، تبدیل‌های گزارش و تبدیل قدرت تکنیک‌های متن طبیعی: کیسه‌ای از کلمات، n-گرم، و تشخیص عبارات فرکانس فیلترینگ مبتنی بر و مقیاس‌بندی ویژگی برای حذف ویژگی‌های غیر اطلاعاتی تکنیک‌های رمزگذاری متغیرهای طبقه‌بندی، از جمله هش کردن ویژگی و bin-counting مهندسی ویژگی مبتنی بر مدل با تجزیه و تحلیل مؤلفه‌های اصلی مفهوم انباشته‌سازی مدل، استفاده از k-means به عنوان تکنیک ویژه‌سازی استخراج ویژگی تصویر با تکنیک‌های دستی و یادگیری عمیق.\"--رزومه کتاب‌نامه.


توضیحاتی درمورد کتاب به خارجی

Intro; Copyright; Table of Contents; Preface; Introduction; Conventions Used in This Book; Using Code Examples; O'Reilly Safari; How to Contact Us; Acknowledgments; Special Thanks from Alice; Special Thanks from Amanda; Chapter 1. The Machine Learning Pipeline; Data; Tasks; Models; Features; Model Evaluation; Chapter 2. Fancy Tricks with Simple Numbers; Scalars, Vectors, and Spaces; Dealing with Counts; Binarization; Quantization or Binning; Log Transformation; Log Transform in Action; Power Transforms: Generalization of the Log Transform; Feature Scaling or Normalization; Min-Max Scaling;"Feature engineering is a crucial step in the machine-learning pipeline, yet this topic is rarely examined on its own. With this practical book, you'll learn techniques for extracting and transforming features--the numeric representations of raw data--into formats for machine-learning models. Each chapter guides you through a single data problem, such as how to represent text or image data. Together, these examples illustrate the main principles of feature engineering. Rather than simply teach these principles, authors Alice Zheng and Amanda Casari focus on practical application with exercises throughout the book. The closing chapter brings everything together by tackling a real-world, structured dataset with several feature-engineering techniques. Python packages including numpy, Pandas, Scikit-learn, and Matplotlib are used in code examples. You'll examine: Feature engineering for numeric data: filtering, binning, scaling, log transforms, and power transforms Natural text techniques: bag-of-words, n-grams, and phrase detection Frequency-based filtering and feature scaling for eliminating uninformative features Encoding techniques of categorical variables, including feature hashing and bin-counting Model-based feature engineering with principal component analysis The concept of model stacking, using k-means as a featurization technique Image feature extraction with manual and deep-learning techniques."--Résumé de l'éditeur.



فهرست مطالب

Intro
Copyright
Table of Contents
Preface
Introduction
Conventions Used in This Book
Using Code Examples
O'Reilly Safari
How to Contact Us
Acknowledgments
Special Thanks from Alice
Special Thanks from Amanda
Chapter 1. The Machine Learning Pipeline
Data
Tasks
Models
Features
Model Evaluation
Chapter 2. Fancy Tricks with Simple Numbers
Scalars, Vectors, and Spaces
Dealing with Counts
Binarization
Quantization or Binning
Log Transformation
Log Transform in Action
Power Transforms: Generalization of the Log Transform
Feature Scaling or Normalization
Min-Max Scaling Standardization (Variance Scaling)ℓ2 Normalization
Interaction Features
Feature Selection
Summary
Bibliography
Chapter 3. Text Data: Flattening, Filtering, and Chunking
Bag-of-X: Turning Natural Text into Flat Vectors
Bag-of-Words
Bag-of-n-Grams
Filtering for Cleaner Features
Stopwords
Frequency-Based Filtering
Stemming
Atoms of Meaning: From Words to n-Grams to Phrases
Parsing and Tokenization
Collocation Extraction for Phrase Detection
Summary
Bibliography
Chapter 4. The Effects of Feature Scaling: From Bag-of-Words to Tf-Idf
Tf-Idf : A Simple Twist on Bag-of-Words Putting It to the TestCreating a Classification Dataset
Scaling Bag-of-Words with Tf-Idf Transformation
Classification with Logistic Regression
Tuning Logistic Regression with Regularization
Deep Dive: What Is Happening?
Summary
Bibliography
Chapter 5. Categorical Variables: Counting Eggs in the Age of Robotic Chickens
Encoding Categorical Variables
One-Hot Encoding
Dummy Coding
Effect Coding
Pros and Cons of Categorical Variable Encodings
Dealing with Large Categorical Variables
Feature Hashing
Bin Counting
Summary
Bibliography Chapter 6. Dimensionality Reduction: Squashing the Data Pancake with PCAIntuition
Derivation
Linear Projection
Variance and Empirical Variance
Principal Components: First Formulation
Principal Components: Matrix-Vector Formulation
General Solution of the Principal Components
Transforming Features
Implementing PCA
PCA in Action
Whitening and ZCA
Considerations and Limitations of PCA
Use Cases
Summary
Bibliography
Chapter 7. Nonlinear Featurization via K-Means Model Stacking
k-Means Clustering
Clustering as Surface Tiling
k-Means Featurization for Classification Alternative Dense FeaturizationPros, Cons, and Gotchas
Summary
Bibliography
Chapter 8. Automating the Featurizer: Image Feature Extraction and Deep Learning
The Simplest Image Features (and Why They Don't Work)
Manual Feature Extraction: SIFT and HOG
Image Gradients
Gradient Orientation Histograms
SIFT Architecture
Learning Image Features with Deep Neural Networks
Fully Connected Layers
Convolutional Layers
Rectified Linear Unit (ReLU) Transformation
Response Normalization Layers
Pooling Layers
Structure of AlexNet
Summary
Bibliography




نظرات کاربران