ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Data Analysis

دانلود کتاب تحلیل داده ها

Data Analysis

مشخصات کتاب

Data Analysis

ویرایش: 1 
نویسندگان:   
سری: ISTE 
ISBN (شابک) : 1848210981, 9781848210981 
ناشر: Wiley-ISTE 
سال نشر: 2009 
تعداد صفحات: 343 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 2 مگابایت 

قیمت کتاب (تومان) : 33,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 17


در صورت تبدیل فایل کتاب Data Analysis به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تحلیل داده ها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تحلیل داده ها

بخش اول این کتاب به روش های جستجوی ابعاد مرتبط داده ها اختصاص دارد. متغیرهایی که بدین ترتیب به دست می‌آیند یک توصیف ترکیبی ارائه می‌کنند که اغلب منجر به نمایش گرافیکی داده‌ها می‌شود. پس از ارائه کلی تجزیه و تحلیل متمایز، بخش دوم به روش‌های خوشه‌بندی اختصاص داده می‌شود که روش دیگری را تشکیل می‌دهند که اغلب مکمل روش‌هایی است که در بخش اول توضیح داده شد، برای ترکیب و تجزیه و تحلیل داده‌ها. این کتاب با بررسی پیوندهای موجود بین داده کاوی و تجزیه و تحلیل داده به پایان می رسد.


توضیحاتی درمورد کتاب به خارجی

The first part of this book is devoted to methods seeking relevant dimensions of data. The variables thus obtained provide a synthetic description which often results in a graphical representation of the data. After a general presentation of the discriminating analysis, the second part is devoted to clustering methods which constitute another method, often complementary to the methods described in the first part, to synthesize and to analyze the data. The book concludes by examining the links existing between data mining and data analysis.



فهرست مطالب

Contents......Page 7
Preface......Page 15
1.1. Introduction......Page 17
1.2.1. Data and their characteristics......Page 18
1.2.2. The space of statistical units......Page 21
1.2.3. Variables space......Page 23
1.3.2. Principal factors and principal components......Page 24
1.3.3. Principal factors and principal components properties......Page 26
1.4.1. Quality of representations onto principal planes......Page 27
1.4.2. Axis selection......Page 28
1.4.3. Internal interpretation......Page 29
1.4.4. External interpretation: supplementary variables and individuals......Page 31
1.5.1. Introduction......Page 34
1.5.2. Control charts and PCA......Page 36
1.6. Conclusion......Page 38
1.7. Bibliography......Page 39
2.1.1. Data, example, notations......Page 41
2.1.2. Questions: independence model......Page 42
2.1.3. Intensity, significance and nature of a relationship between two qualitative variables......Page 43
2.1.4. Transformation of the data......Page 44
2.1.5. Two clouds......Page 45
2.1.6. Factorial analysis of X......Page 46
2.1.7. Aid to interpretation......Page 48
2.1.8. Some properties......Page 49
2.1.9. Relationships to the traditional presentation......Page 51
2.1.10. Example: recognition of three fundamental tastes......Page 52
2.2.1. Data, notations and example......Page 55
2.2.3. MCA and CA......Page 57
2.2.4. Spaces, clouds and metrics......Page 58
2.2.5. Properties of the clouds in CA of the CDT......Page 59
2.2.7. Aid for interpretation......Page 61
2.2.8. Example: relationship between two taste thresholds......Page 62
2.3.1. Data......Page 66
2.3.2. Questions: construction of the analyzed table......Page 67
2.3.3. Properties of the CA of the analyzed table......Page 69
2.3.4. Results......Page 70
2.4.2. Multiple factor analysis (MFA)......Page 79
2.5. Bibliography......Page 80
3.1. Introduction......Page 83
3.2.1. Background......Page 84
3.2.2. What is an interesting projection?......Page 85
3.2.4. Inference......Page 86
3.3.1. Projection indexes based on entropy measures......Page 87
3.3.2. Projection indexes based on L2 distances......Page 89
3.3.4. Indexes based on the cumulative empirical function......Page 91
3.4.1. Theoretical background......Page 92
3.4.2. Practice......Page 94
3.4.3. Some precisions......Page 95
3.5. Example......Page 97
3.6.2. Unsupervised classification......Page 102
3.6.3. Discrete data......Page 103
3.6.4. Related topics......Page 104
3.7. Bibliography......Page 105
4.1. Introduction......Page 109
4.2.1. Four illustrative examples......Page 113
4.2.2. Definitions......Page 116
4.3. Isometric embedding and projection......Page 119
4.3.1. An example of computations......Page 121
4.3.2. The additive constant problem......Page 122
4.4. Multidimensional scaling and approximation......Page 124
4.4.1. The parametric MDS model......Page 125
4.4.2. The Shepard founding heuristics......Page 127
4.4.3. The majorization approach......Page 130
4.4.4. Extending MDS to a semi-parametric setting......Page 135
4.5.1. Principal coordinates analysis......Page 138
4.5.2. Dimensionality for the representation space......Page 139
4.5.3. The scree test......Page 141
4.5.5. Validation of results......Page 143
4.5.6. The use of exogenous information for interpreting the output configuration......Page 147
4.5.7. Introduction to stochastic modeling in MDS......Page 153
4.6. Bibliography......Page 155
5.1. Introduction......Page 165
5.2.1. Functional random variable......Page 168
5.2.2. Smoothness assumption......Page 169
5.2.3. Smoothing splines......Page 170
5.3.1. Model and estimation......Page 172
5.3.2. Dimension and smoothing parameter selection......Page 174
5.3.3. Some comments on discretization effects......Page 175
5.3.4. PCA of climatic time series......Page 176
5.4. Linear regression models and extensions......Page 177
5.4.1. Functional linear models......Page 178
5.4.3. Roughness penalty approach......Page 179
5.4.4. Smoothing parameters selection......Page 180
5.4.6. Generalized linear models and extensions......Page 181
5.4.7. Land use estimation with the temporal evolution of remote sensing data......Page 182
5.5.1. Functional autoregressive process......Page 185
5.5.2. Smooth ARH(1)......Page 187
5.5.3. Locally ARH(1) processes......Page 188
5.5.6. Prediction of climatic time series......Page 189
5.6. Concluding remarks......Page 192
5.7. Bibliography......Page 193
6.1. Introduction......Page 197
6.2.1. The probabilistic framework......Page 198
6.2.2. Sampling schemes......Page 199
6.2.3. Decision function estimation strategies......Page 200
6.2.4. Variables selection......Page 201
6.2.5. Assessing the misclassification error rate......Page 203
6.2.6. Model selection and resampling techniques......Page 205
6.3. Standard methods in supervised classification......Page 206
6.3.1. Linear discriminant analysis......Page 207
6.3.2. Logistic regression......Page 208
6.3.3. The K nearest neighbors method......Page 211
6.3.4. Classification trees......Page 213
6.3.5. Single hidden layer back-propagation network......Page 215
6.4.1. Parametric methods......Page 220
6.4.2. Radial basis functions......Page 223
6.4.3. Boosting......Page 224
6.4.4. Support vector machines......Page 225
6.5. Conclusion......Page 227
6.6. Bibliography......Page 228
7.1. Introduction......Page 231
7.2.1. The data......Page 233
7.2.3. Types of classification......Page 234
7.2.4. Objectives of clustering......Page 238
7.3. Hierarchical clustering......Page 240
7.3.1. Agglomerative hierarchical clustering (AHC)......Page 241
7.3.2. Agglomerative criteria......Page 242
7.3.4. Ward’s method or minimum variance approach......Page 243
7.3.5. Optimality properties......Page 244
7.3.6. Using hierarchical clustering......Page 247
7.4.1. The algorithm......Page 249
7.4.2. k-means: a family of methods......Page 250
7.4.3. Using the k-means algorithm......Page 252
7.5.1. Dynamic cluster method......Page 255
7.5.2. Fuzzy clustering......Page 256
7.5.3. Constrained clustering......Page 257
7.5.4. Self-organizing map......Page 258
7.5.5. Clustering variables......Page 259
7.5.6. Clustering high-dimensional datasets......Page 260
7.6. Block clustering......Page 261
7.6.1. Binary data......Page 263
7.6.2. Contingency table......Page 264
7.6.3. Continuous data......Page 265
7.6.4. Some remarks......Page 266
7.8. Bibliography......Page 267
8.1.1. Introduction......Page 273
8.1.2. Parametric approaches......Page 274
8.1.3. Non-parametric methods......Page 275
8.1.5. Notation......Page 276
8.2.2. The model......Page 277
8.2.3. Estimation of parameters......Page 278
8.3.1. Introduction......Page 279
8.3.3. Principle......Page 280
8.3.4. Application to mixture models......Page 281
8.3.6. EM: an alternating optimization algorithm......Page 282
8.4.2. Classification likelihood......Page 283
8.4.3. The CEM algorithm......Page 284
8.4.4. Comparison of the two approaches......Page 285
8.4.5. Fuzzy clustering......Page 286
8.5.1. The model......Page 287
8.5.2. CEM algorithm......Page 288
8.5.3. Spherical form, identical proportions and volumes......Page 289
8.5.4. Spherical form, identical proportions but differing volumes......Page 290
8.6.1. Data......Page 291
8.6.2. Binary mixture model......Page 292
8.6.3. Parsimonious model......Page 293
8.7.2. The model......Page 295
8.7.3. Parsimonious model......Page 297
8.8.1. Choice of model and of the number of classes......Page 298
8.8.3. Extension to particular situations......Page 299
8.10. Bibliography......Page 300
9.1.1. The spatial data clustering problem......Page 305
9.1.2. Examples of applications......Page 306
9.2.3. Using a matrix of spatial distances......Page 309
9.2.4. Clustering with contiguity constraints......Page 310
9.3.1. Global methods and Bayesian approaches......Page 311
9.3.2. Markov random fields......Page 313
9.3.3. Markov fields for observations and classes......Page 316
9.3.4. Supervised segmentation......Page 317
9.4.1. Supervised estimation......Page 321
9.4.2. Unsupervised estimation with EM......Page 323
9.4.3. Classification likelihood and inertia with spatial smoothing......Page 326
9.4.4. Other methods of unsupervised estimation......Page 328
9.5.1. The problem......Page 329
9.5.2. The model: Potts field and Bernoulli distributions......Page 330
9.5.4. Resulting clustering......Page 331
9.6. Bibliography......Page 332
List of Authors......Page 335
Index......Page 339




نظرات کاربران