دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: James D Malley, Karen G Malley, Sinisa Pajevic سری: Practical guides to biostatistics and epidemiology ISBN (شابک) : 9780521875806, 0521699096 ناشر: Cambridge University Press سال نشر: 2011 تعداد صفحات: 299 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Statistical learning for biomedical data به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری آماری برای داده های زیست پزشکی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
یادداشت محتویات تولید شده توسط ماشین: 1. مقدمه -- 1.1. ماشین هایی که یاد می گیرند -- چند تاریخ اخیر -- 1.2. بیست سؤال متعارف -- 1.3. طرح کلی کتاب -- 1.4. نظر در مورد مجموعه داده های نمونه -- 1.5. نرم افزار -- - توجه -- 2. چشم انداز ماشین های یادگیری -- 2.1. مقدمه -- 2.2. انواع داده ها برای ماشین های یادگیری -- 2.3. آیا آنها نظارت خواهند شد یا بدون نظارت؟ -- 2.4. یک مثال بدون نظارت -- 2.5. عدم نظارت بیشتر -- والدین کجا هستند؟ -- 2.6.موتورها، پیچیده و ابتدایی -- 2.7. غنای مدل دقیقاً به چه معناست؟ -- 2.8.عضویت یا احتمال عضویت؟ -- 2.9. طبقه بندی ماشین ها؟ -- 2.10. نکته احتیاط -- یکی از بسیاری -- 2.11. نکات برجسته از تئوری -- یادداشت ها -- 3. درهم و برهم از ماشین ها -- 3.1. مقدمه -- 3.2. رگرسیون خطی -- 3.3. رگرسیون لجستیک -- - 3.4. تشخیص خطی - 3.5. طبقه بندی کننده های بیس [-] منظم و ساده - 3.6. رگرسیون منطقی - 3.7.k-نزدیک ترین همسایگان - 3.8. ماشین های بردار پشتیبانی - 3.9. شبکه های عصبی - 3.10. تقویت کننده - - 3.11. الگوریتم های تکاملی و ژنتیک - یادداشت ها - 4. سه مثال و چندین ماشین - 4.1. مقدمه - 4.2. داده های کلسترول شبیه سازی شده - 4.3. داده های لوپوس - 4.4. داده های سکته مغزی - 4.5. معنی های زیست پزشکی نامتعادل -- 4.6. اندازه گیری عملکرد دستگاه -- 4.7. تجزیه و تحلیل خطی داده های کلسترول -- 4.8. تجزیه و تحلیل غیرخطی داده های کلسترول -- 4.9. تجزیه و تحلیل داده های لوپوس -- 4.10. تجزیه و تحلیل داده های سکته مغزی -- 4.11. تجزیه و تحلیل بیشتر داده های لوپوس و سکته مغزی -- یادداشت ها -- 5. رگرسیون لجستیک -- 5.1. مقدمه -- 5.2. داخل و اطراف مدل -- 5.3. تفسیر ضرایب -- 5.4. استفاده از لجستیک r خروج به عنوان یک قاعده تصمیم -- 5.5. رگرسیون لجستیک اعمال شده به داده های کلسترول -- 5.6. یک نکته احتیاطی -- 5.7. نکته احتیاطی دیگر -- 5.8. تخمین احتمالات و قوانین تصمیم -- 5.9. ارزیابی تناسب خوب یک مدل رگرسیون لجستیک -- 5.10. کالیبراسیون رگرسیون لجستیک -- 5.11. فراتر از کالیبراسیون -- 5.12. رگرسیون لجستیک و مدل های مرجع -- یادداشت ها -- 6. درخت تصمیم واحد -- 6.1. مقدمه -- 6.2. رها کردن درختان -- 6.3. رشد درخت -- 6.4. انتخاب ویژگی ها، ایجاد شکاف -- 6.5. تقسیم خوب، تقسیم بد -- 6.6. یافتن ویژگی های خوب برای ایجاد شکاف -- 6.7. خواندن نادرست درختان -- 6.8.قوانین توقف و هرس -- 6.9. استفاده از توابع ویژگی -- 6.10. درختان ناپایدار؟ -- 6.11. اهمیت متغیر -- رشد روی درختان؟ -- 6.12. تغییر برای اهمیت -- 6.13. رمز و راز مداوم درختان -- 7. جنگل های تصادفی -- درختان در همه جا -- 7.1. جنگل های تصادفی در کمتر از پنج دقیقه -- 7.2. سفرهای تصادفی از طریق داده ها -- 7.3. سفرهای تصادفی در میان ویژگی ها -- 7.4. راه رفتن در جنگل -- 7.5. رأی گیری وزنی و بدون وزن -- 7.6. یافتن زیر مجموعه ها در داده ها با استفاده از مجاورت -- 7.7. اعمال جنگل های تصادفی به داده های Stroke -- 7.8. جنگل های تصادفی در جهان ماشین ها -- یادداشت ها -- 8. صرفاً دو متغیر -- 8.1. مقدمه -- 8.2. درک همبستگی ها -- 8.3. خطرات همبستگی -- 8.4. همبستگی های بزرگ و کوچک -- یادداشت ها -- 9. بیش از دو متغیرها -- 9.1. مقدمه -- 9.2. مسائل کوچک، پیامدهای بزرگ -- 9.3. ریاضیات برای نجات؟ -- 9.4. مدل های خوب لازم نیست منحصر به فرد باشند -- 9.5. زمینه ها و ضرایب -- 9.6. تفسیر و آزمایش ضرایب در مدل ها -- 9.7. ادغام مدل ها، فهرست های ادغام، ویژگی های رتبه بندی -- یادداشت ها -- 10. روش های نمونه گیری مجدد -- 10.1. مقدمه -- 10.2. بوت استرپ -- 10.3. هنگامی که بوت استرپ کار می کند -- 10.4. هنگامی که بوت استرپ کار نمی کند -- 10.5. نمونه گیری مجدد از یک گروه به روش های مختلف -- 10.6. نمونه گیری مجدد از گروه هایی با اندازه های نابرابر -- 10.7. نمونه برداری مجدد از مجموعه داده های کوچک -- 10.8. روش های جایگشت -- 10.9. هنوز بیشتر در مورد روش های جایگشت -- توجه -- 11. تجزیه و تحلیل خطا و اعتبارسنجی مدل -- 11.1. مقدمه -- 11.2. خطاها؟ چه خطاهایی؟ -- 11.3. داده های نامتعادل، خطاهای نامتعادل -- 11.4. تجزیه و تحلیل خطا برای یک ماشین واحد -- 11.5. تخمین خطای اعتبارسنجی متقابل -- 11.6. اعتبار سنجی متقابل یا آموزش متقابل؟ -- 11.7.روش ترک یک خروجی -- 11.8.روش خارج از کیسه -- 11.9. فواصل برای تخمین خطا برای یک ماشین -- 11.10.پرتاب سکه های تصادفی به ورطه -- 11.11.تخمین خطا برای داده های نامتعادل -- 11.12. فواصل اطمینان برای مقایسه مقادیر خطا -- 11.13. سایر معیارهای دقت دستگاه -- 11.14. محک زدن و برنده شدن در قرعه کشی -- 11.15. تجزیه و تحلیل خطا برای پیش بینی نتایج مستمر -- یادداشت ها -- 12. روش های Ensemble [--] بیایید رای دهیم -- 12.1. مجموعه ای از ماشین ها -- 12.2. همبستگی ضعیف با نتیجه می تواند به اندازه کافی خوب باشد -- 12.3. میانگین گیری مدل -- یادداشت ها -- 13. خلاصه و نتیجه گیری -- 13.1. ما کجا داریم بوده؟ -- 13.2. تعداد زیادی ماشین -- 13.3.تصمیم گیری باینری یا تخمین احتمال؟ -- 13.4.ماشین های بقا؟ ماشین های ریسک؟ -- 13.5.و به کجا می رویم؟
Machine generated contents note: 1.Prologue -- 1.1.Machines that learn -- some recent history -- 1.2.Twenty canonical questions -- 1.3.Outline of the book -- 1.4.A comment about example datasets -- 1.5.Software -- Note -- 2.The landscape of learning machines -- 2.1.Introduction -- 2.2.Types of data for learning machines -- 2.3.Will that be supervised or unsupervised? -- 2.4.An unsupervised example -- 2.5.More lack of supervision -- where are the parents? -- 2.6.Engines, complex and primitive -- 2.7.Model richness means what, exactly? -- 2.8.Membership or probability of membership? -- 2.9.A taxonomy of machines? -- 2.10.A note of caution -- one of many -- 2.11.Highlights from the theory -- Notes -- 3.A mangle of machines -- 3.1.Introduction -- 3.2.Linear regression -- 3.3.Logistic regression -- 3.4.Linear discriminant -- 3.5.Bayes classifiers [-] regular and naive -- 3.6.Logic regression -- 3.7.k-Nearest neighbors -- 3.8.Support vector machines -- 3.9.Neural networks -- 3.10.Boosting -- 3.11.Evolutionary and genetic algorithms -- Notes -- 4.Three examples and several machines -- 4.1.Introduction -- 4.2.Simulated cholesterol data -- 4.3.Lupus data -- 4.4.Stroke data -- 4.5.Biomedical means unbalanced -- 4.6.Measures of machine performance -- 4.7.Linear analysis of cholesterol data -- 4.8.Nonlinear analysis of cholesterol data -- 4.9.Analysis of the lupus data -- 4.10.Analysis of the stroke data -- 4.11.Further analysis of the lupus and stroke data -- Notes -- 5.Logistic regression -- 5.1.Introduction -- 5.2.Inside and around the model -- 5.3.Interpreting the coefficients -- 5.4.Using logistic regression as a decision rule -- 5.5.Logistic regression applied to the cholesterol data -- 5.6.A cautionary note -- 5.7.Another cautionary note -- 5.8.Probability estimates and decision rules -- 5.9.Evaluating the goodness-of-fit of a logistic regression model -- 5.10.Calibrating a logistic regression -- 5.11.Beyond calibration -- 5.12.Logistic regression and reference models -- Notes -- 6.A single decision tree -- 6.1.Introduction -- 6.2.Dropping down trees -- 6.3.Growing a tree -- 6.4.Selecting features, making splits -- 6.5.Good split, bad split -- 6.6.Finding good features for making splits -- 6.7.Misreading trees -- 6.8.Stopping and pruning rules -- 6.9.Using functions of the features -- 6.10.Unstable trees? -- 6.11.Variable importance -- growing on trees? -- 6.12.Permuting for importance -- 6.13.The continuing mystery of trees -- 7.Random Forests -- trees everywhere -- 7.1.Random Forests in less than five minutes -- 7.2.Random treks through the data -- 7.3.Random treks through the features -- 7.4.Walking through the forest -- 7.5.Weighted and unweighted voting -- 7.6.Finding subsets in the data using proximities -- 7.7.Applying Random Forests to the Stroke data -- 7.8.Random Forests in the universe of machines -- Notes -- 8.Merely two variables -- 8.1.Introduction -- 8.2.Understanding correlations -- 8.3.Hazards of correlations -- 8.4.Correlations big and small -- Notes -- 9.More than two variables -- 9.1.Introduction -- 9.2.Tiny problems, large consequences -- 9.3.Mathematics to the rescue? -- 9.4.Good models need not be unique -- 9.5.Contexts and coefficients -- 9.6.Interpreting and testing coefficients in models -- 9.7.Merging models, pooling lists, ranking features -- Notes -- 10.Resampling methods -- 10.1.Introduction -- 10.2.The bootstrap -- 10.3.When the bootstrap works -- 10.4.When the bootstrap doesn't work -- 10.5.Resampling from a single group in different ways -- 10.6.Resampling from groups with unequal sizes -- 10.7.Resampling from small datasets -- 10.8.Permutation methods -- 10.9.Still more on permutation methods -- Note -- 11.Error analysis and model validation -- 11.1.Introduction -- 11.2.Errors? What errors? -- 11.3.Unbalanced data, unbalanced errors -- 11.4.Error analysis for a single machine -- 11.5.Cross-validation error estimation -- 11.6.Cross-validation or cross-training? -- 11.7.The leave-one-out method -- 11.8.The out-of-bag method -- 11.9.Intervals for error estimates for a single machine -- 11.10.Tossing random coins into the abyss -- 11.11.Error estimates for unbalanced data -- 11.12.Confidence intervals for comparing error values -- 11.13.Other measures of machine accuracy -- 11.14.Benchmarking and winning the lottery -- 11.15.Error analysis for predicting continuous outcomes -- Notes -- 12.Ensemble methods [--] let's take a vote -- 12.1.Pools of machines -- 12.2.Weak correlation with outcome can be good enough -- 12.3.Model averaging -- Notes -- 13.Summary and conclusions -- 13.1.Where have we been? -- 13.2.So many machines -- 13.3.Binary decision or probability estimate? -- 13.4.Survival machines? Risk machines? -- 13.5.And where are we going?
Frontmatter......Page 1
Contents......Page 5
Preface......Page 11
Acknowledgments......Page 12
Part I - Introduction......Page 13
1 - Prologue......Page 15
2 - The landscape of learning machines......Page 26
3 - A mangle of machines......Page 53
4 - Three examples and several machines......Page 69
Part II - A machine toolkit......Page 101
5 - Logistic regression......Page 103
6 - A single decision tree......Page 130
7 - Random Forests â•fi trees everywhere......Page 149
Part III - Analysis fundamentals......Page 167
8 - Merely two variables......Page 169
9 - More than two variables......Page 183
10 - Resampling methods......Page 210
11 - Error analysis and model validation......Page 227
Part IV - Machine strategies......Page 257
12 - Ensemble methods â•fi let's take a vote......Page 259
13 - Summary and conclusions......Page 267
Appendix......Page 275
References......Page 283
Index......Page 293
Plate section......Page 298