ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Subset Selection in Regression

دانلود کتاب انتخاب زیرمجموعه در رگرسیون

Subset Selection in Regression

مشخصات کتاب

Subset Selection in Regression

ویرایش:  
نویسندگان:   
سری: Monographs on Statistics and Applied Probability 
ISBN (شابک) : 9780412353802, 9781489929396 
ناشر: Springer US 
سال نشر: 1990 
تعداد صفحات: 240 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 16 مگابایت 

قیمت کتاب (تومان) : 49,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Subset Selection in Regression به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب انتخاب زیرمجموعه در رگرسیون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب انتخاب زیرمجموعه در رگرسیون

اکثر بسته‌های محاسباتی علمی دارای امکاناتی برای رگرسیون گام به گام و اغلب برای «همه زیر مجموعه‌ها» و سایر تکنیک‌ها برای یافتن زیرمجموعه‌های «بهترین برازش» متغیرهای رگرسیون هستند. کاربرد نظریه استاندارد در چنین مواردی می تواند بسیار گمراه کننده باشد، زمانی که مدل پیشینی انتخاب نشده باشد، بلکه از روی داده ها انتخاب شده باشد. آگاهی گسترده ای وجود دارد که تناسب بیش از حد قابل توجهی رخ می دهد و معادلات پیش بینی به دست آمده پس از "لایروبی داده ها" گسترده اغلب در هنگام اعمال بر داده های جدید ضعیف عمل می کنند. این مونوگراف تقریباً به طور کامل به روش‌های حداقل مربعات برای یافتن و برازش زیرمجموعه‌های متغیرهای رگرسیون مربوط می‌شود، اگرچه بیشتر مفاهیم از نظر تفسیر و ویژگی‌های آماری پیش‌بینی‌های متعامد ارائه شده‌اند. یک فصل اولیه این روش ها را معرفی می کند که هنوز به طور گسترده برای کاربران روش های حداقل مربعات شناخته شده نیستند. روش‌های موجود برای آزمایش اینکه آیا می‌توان با استفاده از هر یک از مجموعه‌ای از پیش‌بینی‌کننده‌ها، به بهبود مفیدی دست یافت یا خیر، توضیح داده شده است. روش Spjotvoll برای مقایسه دو زیرمجموعه دلخواه متغیرهای پیش‌بینی‌کننده نشان داده شده و به تفصیل شرح داده شده است. هنگامی که مدل انتخاب شده به نوعی «بهترین برازش» است، روش‌های برازش مرسوم تخمین‌هایی از ضرایب رگرسیون ارائه می‌دهند که معمولاً در جهت بزرگ بودن سوگیری دارند. میزان این سوگیری برای موارد ساده نشان داده شده است. روش‌های موردی مختلفی برای تصحیح سوگیری مورد بحث قرار می‌گیرند (رگرسیون رج، انقباض جیمز-استاین، جک-کنیفینگ، و غیره)، همراه با تکنیک حداکثر احتمال نویسنده. حوزه‌هایی که در آن‌ها به تحقیقات بیشتر نیاز است نیز تشریح شده است.


توضیحاتی درمورد کتاب به خارجی

Most scientific computing packages contain facilities for stepwise regression and often for 'all subsets' and other techniques for finding 'best-fitting' subsets of regression variables. The application of standard theory can be very misleading in such cases when the model has not been chosen a priori, but from the data. There is widespread awareness that considerable over-fitting occurs and that prediction equations obtained after extensive 'data dredging' often perform poorly when applied to new data. This monograph relates almost entirely to least-squares methods of finding and fitting subsets of regression variables, though most of the concepts are presented in terms of the interpretation and statistical properties of orthogonal projections. An early chapter introduces these methods, which are still not widely known to users of least-squares methods. Existing methods are described for testing whether any useful improvement can be obtained by using any of a set of predictors. Spjotvoll's method for comparing two arbitrary subsets of predictor variables is illustrated and described in detail. When the selected model is the 'best-fitting' in some sense, conventional fitting methods give estimates of regression coefficients which are usually biased in the direction of being too large. The extent of this bias is demonstrated for simple cases. Various ad hoc methods for correcting the bias are discussed (ridge regression, James-Stein shrinkage, jack-knifing, etc.), together with the author's maximum likelihood technique. Areas in which further research is needed are also outlined.



فهرست مطالب


Content:
Front Matter....Pages i-x
Objectives....Pages 1-14
Least-squares computations....Pages 15-42
Finding subsets which fit well....Pages 43-83
Hypothesis testing....Pages 84-109
Estimation of regression coefficients....Pages 110-168
How many variables?....Pages 169-209
Conclusions and some recommendations....Pages 210-214
Back Matter....Pages 215-229




نظرات کاربران