دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: A. J. Miller (auth.)
سری: Monographs on Statistics and Applied Probability
ISBN (شابک) : 9780412353802, 9781489929396
ناشر: Springer US
سال نشر: 1990
تعداد صفحات: 240
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 16 مگابایت
در صورت تبدیل فایل کتاب Subset Selection in Regression به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب انتخاب زیرمجموعه در رگرسیون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
اکثر بستههای محاسباتی علمی دارای امکاناتی برای رگرسیون گام به گام و اغلب برای «همه زیر مجموعهها» و سایر تکنیکها برای یافتن زیرمجموعههای «بهترین برازش» متغیرهای رگرسیون هستند. کاربرد نظریه استاندارد در چنین مواردی می تواند بسیار گمراه کننده باشد، زمانی که مدل پیشینی انتخاب نشده باشد، بلکه از روی داده ها انتخاب شده باشد. آگاهی گسترده ای وجود دارد که تناسب بیش از حد قابل توجهی رخ می دهد و معادلات پیش بینی به دست آمده پس از "لایروبی داده ها" گسترده اغلب در هنگام اعمال بر داده های جدید ضعیف عمل می کنند. این مونوگراف تقریباً به طور کامل به روشهای حداقل مربعات برای یافتن و برازش زیرمجموعههای متغیرهای رگرسیون مربوط میشود، اگرچه بیشتر مفاهیم از نظر تفسیر و ویژگیهای آماری پیشبینیهای متعامد ارائه شدهاند. یک فصل اولیه این روش ها را معرفی می کند که هنوز به طور گسترده برای کاربران روش های حداقل مربعات شناخته شده نیستند. روشهای موجود برای آزمایش اینکه آیا میتوان با استفاده از هر یک از مجموعهای از پیشبینیکنندهها، به بهبود مفیدی دست یافت یا خیر، توضیح داده شده است. روش Spjotvoll برای مقایسه دو زیرمجموعه دلخواه متغیرهای پیشبینیکننده نشان داده شده و به تفصیل شرح داده شده است. هنگامی که مدل انتخاب شده به نوعی «بهترین برازش» است، روشهای برازش مرسوم تخمینهایی از ضرایب رگرسیون ارائه میدهند که معمولاً در جهت بزرگ بودن سوگیری دارند. میزان این سوگیری برای موارد ساده نشان داده شده است. روشهای موردی مختلفی برای تصحیح سوگیری مورد بحث قرار میگیرند (رگرسیون رج، انقباض جیمز-استاین، جک-کنیفینگ، و غیره)، همراه با تکنیک حداکثر احتمال نویسنده. حوزههایی که در آنها به تحقیقات بیشتر نیاز است نیز تشریح شده است.
Most scientific computing packages contain facilities for stepwise regression and often for 'all subsets' and other techniques for finding 'best-fitting' subsets of regression variables. The application of standard theory can be very misleading in such cases when the model has not been chosen a priori, but from the data. There is widespread awareness that considerable over-fitting occurs and that prediction equations obtained after extensive 'data dredging' often perform poorly when applied to new data. This monograph relates almost entirely to least-squares methods of finding and fitting subsets of regression variables, though most of the concepts are presented in terms of the interpretation and statistical properties of orthogonal projections. An early chapter introduces these methods, which are still not widely known to users of least-squares methods. Existing methods are described for testing whether any useful improvement can be obtained by using any of a set of predictors. Spjotvoll's method for comparing two arbitrary subsets of predictor variables is illustrated and described in detail. When the selected model is the 'best-fitting' in some sense, conventional fitting methods give estimates of regression coefficients which are usually biased in the direction of being too large. The extent of this bias is demonstrated for simple cases. Various ad hoc methods for correcting the bias are discussed (ridge regression, James-Stein shrinkage, jack-knifing, etc.), together with the author's maximum likelihood technique. Areas in which further research is needed are also outlined.
Content:
Front Matter....Pages i-x
Objectives....Pages 1-14
Least-squares computations....Pages 15-42
Finding subsets which fit well....Pages 43-83
Hypothesis testing....Pages 84-109
Estimation of regression coefficients....Pages 110-168
How many variables?....Pages 169-209
Conclusions and some recommendations....Pages 210-214
Back Matter....Pages 215-229