دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: ریاضیات ویرایش: 1st نویسندگان: I.A. Ibragimov, R.Z. Has'minskii سری: ISBN (شابک) : 0387905235, 9780387905235 ناشر: سال نشر: 1981 تعداد صفحات: 409 زبان: English فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 5 مگابایت
در صورت تبدیل فایل کتاب Statistical Estimation. Asymptotic Theory. Applications of Mathematics, Volume 16 به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب برآورد آماری نظریه مجانبی. کاربردهای ریاضیات ، دوره 16 نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
هنگامی که پارامترهای خاصی در مسئله به مقادیر محدود کننده تمایل دارند (مثلاً وقتی اندازه نمونه به طور نامحدود افزایش می یابد، شدت نویز نزدیک به صفر می شود و غیره) برای رسیدگی به مشکل برآوردگرهای بهینه مجانبی مورد مهم زیر را در نظر بگیرید. فرض کنید X 1, X 2, ... , X n مشاهداتی مستقل با چگالی احتمال مشترک !(x,O) باشند (با توجه به اندازه گیری Lebesgue روی خط واقعی) که به پتامتر مجهول o e 9 c R1 بستگی دارد. لازم است بهترین برآوردگر (به صورت مجانبی) 0:( Xb ... , X n) از پارامتر O استخراج شود. اولین سوالی که در رابطه با این مشکل مطرح می شود این است که چگونه می توان برآوردگرهای مختلف را مقایسه کرد یا به طور معادل چگونه کیفیت آنها را بر حسب میانگین مربعات انحراف از پارامتر یا شاید به روشی دیگر ارزیابی کنید. رویکرد پذیرفته شده در حال حاضر برای این مشکل، ناشی از مشارکت A. Wald، به شرح زیر است: یک تابع غیرمنفی w(0l> ( )، Ob Oe 9 (تابع ضرر) معرفی کنید و دو برآوردگر Of و O! n 2 2 را در نظر بگیرید. برآورد کننده ای که برای آن ضرر (ریسک) مورد انتظار Eown (Oj, 0)، j = 1 یا 2، کوچکترین است، با توجه به Wn در نقطه 0 بهتر نامیده می شود (در اینجا EoO انتظاری است که با این فرض ارزیابی می شود که ارزش واقعی پارامتر 0) بدیهی است که چنین روش مقایسه ای خالی از اشکال نیست.
when certain parameters in the problem tend to limiting values (for example, when the sample size increases indefinitely, the intensity of the noise ap proaches zero, etc.) To address the problem of asymptotically optimal estimators consider the following important case. Let X 1, X 2, ... , X n be independent observations with the joint probability density !(x,O) (with respect to the Lebesgue measure on the real line) which depends on the unknown patameter o e 9 c R1. It is required to derive the best (asymptotically) estimator 0:( X b ... , X n) of the parameter O. The first question which arises in connection with this problem is how to compare different estimators or, equivalently, how to assess their quality, in terms of the mean square deviation from the parameter or perhaps in some other way. The presently accepted approach to this problem, resulting from A. Wald's contributions, is as follows: introduce a nonnegative function w(0l> ( ), Ob Oe 9 (the loss function) and given two estimators Of and O! n 2 2 the estimator for which the expected loss (risk) Eown(Oj, 0), j = 1 or 2, is smallest is called the better with respect to Wn at point 0 (here EoO is the expectation evaluated under the assumption that the true value of the parameter is 0). Obviously, such a method of comparison is not without its defects.