دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Albert A.E., Gardner L.A.Jr. سری: MIT Press Classics ISBN (شابک) : 0262511487 ناشر: MIT سال نشر: 2003 تعداد صفحات: 211 زبان: English فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 1 مگابایت
در صورت تبدیل فایل کتاب Stochastic Approximation and Nonlinear Regression به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تقریب تصادفی و رگرسیون غیرخطی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این تک نگاری به مشکل برازش منحنی \"زمان واقعی\" در حضور نویز از دیدگاه محاسباتی و آماری می پردازد. این مشکل رگرسیون غیرخطی را بررسی میکند، جایی که مشاهدات روی یک سری زمانی انجام میشود که تابع مقدار میانگین آن به جز یک پارامتر برداری مشخص است. برخلاف فرمول سنتی، تصور می شود که داده ها به صورت متوالی به دست می آیند. برآورد در زمان واقعی انجام می شود به طوری که، در هر لحظه، تخمین پارامتر به طور کامل تمام داده های موجود را منعکس می کند. به طور خاص، تک نگاری بر توالی های برآوردگر از نوع تصحیح دیفرانسیل به اصطلاح تمرکز دارد. اصطلاح "تصحیح دیفرانسیل" به این واقعیت اشاره دارد که تفاوت بین اجزای برآوردگرهای به روز شده و قبلی متناسب با تفاوت بین مشاهدات فعلی و مقداری است که در صورت برآورد قبلی توسط تابع رگرسیون پیش بینی می شود. مقدار واقعی پارامتر بردار مجهول را در نظر بگیرید. بردار عوامل تناسب (که عموماً متغیر است و میتواند به تخمینهای قبلی بستگی داشته باشد) بردار \"بهره\" یا \"هموارسازی\" نامیده میشود. هدف اصلی این تحقیق ارتباط بین رفتار آماری نمونه بزرگ است. چنین برآوردهایی (ثبات، نرخ همگرایی، نظریه توزیع نمونه بزرگ، بازده مجانبی) به خواص تابع رگرسیون و انتخاب بردارهای هموارسازی. علاوه بر این، به مبادله ای توجه می شود که می تواند بین سادگی محاسباتی و کارایی آماری از طریق انتخاب سود انجام شود. همگرایی مربع و تئوری توزیع مجانبی برآوردگرها برای انتخاب های مختلف دنباله هموارسازی. بخش دوم احتمال یک و میانگین مربع همگرایی برآوردگرها را در حالت برداری برای انتخاب های مختلف بردارهای هموار بررسی می کند. نمونهها به طور آزادانه در سراسر کتاب پاشیده میشوند. در واقع، فصل آخر به طور کامل به بحث در مورد مثالهایی در سطوح مختلف کلی اختصاص دارد. اگر ادبیات تقریب تصادفی را به عنوان مطالعهای در رفتار مجانبی راهحلها برای یک کلاس معین از معادلات اختلاف مرتبه اول غیرخطی با اصطلاحات رانندگی تصادفی در نظر بگیریم. ، سپس نتایج این تک نگاری همچنین در خدمت گسترش و تکمیل بسیاری از نتایج در آن ادبیات است، که دلیل انتخاب عنوان توسط نویسندگان است. این کتاب در مقطع کارشناسی ارشد سال اول نوشته شده است، اگرچه این سطح از بلوغ نیست به طور یکنواخت مورد نیاز است. مطمئناً خواننده باید مفهوم حد را هم به معنای قطعی و هم به معنای احتمالی (یعنی همگرایی میانگین تقریباً مطمئن و درجه دوم) درک کند. این مقدار سفر راحت را در چهارمین کتاب اول تضمین می کند. فصل 4 و 5 نیاز به آشنایی با چند قضیه حد مرکزی انتخابی دارد. آشنایی با تکنیک های استاندارد تئوری نمونه بزرگ نیز مفید خواهد بود اما ضروری نیست. بخش دوم، فصول 6 تا 9، به زبان جبر ماتریسی ارائه شده است، اما هیچ یک از نتایج "کلاسیک" استفاده شده عمیق نیستند. خوانندهای که از ویژگیهای ابتدایی مقادیر ویژه، بردارهای ویژه و هنجارهای ماتریس قدردانی میکند، احساس میکند که در خانه خود است. مونوگرافی پژوهشی مطبوعاتی MIT شماره 42
This monograph addresses the problem of "real-time" curve fitting in the presence of noise, from the computational and statistical viewpoints. It examines the problem of nonlinear regression, where observations are made on a time series whose mean-value function is known except for a vector parameter. In contrast to the traditional formulation, data are imagined to arrive in temporal succession. The estimation is carried out in real time so that, at each instant, the parameter estimate fully reflects all available data.Specifically, the monograph focuses on estimator sequences of the so-called differential correction type. The term "differential correction" refers to the fact that the difference between the components of the updated and previous estimators is proportional to the difference between the current observation and the value that would be predicted by the regression function if the previous estimate were in fact the true value of the unknown vector parameter. The vector of proportionality factors (which is generally time varying and can depend upon previous estimates) is called the "gain" or "smoothing" vector.The main purpose of this research is to relate the large-sample statistical behavior of such estimates (consistency, rate of convergence, large-sample distribution theory, asymptotic efficiency) to the properties of the regression function and the choice of smoothing vectors. Furthermore, consideration is given to the tradeoff that can be effected between computational simplicity and statistical efficiency through the choice of gains.Part I deals with the special cases of an unknown scalar parameter-discussing probability-one and mean-square convergence, rates of mean-square convergence, and asymptotic distribution theory of the estimators for various choices of the smoothing sequence. Part II examines the probability-one and mean-square convergence of the estimators in the vector case for various choices of smoothing vectors. Examples are liberally sprinkled throughout the book. Indeed, the last chapter is devoted entirely to the discussion of examples at varying levels of generality.If one views the stochastic approximation literature as a study in the asymptotic behavior of solutions to a certain class of nonlinear first-order difference equations with stochastic driving terms, then the results of this monograph also serve to extend and complement many of the results in that literature, which accounts for the authors' choice of title.The book is written at the first-year graduate level, although this level of maturity is not required uniformly. Certainly the reader should understand the concept of a limit both in the deterministic and probabilistic senses (i.e., almost sure and quadratic mean convergence). This much will assure a comfortable journey through the first fourth of the book. Chapters 4 and 5 require an acquaintance with a few selected central limit theorems. A familiarity with the standard techniques of large-sample theory will also prove useful but is not essential. Part II, Chapters 6 through 9, is couched in the language of matrix algebra, but none of the "classical" results used are deep. The reader who appreciates the elementary properties of eigenvalues, eigenvectors, and matrix norms will feel at home.MIT Press Research Monograph No. 42