دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Dirk Husmeier PhD (auth.)
سری: Perspectives in Neural Computing
ISBN (شابک) : 9781852330958, 9781447108474
ناشر: Springer-Verlag London
سال نشر: 1999
تعداد صفحات: 279
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 24 مگابایت
کلمات کلیدی مربوط به کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای: تشخیص الگو، فیزیک آماری، سیستمهای دینامیکی و پیچیدگی، زیستشناسی عصبی
در صورت تبدیل فایل کتاب Neural Networks for Conditional Probability Estimation: Forecasting Beyond Point Predictions به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب شبکه های عصبی برای برآورد احتمال شرطی: پیش بینی فراتر از پیش بینی های نقطه ای نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
کاربردهای معمولی شبکه های عصبی معمولاً یک مقدار واحد را به عنوان تابعی از ورودی های داده شده پیش بینی می کنند. برای مثال، در پیشبینی، یک هدف استاندارد، پیشبینی ارزش آتی یک واحد مورد علاقه بر اساس یک سری زمانی از اندازهگیریها یا مشاهدات گذشته است. طرحهای آموزشی معمولی با هدف به حداقل رساندن مجموع انحرافات مجذور بین مقادیر پیشبینیشده و واقعی («هدفها»)، که بهطور ایدهآل، شبکه میانگین شرطی هدف را با توجه به ورودی میآموزد، انجام میشود. اگر توزیع شرطی زیربنایی گاوس سیان یا حداقل یک وجهی باشد، این ممکن است یک رویکرد رضایتبخش باشد. با این حال، برای یک توزیع چندوجهی، میانگین شرطی ویژگیهای مربوط به سیستم را نشان نمیدهد، و عملکرد پیشبینی، به طور کلی، بسیار ضعیف خواهد بود. این نیاز به یک مدل قوی تر و پیچیده تر دارد که می تواند کل توزیع احتمال شرطی را یاد بگیرد. فصل 1 نشان میدهد که حتی برای یک سیستم قطعی و نویز مشاهدهای گاوسی «خفیف»، توزیع مشروط مشاهدات آینده، مشروط به مجموعهای از مشاهدات گذشته، میتواند به شدت منحرف و چندوجهی شود. در فصل 2، یک ساختار شبکه عصبی کلی برای مدلسازی چگالی احتمال شرطی مشتق شده است، و نشان داده میشود که یک تقریب جهانی برای این کار توسعهیافته حداقل به دو لایه پنهان نیاز دارد. یک طرح آموزشی از رویکرد حداکثر احتمال در فصل 3 ایجاد شده است، و عملکرد این روش در سه سری زمانی تصادفی در فصل های 4 و 5 نشان داده شده است.
Conventional applications of neural networks usually predict a single value as a function of given inputs. In forecasting, for example, a standard objective is to predict the future value of some entity of interest on the basis of a time series of past measurements or observations. Typical training schemes aim to minimise the sum of squared deviations between predicted and actual values (the 'targets'), by which, ideally, the network learns the conditional mean of the target given the input. If the underlying conditional distribution is Gaus sian or at least unimodal, this may be a satisfactory approach. However, for a multimodal distribution, the conditional mean does not capture the relevant features of the system, and the prediction performance will, in general, be very poor. This calls for a more powerful and sophisticated model, which can learn the whole conditional probability distribution. Chapter 1 demonstrates that even for a deterministic system and 'be nign' Gaussian observational noise, the conditional distribution of a future observation, conditional on a set of past observations, can become strongly skewed and multimodal. In Chapter 2, a general neural network structure for modelling conditional probability densities is derived, and it is shown that a universal approximator for this extended task requires at least two hidden layers. A training scheme is developed from a maximum likelihood approach in Chapter 3, and the performance ofthis method is demonstrated on three stochastic time series in chapters 4 and 5.
Front Matter....Pages i-xxiii
Introduction....Pages 1-19
A Universal Approximator Network for Predicting Conditional Probability Densities....Pages 21-37
A Maximum Likelihood Training Scheme....Pages 39-55
Benchmark Problems....Pages 57-67
Demonstration of the Model Performance on the Benchmark Problems....Pages 69-85
Random Vector Functional Link (RVFL) Networks....Pages 87-97
Improved Training Scheme Combining the Expectation Maximisation (EM) Algorithm with the RVFL Approach....Pages 99-119
Empirical Demonstration: Combining EM and RVFL....Pages 121-135
A simple Bayesian regularisation scheme....Pages 137-145
The Bayesian Evidence Scheme for Regularisation....Pages 147-163
The Bayesian Evidence Scheme for Model Selection....Pages 165-177
Demonstration of the Bayesian Evidence Scheme for Regularisation....Pages 179-191
Network Committees and Weighting Schemes....Pages 193-201
Demonstration: Committees of Networks Trained with Different Regularisation Schemes....Pages 203-219
Automatic Relevance Determination (ARD)....Pages 221-227
A Real-World Application: The Boston Housing Data....Pages 229-250
Summary....Pages 251-253
Appendix: Derivation of the Hessian for the Bayesian Evidence Scheme....Pages 255-265
Back Matter....Pages 267-275