دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: فیزیک کوانتوم ویرایش: PhD Thesis نویسندگان: Nemenman I.M. سری: ناشر: Princeton سال نشر: 2000 تعداد صفحات: 140 زبان: English فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 726 کیلوبایت
کلمات کلیدی مربوط به کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی: فیزیک، فیزیک کوانتومی، چکیده و پایان نامه
در صورت تبدیل فایل کتاب Information theory and learning. A physical approach به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
ما سعی می کنیم یک رویکرد نظری اطلاعات یکپارچه برای یادگیری ایجاد کنیم و برخی از کاربردهای آن را بررسی کنیم. ابتدا، اطلاعات پیشبینیکننده را بهعنوان اطلاعات متقابل بین گذشته و آینده یک سری زمانی تعریف میکنیم، رفتار آن را به عنوان تابعی از طول سری مورد بحث قرار میدهیم، و توضیح میدهیم که چگونه سایر مقادیر مورد علاقه قبلاً در تئوری یادگیری مطالعه شدهاند. در سیستم های دینامیکی و مکانیک آماری - از این مفهوم قابل تعریف جهانی بیرون می آیند. سپس ثابت میکنیم که اطلاعات پیشبینیکننده معیار منحصربهفردی را برای پیچیدگی دینامیک زیربنای سریهای زمانی فراهم میکند و نشان میدهد که کلاسهایی از مدلها وجود دارند که با رشد قانون قدرت اطلاعات پیشبینیکننده مشخص میشوند که از نظر کیفی پیچیدهتر از هر یک از سیستمهایی هستند که تاکنون انجام شده است. قبلا بررسی شده است علاوه بر این، ما یادگیری یک چگالی احتمال ناپارامتری را به صورت عددی بررسی میکنیم، که نمونهای از یک مسئله با پیچیدگی قانون قدرت است، و نشان میدهیم که فرمولبندی بیزی مناسب این مسئله، عوامل «Occam» را فراهم میکند که مدلهای بیش از حد پیچیده را مجازات میکند و بنابراین به شخص اجازه می دهد تا نه تنها یک راه حل را در یک کلاس مدل خاص، بلکه خود کلاس را نیز با استفاده از داده ها و با مفروضات پیشینی بسیار کمی یاد بگیرد. ما یک روش نظری اطلاعات احتمالی را مطالعه میکنیم که یادگیری یک متغیر گسسته کم نمونهبرداری شده را منظم میکند، و نشان میدهد که یادگیری در چنین تنظیماتی مراحلی با پیچیدگیهای بسیار متفاوت را طی میکند. در نهایت، ما بحث می کنیم که چگونه همه این ایده ها ممکن است در مسائل مختلف در فیزیک، آمار، و مهمتر از همه، زیست شناسی مفید باشند.
We try to establish a unified information theoretic approach to learning and to explore some of its applications. First, we define predictive information as the mutual information between the past and the future of a time series, discuss its behavior as a function of the length of the series, and explain how other quantities of interest studied previously in learning theory-as well as in dynamical systems and statistical mechanics-emerge from this universally definable concept. We then prove that predictive information provides the unique measure for the complexity of dynamics underlying the time series and show that there are classes of models characterized by power-law growth of the predictive information that are qualitatively more complex than any of the systems that have been investigated before. Further, we investigate numerically the learning of a nonparametric probability density, which is an example of a problem with power-law complexity, and show that the proper Bayesian formulation of this problem provides for the 'Occam' factors that punish overly complex models and thus allow one to learn not only a solution within a specific model class, but also the class itself using the data only and with very few a priori assumptions. We study a possible information theoretic method that regularizes the learning of an undersampled discrete variable, and show that learning in such a setup goes through stages of very different complexities. Finally, we discuss how all of these ideas may be useful in various problems in physics, statistics, and, most importantly, biology.