ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Information theory and learning. A physical approach

دانلود کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی

Information theory and learning. A physical approach

مشخصات کتاب

Information theory and learning. A physical approach

دسته بندی: فیزیک کوانتوم
ویرایش: PhD Thesis 
نویسندگان:   
سری:  
 
ناشر: Princeton 
سال نشر: 2000 
تعداد صفحات: 140 
زبان: English 
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 726 کیلوبایت 

قیمت کتاب (تومان) : 51,000



کلمات کلیدی مربوط به کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی: فیزیک، فیزیک کوانتومی، چکیده و پایان نامه



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Information theory and learning. A physical approach به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تئوری اطلاعات و یادگیری. یک رویکرد فیزیکی

ما سعی می کنیم یک رویکرد نظری اطلاعات یکپارچه برای یادگیری ایجاد کنیم و برخی از کاربردهای آن را بررسی کنیم. ابتدا، اطلاعات پیش‌بینی‌کننده را به‌عنوان اطلاعات متقابل بین گذشته و آینده یک سری زمانی تعریف می‌کنیم، رفتار آن را به عنوان تابعی از طول سری مورد بحث قرار می‌دهیم، و توضیح می‌دهیم که چگونه سایر مقادیر مورد علاقه قبلاً در تئوری یادگیری مطالعه شده‌اند. در سیستم های دینامیکی و مکانیک آماری - از این مفهوم قابل تعریف جهانی بیرون می آیند. سپس ثابت می‌کنیم که اطلاعات پیش‌بینی‌کننده معیار منحصربه‌فردی را برای پیچیدگی دینامیک زیربنای سری‌های زمانی فراهم می‌کند و نشان می‌دهد که کلاس‌هایی از مدل‌ها وجود دارند که با رشد قانون قدرت اطلاعات پیش‌بینی‌کننده مشخص می‌شوند که از نظر کیفی پیچیده‌تر از هر یک از سیستم‌هایی هستند که تاکنون انجام شده است. قبلا بررسی شده است علاوه بر این، ما یادگیری یک چگالی احتمال ناپارامتری را به صورت عددی بررسی می‌کنیم، که نمونه‌ای از یک مسئله با پیچیدگی قانون قدرت است، و نشان می‌دهیم که فرمول‌بندی بیزی مناسب این مسئله، عوامل «Occam» را فراهم می‌کند که مدل‌های بیش از حد پیچیده را مجازات می‌کند و بنابراین به شخص اجازه می دهد تا نه تنها یک راه حل را در یک کلاس مدل خاص، بلکه خود کلاس را نیز با استفاده از داده ها و با مفروضات پیشینی بسیار کمی یاد بگیرد. ما یک روش نظری اطلاعات احتمالی را مطالعه می‌کنیم که یادگیری یک متغیر گسسته کم نمونه‌برداری شده را منظم می‌کند، و نشان می‌دهد که یادگیری در چنین تنظیماتی مراحلی با پیچیدگی‌های بسیار متفاوت را طی می‌کند. در نهایت، ما بحث می کنیم که چگونه همه این ایده ها ممکن است در مسائل مختلف در فیزیک، آمار، و مهمتر از همه، زیست شناسی مفید باشند.


توضیحاتی درمورد کتاب به خارجی

We try to establish a unified information theoretic approach to learning and to explore some of its applications. First, we define predictive information as the mutual information between the past and the future of a time series, discuss its behavior as a function of the length of the series, and explain how other quantities of interest studied previously in learning theory-as well as in dynamical systems and statistical mechanics-emerge from this universally definable concept. We then prove that predictive information provides the unique measure for the complexity of dynamics underlying the time series and show that there are classes of models characterized by power-law growth of the predictive information that are qualitatively more complex than any of the systems that have been investigated before. Further, we investigate numerically the learning of a nonparametric probability density, which is an example of a problem with power-law complexity, and show that the proper Bayesian formulation of this problem provides for the 'Occam' factors that punish overly complex models and thus allow one to learn not only a solution within a specific model class, but also the class itself using the data only and with very few a priori assumptions. We study a possible information theoretic method that regularizes the learning of an undersampled discrete variable, and show that learning in such a setup goes through stages of very different complexities. Finally, we discuss how all of these ideas may be useful in various problems in physics, statistics, and, most importantly, biology.





نظرات کاربران