ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Statistical Learning with Sparsity: The Lasso and Generalizations

دانلود کتاب یادگیری آماری با کمبود: لاسو و کلیات

Statistical Learning with Sparsity: The Lasso and Generalizations

مشخصات کتاب

Statistical Learning with Sparsity: The Lasso and Generalizations

ویرایش:  
نویسندگان: , ,   
سری: Chapman & Hall/CRC Monographs on Statistics & Applied Probability 
ISBN (شابک) : 1498712169, 9781498712163 
ناشر: Chapman and Hall/CRC 
سال نشر: 2015 
تعداد صفحات: 354 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 10 مگابایت 

قیمت کتاب (تومان) : 51,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Statistical Learning with Sparsity: The Lasso and Generalizations به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب یادگیری آماری با کمبود: لاسو و کلیات نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب یادگیری آماری با کمبود: لاسو و کلیات



روش های جدیدی برای مقابله با داده های با ابعاد بالا کشف کنید

یک مدل آماری پراکنده فقط تعداد کمی پارامتر یا وزن غیر صفر دارد. بنابراین، تخمین و تفسیر آن بسیار آسان تر از یک مدل متراکم است. یادگیری آماری با پراکندگی: کمند و تعمیم ها روش هایی را ارائه می دهد که از پراکندگی برای کمک به بازیابی سیگنال اصلی در مجموعه ای از داده ها استفاده می کند.

متخصصان برتر در این میدان به سرعت در حال تکامل، نویسندگان کمند را برای رگرسیون خطی و یک الگوریتم نزول مختصات ساده برای محاسبه آن توصیف می‌کنند. آنها در مورد کاربرد جریمه‌های 1 برای مدل‌های خطی تعمیم‌یافته و ماشین‌های برداری پشتیبانی می‌کنند، جریمه‌های تعمیم‌یافته مانند شبکه الاستیک و کمند گروهی را پوشش می‌دهند و روش‌های عددی را برای بهینه‌سازی مرور می‌کنند. آن‌ها همچنین روش‌های استنتاج آماری را برای مدل‌های برازش (کند)، از جمله راه‌انداز، روش‌های بیزی و رویکردهای اخیراً توسعه‌یافته ارائه می‌کنند. علاوه بر این، این کتاب تجزیه ماتریس، تجزیه و تحلیل چند متغیره پراکنده، مدل‌های گرافیکی و سنجش فشرده را بررسی می‌کند. این با بررسی نتایج نظری برای کمند به پایان می‌رسد.

در این عصر داده‌های بزرگ، تعداد ویژگی‌های اندازه‌گیری شده روی یک شخص یا شی می‌تواند زیاد باشد و ممکن است بزرگ‌تر باشد. از تعداد مشاهدات این کتاب نشان می دهد که چگونه فرض پراکندگی به ما اجازه می دهد تا با این مشکلات مقابله کنیم و الگوهای مفید و قابل تکرار را از مجموعه داده های بزرگ استخراج کنیم. تحلیلگران داده، دانشمندان کامپیوتر و نظریه پردازان از این درمان کامل و به روز مدل سازی آماری پراکنده قدردانی خواهند کرد.


توضیحاتی درمورد کتاب به خارجی

Discover New Methods for Dealing with High-Dimensional Data

A sparse statistical model has only a small number of nonzero parameters or weights; therefore, it is much easier to estimate and interpret than a dense model. Statistical Learning with Sparsity: The Lasso and Generalizations presents methods that exploit sparsity to help recover the underlying signal in a set of data.

Top experts in this rapidly evolving field, the authors describe the lasso for linear regression and a simple coordinate descent algorithm for its computation. They discuss the application of 1 penalties to generalized linear models and support vector machines, cover generalized penalties such as the elastic net and group lasso, and review numerical methods for optimization. They also present statistical inference methods for fitted (lasso) models, including the bootstrap, Bayesian methods, and recently developed approaches. In addition, the book examines matrix decomposition, sparse multivariate analysis, graphical models, and compressed sensing. It concludes with a survey of theoretical results for the lasso.

In this age of big data, the number of features measured on a person or object can be large and might be larger than the number of observations. This book shows how the sparsity assumption allows us to tackle these problems and extract useful and reproducible patterns from big datasets. Data analysts, computer scientists, and theorists will appreciate this thorough and up-to-date treatment of sparse statistical modeling.





نظرات کاربران