دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Trevor Hastie, Robert Tibshirani, Martin Wainwright سری: Chapman & Hall/CRC Monographs on Statistics & Applied Probability ISBN (شابک) : 1498712169, 9781498712163 ناشر: Chapman and Hall/CRC سال نشر: 2015 تعداد صفحات: 354 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 10 مگابایت
در صورت تبدیل فایل کتاب Statistical Learning with Sparsity: The Lasso and Generalizations به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب یادگیری آماری با کمبود: لاسو و کلیات نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
روش های جدیدی برای مقابله با داده های با ابعاد بالا کشف کنید
یک مدل آماری پراکنده فقط تعداد کمی پارامتر یا وزن غیر صفر دارد. بنابراین، تخمین و تفسیر آن بسیار آسان تر از یک مدل متراکم است. یادگیری آماری با پراکندگی: کمند و تعمیم ها روش هایی را ارائه می دهد که از پراکندگی برای کمک به بازیابی سیگنال اصلی در مجموعه ای از داده ها استفاده می کند.
متخصصان برتر در این میدان به سرعت در حال تکامل، نویسندگان کمند را برای رگرسیون خطی و یک الگوریتم نزول مختصات ساده برای محاسبه آن توصیف میکنند. آنها در مورد کاربرد جریمههای ℓ1 برای مدلهای خطی تعمیمیافته و ماشینهای برداری پشتیبانی میکنند، جریمههای تعمیمیافته مانند شبکه الاستیک و کمند گروهی را پوشش میدهند و روشهای عددی را برای بهینهسازی مرور میکنند. آنها همچنین روشهای استنتاج آماری را برای مدلهای برازش (کند)، از جمله راهانداز، روشهای بیزی و رویکردهای اخیراً توسعهیافته ارائه میکنند. علاوه بر این، این کتاب تجزیه ماتریس، تجزیه و تحلیل چند متغیره پراکنده، مدلهای گرافیکی و سنجش فشرده را بررسی میکند. این با بررسی نتایج نظری برای کمند به پایان میرسد.
در این عصر دادههای بزرگ، تعداد ویژگیهای اندازهگیری شده روی یک شخص یا شی میتواند زیاد باشد و ممکن است بزرگتر باشد. از تعداد مشاهدات این کتاب نشان می دهد که چگونه فرض پراکندگی به ما اجازه می دهد تا با این مشکلات مقابله کنیم و الگوهای مفید و قابل تکرار را از مجموعه داده های بزرگ استخراج کنیم. تحلیلگران داده، دانشمندان کامپیوتر و نظریه پردازان از این درمان کامل و به روز مدل سازی آماری پراکنده قدردانی خواهند کرد.
Discover New Methods for Dealing with High-Dimensional Data
A sparse statistical model has only a small number of nonzero parameters or weights; therefore, it is much easier to estimate and interpret than a dense model. Statistical Learning with Sparsity: The Lasso and Generalizations presents methods that exploit sparsity to help recover the underlying signal in a set of data.
Top experts in this rapidly evolving field, the authors describe the lasso for linear regression and a simple coordinate descent algorithm for its computation. They discuss the application of ℓ1 penalties to generalized linear models and support vector machines, cover generalized penalties such as the elastic net and group lasso, and review numerical methods for optimization. They also present statistical inference methods for fitted (lasso) models, including the bootstrap, Bayesian methods, and recently developed approaches. In addition, the book examines matrix decomposition, sparse multivariate analysis, graphical models, and compressed sensing. It concludes with a survey of theoretical results for the lasso.
In this age of big data, the number of features measured on a person or object can be large and might be larger than the number of observations. This book shows how the sparsity assumption allows us to tackle these problems and extract useful and reproducible patterns from big datasets. Data analysts, computer scientists, and theorists will appreciate this thorough and up-to-date treatment of sparse statistical modeling.