دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1
نویسندگان: Joe Suzuki
سری:
ISBN (شابک) : 9811614377, 9789811614378
ناشر: Springer
سال نشر: 2021
تعداد صفحات: 254
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 4 مگابایت
در صورت تبدیل فایل کتاب Sparse Estimation with Math and Python: 100 Exercises for Building Logic به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تخمین پراکنده با ریاضی و پایتون: 100 تمرین برای ساختن منطق نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
حیاتی ترین توانایی برای یادگیری ماشین و علم داده، منطق ریاضی برای درک ماهیت آنها به جای دانش و تجربه است. این کتاب درسی با در نظر گرفتن مسائل ریاضی و ساختن برنامه های پایتون به اصل تخمین پراکنده نزدیک می شود. هر فصل مفهوم پراکندگی را معرفی میکند و رویههایی را که مشتقهای ریاضی و برنامههای منبع دنبال میشوند همراه با مثالهایی از اجرا ارائه میکند. برای به حداکثر رساندن بینش خوانندگان در مورد پراکندگی، تقریباً برای همه گزارهها اثباتهای ریاضی ارائه میشوند و برنامهها بدون وابستگی به هیچ بستهای توصیف میشوند. این کتاب با دقت سازماندهی شده است تا راه حل های تمرین های هر فصل را ارائه دهد تا خوانندگان بتوانند با دنبال کردن مطالب هر فصل، مجموع 100 تمرین را حل کنند. این کتاب درسی برای دوره های کارشناسی یا کارشناسی ارشد شامل حدود 15 سخنرانی (هر کدام 90 دقیقه) مناسب است. این کتاب که به سبکی ساده و مستقل نوشته شده است، همچنین یک ماده عالی برای یادگیری مستقل توسط دانشمندان داده، مهندسان یادگیری ماشین و محققان علاقه مند به رگرسیون خطی، کمند خطی تعمیم یافته، کمند گروهی، کمند ذوب شده، گرافیک خواهد بود. مدل ها، تجزیه ماتریس، و تجزیه و تحلیل چند متغیره.
The most crucial ability for machine learning and data science is mathematical logic for grasping their essence rather than knowledge and experience. This textbook approaches the essence of sparse estimation by considering math problems and building Python programs. Each chapter introduces the notion of sparsity and provides procedures followed by mathematical derivations and source programs with examples of execution. To maximize readers’ insights into sparsity, mathematical proofs are presented for almost all propositions, and programs are described without depending on any packages. The book is carefully organized to provide the solutions to the exercises in each chapter so that readers can solve the total of 100 exercises by simply following the contents of each chapter. This textbook is suitable for an undergraduate or graduate course consisting of about 15 lectures (90 mins each). Written in an easy-to-follow and self-contained style, this book will also be perfect material for independent learning by data scientists, machine learning engineers, and researchers interested in linear regression, generalized linear lasso, group lasso, fused lasso, graphical models, matrix decomposition, and multivariate analysis.
Preface What makes SEMP unique? Contents 1 Linear Regression 1.1 Linear Regression 1.2 Subderivative 1.3 Lasso 1.4 Ridge 1.5 A Comparison Between Lasso and Ridge 1.6 Elastic Net 1.7 About How to Set the Value of λ 2 Generalized Linear Regression 2.1 Generalization of Lasso in Linear Regression 2.2 Logistic Regression for Binary Values 2.3 Logistic Regression for Multiple Values 2.4 Poisson Regression 2.5 Survival Analysis 3 Group Lasso 3.1 When One Group Exists 3.2 Proxy Gradient Method 3.3 Group Lasso 3.4 Sparse Group Lasso 3.5 Overlap Lasso 3.6 Group Lasso with Multiple Responses 3.7 Group Lasso Via Logistic Regression 3.8 Group Lasso for the Generalized Additive Models 4 Fused Lasso 4.1 Applications of Fused Lasso 4.2 Solving Fused Lasso Via Dynamic Programming 4.3 LARS 4.4 Dual Lasso Problem and Generalized Lasso 4.5 ADMM 5 Graphical Models 5.1 Graphical Models 5.2 Graphical Lasso 5.3 Estimation of the Graphical Model Based on the Quasi-Likelihood 5.4 Joint Graphical Lasso 6 Matrix Decomposition 6.1 Singular Decomposition 6.2 Eckart-Young's Theorem 6.3 Norm 6.4 Sparse Estimation for Low-Rank Estimations 7 Multivariate Analysis 7.1 Principal Component Analysis (1): SCoTLASS 7.2 Principle Component Analysis (2): SPCA 7.3 K-Means Clustering 7.4 Convex Clustering Appendix References