دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1st ed.
نویسندگان: Alexander J. Zaslavski
سری: Springer optimization and its applications 108
ISBN (شابک) : 331930920X, 3319309218
ناشر: Springer International Publishing : Imprint : Springer
سال نشر: 2016
تعداد صفحات: 308
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 1 مگابایت
کلمات کلیدی مربوط به کتاب بهینه سازی عددی با خطاهای محاسباتی: ریاضیات، آنالیز عددی، محاسبات تغییرات، تحقیق در عملیات، علم مدیریت
در صورت تبدیل فایل کتاب Numerical Optimization with Computational Errors به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب بهینه سازی عددی با خطاهای محاسباتی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب راهحلهای تقریبی مسائل بهینهسازی را در حضور خطاهای محاسباتی مطالعه میکند. تعدادی از نتایج در مورد رفتار همگرایی الگوریتم ها در فضای هیلبرت ارائه شده است. این الگوریتم ها با در نظر گرفتن خطاهای محاسباتی مورد بررسی قرار می گیرند. نویسنده نشان میدهد که اگر خطاهای محاسباتی از بالا با یک ثابت مثبت کوچک محدود شوند، الگوریتمها یک راهحل تقریبی خوبی ایجاد میکنند. خطاهای محاسباتی شناخته شده با هدف تعیین یک راه حل تقریبی بررسی می شوند. پژوهشگران و دانشجویان علاقه مند به تئوری بهینه سازی و کاربردهای آن، این کتاب را آموزنده و آموزنده می یابند.
این تک نگاری شامل 16 فصل است. شامل فصول اختصاص داده شده به الگوریتم طرح ریزی زیرگروه، الگوریتم فرود آینه، الگوریتم طرح شیب، روش وایزفلدز، مسائل کمینه سازی محدب محدود، همگرایی یک روش نقطه نزدیک در فضای هیلبرت، روش زیر گرادیان پیوسته، روش های جریمه و روش نیوتن .
This book studies the approximate solutions of optimization problems in the presence of computational errors. A number of results are presented on the convergence behavior of algorithms in a Hilbert space; these algorithms are examined taking into account computational errors. The author illustrates that algorithms generate a good approximate solution, if computational errors are bounded from above by a small positive constant. Known computational errors are examined with the aim of determining an approximate solution. Researchers and students interested in the optimization theory and its applications will find this book instructive and informative.
This monograph contains 16 chapters; including a chapters devoted to the subgradient projection algorithm, the mirror descent algorithm, gradient projection algorithm, the Weiszfelds method, constrained convex minimization problems, the convergence of a proximal point method in a Hilbert space, the continuous subgradient method, penalty methods and Newton’s method.
Front Matter....Pages i-ix
Introduction....Pages 1-9
Subgradient Projection Algorithm....Pages 11-40
The Mirror Descent Algorithm....Pages 41-58
Gradient Algorithm with a Smooth Objective Function....Pages 59-72
An Extension of the Gradient Algorithm....Pages 73-84
Weiszfeld’s Method....Pages 85-103
The Extragradient Method for Convex Optimization....Pages 105-118
A Projected Subgradient Method for Nonsmooth Problems....Pages 119-136
Proximal Point Method in Hilbert Spaces....Pages 137-147
Proximal Point Methods in Metric Spaces....Pages 149-168
Maximal Monotone Operators and the Proximal Point Algorithm....Pages 169-181
The Extragradient Method for Solving Variational Inequalities....Pages 183-203
A Common Solution of a Family of Variational Inequalities....Pages 205-224
Continuous Subgradient Method....Pages 225-238
Penalty Methods....Pages 239-264
Newton’s Method....Pages 265-296
Back Matter....Pages 297-304