مشخصات کتاب
The Projected Subgradient Algorithm in Convex Optimization
ویرایش: [1st ed.]
نویسندگان: Alexander J. Zaslavski
سری: SpringerBriefs in Optimization
ISBN (شابک) : 9783030602994, 9783030603007
ناشر: Springer International Publishing;Springer
سال نشر: 2020
تعداد صفحات: VI, 146
[148]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 2 Mb
قیمت کتاب (تومان) : 30,000
میانگین امتیاز به این کتاب :
تعداد امتیاز دهندگان : 10
در صورت تبدیل فایل کتاب The Projected Subgradient Algorithm in Convex Optimization به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب الگوریتم Subgradient پیش بینی شده در بهینه سازی محدب نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
توضیحاتی در مورد کتاب الگوریتم Subgradient پیش بینی شده در بهینه سازی محدب
این تک نگاری متمرکز مطالعه ای از الگوریتم های زیرگروهی برای
مسائل کمینه سازی محدود در فضای هیلبرت را ارائه می دهد. این کتاب
مورد توجه متخصصان کاربردهای بهینه سازی در مهندسی و اقتصاد است.
هدف دستیابی به یک راه حل تقریبی خوب برای مسئله در حضور خطاهای
محاسباتی است. این بحث این واقعیت را در نظر می گیرد که برای هر
الگوریتم تکرار آن از چندین مرحله تشکیل شده است و به طور کلی
خطاهای محاسباتی برای مراحل مختلف متفاوت است. این کتاب به ویژه
برای خواننده مفید است زیرا حاوی راه حل هایی برای تعدادی از
مسائل دشوار و جالب در بهینه سازی عددی است. الگوریتم طرح ریزی
subgradient یکی از مهمترین ابزارها در تئوری بهینه سازی و
کاربردهای آن است. یک مسئله بهینه سازی با یک تابع هدف و مجموعه
ای از نقاط امکان پذیر توصیف می شود. برای این الگوریتم هر تکرار
شامل دو مرحله است. مرحله اول مستلزم محاسبه زیرگرایش تابع هدف
است. دوم نیاز به محاسبه یک پیش بینی در مجموعه امکان پذیر است.
خطاهای محاسباتی در هر یک از این دو مرحله متفاوت است. این کتاب
نشان می دهد که الگوریتم مورد بحث، در صورتی که تمام خطاهای
محاسباتی از بالا توسط یک ثابت مثبت کوچک محدود شده باشند، یک راه
حل تقریبی خوبی ایجاد می کند. علاوه بر این، اگر خطاهای محاسباتی
برای دو مرحله الگوریتم شناخته شده باشد، یک راه حل تقریبی و چند
تکرار برای این مورد نیاز است. تعمیم های در نظر گرفته شده در این
کتاب علاوه بر علاقه ریاضی، معنای کاربردی قابل توجهی نیز دارد.
توضیحاتی درمورد کتاب به خارجی
This focused monograph presents a study of subgradient
algorithms for constrained minimization problems in a Hilbert
space. The book is of interest for experts in applications of
optimization to engineering and economics. The goal is to
obtain a good approximate solution of the problem in the
presence of computational errors. The discussion takes into
consideration the fact that for every algorithm its iteration
consists of several steps and that computational errors for
different steps are different, in general. The book is especially
useful for the reader because it contains solutions to a number
of difficult and interesting problems in the numerical
optimization. The subgradient projection algorithm is one of
the most important tools in optimization theory and its
applications. An optimization problem is described by an
objective function and a set of feasible points. For this
algorithm each iteration consists of two steps. The first step
requires a calculation of a subgradient of the objective
function; the second requires a calculation of a projection on
the feasible set. The computational errors in each of these two
steps are different. This book shows that the algorithm
discussed, generates a good approximate solution, if all the
computational errors are bounded from above by a small positive
constant. Moreover, if computational errors for the two steps
of the algorithm are known, one discovers an approximate
solution and how many iterations one needs for this. In
addition to their mathematical interest, the generalizations
considered in this book have a significant practical meaning.
نظرات کاربران