ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Optimization in Banach Spaces

دانلود کتاب بهینه سازی در فضاهای Banach

Optimization in Banach Spaces

مشخصات کتاب

Optimization in Banach Spaces

ویرایش:  
نویسندگان:   
سری: SpringerBriefs in Optimization 
ISBN (شابک) : 3031126432, 9783031126437 
ناشر: Springer 
سال نشر: 2022 
تعداد صفحات: 131
[132] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 Mb 

قیمت کتاب (تومان) : 35,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 5


در صورت تبدیل فایل کتاب Optimization in Banach Spaces به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب بهینه سازی در فضاهای Banach نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب بهینه سازی در فضاهای Banach

این کتاب به مطالعه مسائل کمینه سازی محدود در مجموعه های بسته و محدب در فضاهای Banach با تابع هدف متمایز پذیر Frechet اختصاص دارد. چنین مسائلی در فضایی با بعد محدود و در فضای هیلبرت بی‌بعدی به خوبی مطالعه می‌شوند. وقتی فضا هیلبرت باشد، الگوریتم‌های زیادی برای حل مسائل بهینه‌سازی وجود دارد، از جمله الگوریتم پیش‌بینی گرادیان که یکی از مهم‌ترین ابزارها در تئوری بهینه‌سازی، تحلیل غیرخطی و کاربردهای آن‌ها است. یک مسئله بهینه‌سازی با یک تابع هدف و مجموعه‌ای از نقاط امکان‌پذیر توصیف می‌شود. برای الگوریتم طرح شیب، هر تکرار شامل دو مرحله است. مرحله اول، محاسبه گرادیان تابع هدف است، در حالی که در مرحله دوم، پیش‌بینی را روی مجموعه امکان‌پذیر محاسبه می‌کنیم. در هر یک از این دو مرحله یک خطای محاسباتی وجود دارد. در تحقیقات اخیر ما نشان می‌دهیم که الگوریتم پیش‌بینی گرادیان یک راه‌حل تقریبی خوبی ایجاد می‌کند، اگر همه خطاهای محاسباتی از بالا با یک ثابت مثبت کوچک محدود شوند. لازم به ذکر است که ویژگی های فضای هیلبرت نقش مهمی ایفا می کند. وقتی یک مسئله بهینه‌سازی را در فضای عمومی Banach در نظر می‌گیریم، وضعیت دشوارتر و کمتر درک می‌شود. از طرف دیگر چنین مشکلاتی در نظریه تقریب به وجود می آیند. این کتاب برای ریاضیدانانی که در زمینه بهینه‌سازی کار می‌کنند جالب است. همچنین می تواند در دوره های آمادگی برای دانشجویان تحصیلات تکمیلی مفید باشد. ویژگی اصلی کتاب که به طور خاص برای این مخاطبان جذاب است، مطالعه الگوریتم‌های مسائل کمینه‌سازی محدب و غیر محدب در فضای عمومی Banach است. این کتاب مورد توجه متخصصان کاربردهای بهینه‌سازی در نظریه تقریب است.
در این کتاب هدف به دست آوردن یک راه‌حل تقریبی خوب برای مسئله بهینه‌سازی محدود در فضای عمومی Banach تحت حضور خطاهای محاسباتی است. نشان داده شده است که الگوریتم یک راه حل تقریبی خوبی ایجاد می کند، اگر دنباله خطاهای محاسباتی از بالا توسط یک ثابت کوچک محدود شود. کتاب از چهار فصل تشکیل شده است. در اول ما چندین الگوریتم را مورد بررسی قرار می‌دهیم که در کتاب مورد مطالعه قرار گرفته‌اند و یک نتیجه هم‌گرایی را برای یک مسئله بدون محدودیت که نمونه اولیه نتایج ما برای مسئله محدود است، اثبات می‌کنیم. در فصل 2 مسائل بهینه سازی محدب را تحلیل می کنیم. مسائل بهینه‌سازی غیرمحدب در فصل 3 مورد مطالعه قرار می‌گیرند. در فصل 4 الگوریتم‌های پیوسته را برای مسائل کمینه‌سازی تحت حضور خطاهای محاسباتی مطالعه می‌کنیم. الگوریتم یک راه حل تقریبی خوبی ایجاد می کند، اگر دنباله خطاهای محاسباتی از بالا با یک ثابت کوچک محدود شود. کتاب از چهار فصل تشکیل شده است. در اول ما چندین الگوریتم را مورد بررسی قرار می‌دهیم که در کتاب مورد مطالعه قرار گرفته‌اند و یک نتیجه هم‌گرایی را برای یک مسئله بدون محدودیت که نمونه اولیه نتایج ما برای مسئله محدود است، اثبات می‌کنیم. در فصل 2 مسائل بهینه سازی محدب را تحلیل می کنیم. مسائل بهینه‌سازی غیرمحدب  در فصل 3 مورد مطالعه قرار می‌گیرند. در فصل 4، الگوریتم‌های پیوسته    برای مشکلات کمینه‌سازی در حضور خطاهای محاسباتی را مطالعه می‌کنیم.




توضیحاتی درمورد کتاب به خارجی

The book is devoted to the study of constrained minimization  problems on closed and convex sets in Banach spaces with a Frechet differentiable objective function. Such  problems are well studied in a  finite-dimensional space and in an infinite-dimensional Hilbert space. When the space is Hilbert there are many algorithms for solving optimization problems including the gradient projection algorithm which  is one of the most important tools in the optimization theory, nonlinear analysis and their applications. An optimization problem is described by an  objective function  and a set of feasible points. For the gradient projection algorithm each iteration consists of two steps. The first step is a calculation of a gradient of the objective function while in the second one  we calculate a projection on the feasible  set. In each of these two steps there is a computational error. In our recent research we show that the gradient projection algorithm generates a good approximate solution, if all the computational errors are bounded from above by a small positive constant. It should be mentioned that  the properties of a Hilbert space play an important role. When we consider an optimization problem in a general Banach space the situation becomes more difficult and less understood. On the other hand such problems arise in the approximation theory. The book is of interest for mathematicians working in  optimization. It also can be useful in preparation courses for graduate students.  The main feature of the book which appeals specifically to this audience is the study of algorithms for convex and nonconvex minimization problems in a general Banach space. The book is of interest for experts in applications of optimization to the approximation theory.
In this book the goal is to obtain a good approximate solution of the constrained optimization problem in a general Banach space under  the presence of computational errors.  It is shown that the algorithm generates a good approximate solution, if the sequence of computational errors is bounded from above by a small constant. The book consists of four chapters. In the first we discuss several algorithms which are studied in the book and  prove a convergence result for an unconstrained problem which is a prototype of our results for the constrained problem. In Chapter 2 we analyze convex optimization problems. Nonconvex optimization problems  are studied in Chapter 3. In Chapter 4 we study  continuous   algorithms for minimization problems under the presence of computational errors. The algorithm generates a good approximate solution, if the sequence of computational errors is bounded from above by a small constant. The book consists of four chapters. In the first we discuss several algorithms which are studied in the book and  prove a convergence result for an unconstrained problem which is a prototype of our results for the constrained problem. In Chapter 2 we analyze convex optimization problems. Nonconvex optimization problems  are studied in Chapter 3. In Chapter 4 we study  continuous   algorithms for minimization problems under the presence of computational errors.







نظرات کاربران