ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Introductory Lectures on Convex Optimization: A Basic Course

دانلود کتاب سخنرانی های مقدماتی در مورد بهینه سازی محدب: یک دوره پایه

Introductory Lectures on Convex Optimization: A Basic Course

مشخصات کتاب

Introductory Lectures on Convex Optimization: A Basic Course

ویرایش: 1 
نویسندگان:   
سری: Applied Optimization 87 
ISBN (شابک) : 9781461346913, 9781441988539 
ناشر: Springer US 
سال نشر: 2004 
تعداد صفحات: 253 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 16 مگابایت 

قیمت کتاب (تومان) : 60,000



کلمات کلیدی مربوط به کتاب سخنرانی های مقدماتی در مورد بهینه سازی محدب: یک دوره پایه: بهینه سازی، تئوری محاسبات



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 10


در صورت تبدیل فایل کتاب Introductory Lectures on Convex Optimization: A Basic Course به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب سخنرانی های مقدماتی در مورد بهینه سازی محدب: یک دوره پایه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب سخنرانی های مقدماتی در مورد بهینه سازی محدب: یک دوره پایه



در اواسط دهه 1980 بود، زمانی که مقاله اصلی کار مارکار دوره جدیدی را در بهینه سازی غیرخطی باز کرد. اهمیت این مقاله، حاوی الگوریتم چندجمله‌ای-زمان جدید برای مسائل بهینه‌سازی خطی، نه تنها در حد پیچیدگی آن بود. در آن زمان، شگفت‌انگیزترین ویژگی این الگوریتم این بود که پیش‌بینی نظری راندمان بالای آن توسط نتایج محاسباتی عالی پشتیبانی می‌شد. این واقعیت غیرمعمول به طور چشمگیری سبک و جهت تحقیق در بهینه سازی غیرخطی را تغییر داد. پس از آن بیشتر و بیشتر رایج شد که روش های جدید با تجزیه و تحلیل پیچیدگی ارائه می شوند که توجیه بهتری برای کارایی آنها نسبت به آزمایش های محاسباتی در نظر گرفته می شود. در زمینه جدیدی که به سرعت در حال توسعه است، که نام «روش‌های نقطه داخلی چند جمله‌ای زمان» را گرفت، چنین توجیهی الزامی بود. پس از تقریباً پانزده سال تحقیق فشرده، نتایج اصلی این پیشرفت در تک نگاری ها ظاهر شد [12، 14، 16، 17، 18، 19]. تقریباً در آن زمان از نویسنده خواسته شد تا یک درس جدید در مورد بهینه سازی غیرخطی برای دانشجویان تحصیلات تکمیلی آماده کند. ایده این بود که دوره ای ایجاد شود که منعکس کننده تحولات جدید در این زمینه باشد. در واقع، این یک چالش بزرگ بود. در آن زمان فقط نظریه روش‌های نقطه داخلی برای بهینه‌سازی خطی به اندازه کافی صیقل داده شده بود که برای دانشجویان توضیح داده شود. تئوری کلی توابع خود منطبق تنها یک بار به صورت تک نگاری تحقیقاتی به چاپ رسیده بود [12].


توضیحاتی درمورد کتاب به خارجی

It was in the middle of the 1980s, when the seminal paper by Kar­ markar opened a new epoch in nonlinear optimization. The importance of this paper, containing a new polynomial-time algorithm for linear op­ timization problems, was not only in its complexity bound. At that time, the most surprising feature of this algorithm was that the theoretical pre­ diction of its high efficiency was supported by excellent computational results. This unusual fact dramatically changed the style and direc­ tions of the research in nonlinear optimization. Thereafter it became more and more common that the new methods were provided with a complexity analysis, which was considered a better justification of their efficiency than computational experiments. In a new rapidly develop­ ing field, which got the name "polynomial-time interior-point methods", such a justification was obligatory. Afteralmost fifteen years of intensive research, the main results of this development started to appear in monographs [12, 14, 16, 17, 18, 19]. Approximately at that time the author was asked to prepare a new course on nonlinear optimization for graduate students. The idea was to create a course which would reflect the new developments in the field. Actually, this was a major challenge. At the time only the theory of interior-point methods for linear optimization was polished enough to be explained to students. The general theory of self-concordant functions had appeared in print only once in the form of research monograph [12].



فهرست مطالب

Front Matter....Pages i-xviii
Nonlinear Optimization....Pages 1-50
Smooth Convex Optimization....Pages 51-110
Nonsmooth Convex Optimization....Pages 111-170
Structural Optimization....Pages 171-230
Back Matter....Pages 231-236




نظرات کاربران