ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Convex analysis and optimization

دانلود کتاب تجزیه و تحلیل محدب و بهینه سازی

Convex analysis and optimization

مشخصات کتاب

Convex analysis and optimization

ویرایش:  
نویسندگان: , ,   
سری:  
ISBN (شابک) : 1886529450 
ناشر: Athena Scientific 
سال نشر: 2003 
تعداد صفحات: 549 
زبان: English 
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 7 مگابایت 

قیمت کتاب (تومان) : 32,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 7


در صورت تبدیل فایل کتاب Convex analysis and optimization به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب تجزیه و تحلیل محدب و بهینه سازی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب تجزیه و تحلیل محدب و بهینه سازی

درمان منحصر به فرد آموزشی، بینش‌گر و دقیق مبانی تحلیلی/هندسی بهینه‌سازی. این کتاب توسعه جامعی از تئوری تحدب و کاربردهای غنی آن در بهینه‌سازی، از جمله دوگانگی، تئوری مینی‌مکس/نقطه زین، ضرب‌کننده‌های لاگرانژ، و بهینه‌سازی آرامش/غیر قابل تمایز لاگرانژی را ارائه می‌دهد. این یک مکمل عالی برای چندین کتاب ما است: تئوری بهینه سازی محدب (آتنا علمی، 2009)، الگوریتم های بهینه سازی محدب (آتنا علمی، 2015)، برنامه ریزی غیرخطی (آتنا علمی، 2016)، بهینه سازی شبکه (آتنا علمی، 1998)، و مقدمه ای بر بهینه سازی خطی (آتنا علمی، 1997). جدای از شرح کامل تحلیل محدب و بهینه‌سازی، هدف این کتاب بازسازی نظریه موضوع، با معرفی چندین خط یکپارچه تحلیلی جدید، از جمله: 1) توسعه یکپارچه نظریه حداقل و دوگانگی بهینه‌سازی محدود به عنوان موارد خاص دوگانگی است. بین دو مسئله هندسی ساده 2) توسعه یکپارچه شرایط برای وجود راه‌حل‌های مسائل بهینه‌سازی محدب، شرایط برای حفظ برابری حداکثر، و شرایط عدم وجود شکاف دوگانگی در بهینه‌سازی محدود. 3) یکپارچگی شرایط محدودیت اصلی که امکان استفاده از ضرب‌کننده‌های لاگرانژ را برای بهینه‌سازی محدود غیر محدب می‌دهد، با استفاده از مفهوم شبه نرمال بودن محدودیت و شکل پیشرفته‌ای از شرایط بهینه لازم فریتز جان. از جمله ویژگی های کتاب: الف) نظریه مجموعه ها و توابع محدب را به طور دقیق و جامع توسعه می دهد، به سنت کلاسیک فنچل و راکافلار ب) ارائه یک درمان هندسی و بسیار بصری از مسائل بهینه سازی محدب و غیر محدب، از جمله وجود راه حل ها، بهینه بودن. شرایط، ضرب‌کننده‌های لاگرانژ، و دوگانگی ج) شامل ارائه‌ای روشن‌تر و جامع از نظریه حداقل و بازی‌های حاصل جمع صفر و ارتباط آن با دوگانگی است. برنامه نویسی درجه دوم و عدد صحیح ه) شامل مثال ها، تصاویر و تمرین های بسیاری با راه حل های کامل (حدود 200 صفحه) است که در وب سایت ناشر http://www.athenasc.com/convexity.html ارسال شده است.


توضیحاتی درمورد کتاب به خارجی

A uniquely pedagogical, insightful, and rigorous treatment of the analytical/geometrical foundations of optimization. The book provides a comprehensive development of convexity theory, and its rich applications in optimization, including duality, minimax/saddle point theory, Lagrange multipliers, and Lagrangian relaxation/nondifferentiable optimization. It is an excellent supplement to several of our books: Convex Optimization Theory (Athena Scientific, 2009), Convex Optimization Algorithms (Athena Scientific, 2015), Nonlinear Programming (Athena Scientific, 2016), Network Optimization (Athena Scientific, 1998), and Introduction to Linear Optimization (Athena Scientific, 1997). Aside from a thorough account of convex analysis and optimization, the book aims to restructure the theory of the subject, by introducing several novel unifying lines of analysis, including: 1) A unified development of minimax theory and constrained optimization duality as special cases of duality between two simple geometrical problems. 2) A unified development of conditions for existence of solutions of convex optimization problems, conditions for the minimax equality to hold, and conditions for the absence of a duality gap in constrained optimization. 3) A unification of the major constraint qualifications allowing the use of Lagrange multipliers for nonconvex constrained optimization, using the notion of constraint pseudonormality and an enhanced form of the Fritz John necessary optimality conditions. Among its features the book: a) Develops rigorously and comprehensively the theory of convex sets and functions, in the classical tradition of Fenchel and Rockafellar b) Provides a geometric, highly visual treatment of convex and nonconvex optimization problems, including existence of solutions, optimality conditions, Lagrange multipliers, and duality c) Includes an insightful and comprehensive presentation of minimax theory and zero sum games, and its connection with duality d) Describes dual optimization, the associated computational methods, including the novel incremental subgradient methods, and applications in linear, quadratic, and integer programming e) Contains many examples, illustrations, and exercises with complete solutions (about 200 pages) posted at the publisher's web site http://www.athenasc.com/convexity.html



فهرست مطالب

Dimitri P. Bertsekas , with Angelia Nedic and Asuman E. Ozdaglar.Convex Analysis and Optimization(Optimization and Computation Series, Vol.1)(AS,2003)(ISBN 1886529450)(600dpi)(549p)  ......Page 2
Copyright ......Page 3
Preface ix ......Page 8
Contents v ......Page 5
1. Basic Convexity Concepts 1 ......Page 15
1.1. Linear Algebra and Real Analysis 3 ......Page 17
1.1.1. Vectors and Matrices 5 ......Page 19
1.1.2. Topological Properties 8 ......Page 22
1.1.3. Square Matrices 15 ......Page 29
1.1.4. Derivatives 16 ......Page 30
1.2. Convex Sets and Functions 20 ......Page 34
1.3. Convex and Affine Hulls 35 ......Page 49
1.4. Relative Interior, Closure, and Continuity 39 ......Page 53
1.5. Recession Cones 49 ......Page 63
1.5.1. Nonemptiness of Intersections of Closed Sets 56 ......Page 70
1.5.2. Closedness Under Linear Transformations 64 ......Page 78
1.6. Notes, Sources, and Exercises 68 ......Page 82
2. Convexity and Optimization 83 ......Page 97
2.1. Global and Local Minima 84 ......Page 98
2.2. The Projection Theorem 88 ......Page 102
2.3. Directions of Recession and Existence of Optimal Solutions 92 ......Page 106
2.3.1. Existence of Solutions of Convex Programs 94 ......Page 108
2.3.2. Unbounded Optimal Solution Sets 97 ......Page 111
2.3.3. Partial Minimization of Convex Functions101 ......Page 115
2.4. Hyperplanes 107 ......Page 121
2.5.1. Nonvertical Hyperplanes p. 117 ......Page 131
2.5.2. Min Common/Max Crossing Duality 120 ......Page 134
2.6. Saddle Point and Minimax Theory 128 ......Page 142
2.6.1. Min Common/Max Crossing Framework for Minimax 133 ......Page 147
2.6.2. Minimax Theorems 139 ......Page 153
2.6.3. Saddle Point Theorems 143 ......Page 157
2.7. Notes, Sources, and Exercises 151 ......Page 165
3. Polyhedral Convexity 165 ......Page 179
3.1. Polar Cones166 ......Page 180
3.2. Polyhedral Cones and Polyhedral Sets 168 ......Page 182
3.2.1. Farkas’ Lemma and Minkowski-Weyl Theorem 170 ......Page 184
3.2.2. Polyhedral Sets175 ......Page 189
3.2.3. Polyhedral Functions 178 ......Page 192
3.3. Extreme Points 180 ......Page 194
3.3.1. Extreme Points of Polyhedral Sets 183 ......Page 197
3.4. Polyhedral Aspects of Optimization 186 ......Page 200
3.4.1. Linear Programming 188 ......Page 202
3.4.2. Integer Programming 189 ......Page 203
3.5.1. Polyhedral Proper Separation 192 ......Page 206
3.5.2. Min Common/Max Crossing Duality 196 ......Page 210
3.5.3. Minimax Theory Under Polyhedral Assumptions 199 ......Page 213
3.5.4. A Nonlinear Version of Farkas’ Lemma 203 ......Page 217
3.5.5. Convex Programming 208 ......Page 222
3.6. Notes, Sources, and Exercises210 ......Page 224
4. Subgradients and Constrained Optimization 221 ......Page 235
4.1. Directional Derivatives 222 ......Page 236
4.2. Subgradients and Subdifferentials 227 ......Page 241
4.3. e-Subgradients 235 ......Page 249
4.4. Subgradients of Extended Real-Valued Functions 241 ......Page 255
4.5. Directional Derivative of the Max Function 245 ......Page 259
4.6. Conical Approximations 248 ......Page 262
4.7. Optimality Conditions 255 ......Page 269
4.8. Notes, Sources, and Exercises 261 ......Page 275
5. Lagrange Multipliers 269 ......Page 283
5.1. Introduction to Lagrange Multipliers 270 ......Page 284
5.2. Enhanced Fritz John Optimality Conditions 281 ......Page 295
5.3. Informative Lagrange Multipliers 288 ......Page 302
5.3.1. Sensitivity 297 ......Page 311
5.3.2. Alternative Lagrange Multipliers 299 ......Page 313
5.4. Pseudonormality and Constraint Qualifications 302 ......Page 316
5.5. Exact Penalty Functions 313 ......Page 327
5.6. Using the Extended Representation 319 ......Page 333
5.7. Extensions Under Convexity Assumptions 324 ......Page 338
5.8. Notes, Sources, and Exercises 335 ......Page 349
6. Lagrangian Duality 345 ......Page 359
6.1. Geometric Multipliers 346 ......Page 360
6.2. Duality Theory 355 ......Page 369
6.3. Linear and Quadratic Programming Duality 362 ......Page 376
6.4. Existence of Geometric Multipliers 367 ......Page 381
6.4.1. Convex Cost - Linear Constraints 368 ......Page 382
6.4.2. Convex Cost - Convex Constraints 371 ......Page 385
6.5.1. Duality Gap and the Primal Function 374 ......Page 388
6.5.2. Conditions for No Duality Gap 377 ......Page 391
6.5.3. Subgradients of the Primal Function 382 ......Page 396
6.5.4. Sensitivity Analysis 383 ......Page 397
6.6. Fritz John Conditions when there is no Optimal Solution 384 ......Page 398
6.6.1. Enhanced Fritz John Conditions 390 ......Page 404
6.6.2. Informative Geometric Multipliers 406 ......Page 420
6.7. Notes, Sources, and Exercises 413 ......Page 427
7. Conjugate Duality 421 ......Page 435
7.1. Conjugate Functions 424 ......Page 438
7.2. Fenchel Duality Theorems 434 ......Page 448
7.2.1. Connection of Fenchel Duality and Minimax Theory 437 ......Page 451
7.2.2. Conic Duality 439 ......Page 453
7.3. Exact Penalty Functions 441 ......Page 455
7.4. Notes, Sources, and Exercises 446 ......Page 460
8. Dual Computational Methods 455 ......Page 469
8.1. Dual Derivatives and Subgradients 457 ......Page 471
8.2. Subgradient Methods 460 ......Page 474
8.2.1. Analysis of Subgradient Methods 470 ......Page 484
8.2.2. Subgradient Methods with Randomization 488 ......Page 502
8.3. Cutting Plane Methods 504 ......Page 518
8.4. Ascent Methods 509 ......Page 523
8.5. Notes, Sources, and Exercises 512 ......Page 526
References 517 ......Page 531
Index 529 ......Page 543
cover......Page 1




نظرات کاربران