ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Computational Optimization. Success in Practice

دانلود کتاب بهینه سازی محاسباتی موفقیت در عمل

Computational Optimization. Success in Practice

مشخصات کتاب

Computational Optimization. Success in Practice

ویرایش:  
نویسندگان:   
سری: Textbooks in Mathematics 
ISBN (شابک) : 9781032229478, 9781003275169 
ناشر: CRC Press 
سال نشر: 2023 
تعداد صفحات: [415] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 19 Mb 

قیمت کتاب (تومان) : 36,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 6


در صورت تبدیل فایل کتاب Computational Optimization. Success in Practice به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب بهینه سازی محاسباتی موفقیت در عمل نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب بهینه سازی محاسباتی موفقیت در عمل

این کتاب درسی یک آموزش راهنما ارائه می‌دهد که ضمن مرور مثال‌های عملی مورد استفاده برای ساخت چارچوب محاسباتی، که در مدل‌های مختلف زندگی واقعی اعمال می‌شود، مبانی نظری را مرور می‌کند. بهینه سازی محاسباتی: موفقیت در عمل خوانندگان را در کل فرآیند هدایت می کند. آنها با مثال‌های محاسباتی ساده از برازش داده‌ها و اصول روش‌های کنترل بهینه شروع می‌کنند و در نهایت به ساخت یک چارچوب چند جزئی برای اجرای بهینه‌سازی محدود شده PDE می‌پردازند. این چارچوب قطعه قطعه مونتاژ می شود. خوانندگان ممکن است این فرآیند را در سطوح پیچیدگی مطابق با پروژه های فعلی یا نیازهای تحقیقاتی خود اعمال کنند. با ارتباط مثال ها با نظریه و بحث در مورد ارتباط مناسب بین آنها، خوانندگان روند ایجاد یک خانه بزرگ را یاد می گیرند. علاوه بر این، آنها می توانند از چارچوبی که در کتاب مثال زده شده است به عنوان الگوی مشکلات تحقیق یا دوره خود استفاده کنند - آنها می دانند که چگونه تک تک آجرها را تغییر دهند یا طبقات اضافی را در بالای آن اضافه کنند. این کتاب برای دانشجویان، اساتید و محققان است. ویژگی‌ها چارچوب بهینه‌سازی اصلی از طریق تمرین‌های دوره ایجاد می‌شود و بر روی MATLAB(R) متمرکز می‌شود. تمام اسکریپت‌های دیگر برای پیاده‌سازی محاسبات برای حل مسائل بهینه‌سازی با مدل‌های مختلف، فقط از نرم‌افزار منبع باز، به عنوان مثال، FreeFEM استفاده می‌کنند. تمام مراحل محاسباتی مستقل از پلتفرم هستند. خوانندگان ممکن است آزادانه از سیستم‌های Windows، macOS یا Linux استفاده کنند. تمام اسکریپت هایی که هر مرحله در ساخت چارچوب بهینه سازی را نشان می دهند به صورت آنلاین در دسترس خوانندگان قرار خواهند گرفت. هر فصل بر اساس مثال‌های ارائه‌شده در متن و اسکریپت‌های مرتبط، شامل مسائلی است. خوانندگان نیازی به ایجاد اسکریپت ها از ابتدا ندارند، بلکه کدهای ارائه شده به عنوان مکمل کتاب را اصلاح می کنند. این کتاب برای دانشجویان فارغ التحصیل رشته های ریاضی، علوم کامپیوتر، مهندسی و همه کسانی که تکنیک های بهینه سازی را در سطوح مختلف برای اهداف آموزشی یا پژوهشی کشف می کنند، ارزشمند خواهد بود. بسیاری از متخصصان در تحقیقات آکادمیک و مرتبط با صنعت سود خواهند برد: اساتید، محققان، همکاران فوق دکترا، و پرسنل بخش های تحقیق و توسعه.


توضیحاتی درمورد کتاب به خارجی

This textbook offers a guided tutorial that reviews the theoretical fundamentals while going through the practical examples used for constructing the computational frame, applied to various real-life models. Computational Optimization: Success in Practice will lead the readers through the entire process. They will start with the simple calculus examples of fitting data and basics of optimal control methods and end up constructing a multi-component framework for running PDE-constrained optimization. This framework will be assembled piece by piece; the readers may apply this process at the levels of complexity matching their current projects or research needs. By connecting examples with the theory and discussing the proper communication between them, the readers will learn the process of creating a big house. Moreover, they can use the framework exemplified in the book as the template for their research or course problems - they will know how to change the single bricks or add extra floors on top of that. This book is for students, faculty, and researchers. Features The main optimization framework builds through the course exercises and centers on MATLAB(R). All other scripts to implement computations for solving optimization problems with various models use only open-source software, e.g., FreeFEM. All computational steps are platform-independent; readers may freely use Windows, macOS, or Linux systems. All scripts illustrating every step in building the optimization framework will be available to the readers online. Each chapter contains problems based on the examples provided in the text and associated scripts. The readers will not need to create the scripts from scratch, but rather modify the codes provided as a supplement to the book. This book will prove valuable to graduate students of math, computer science, engineering, and all who explore optimization techniques at different levels for educational or research purposes. It will benefit many professionals in academic and industry-related research: professors, researchers, postdoctoral fellows, and the personnel of R&D departments.



فهرست مطالب

Cover
Half Title
Series Page
Title Page
Copyright Page
Dedication
Contents
Preface
Author
Acronyms and Abbreviations
List of Algorithms
1. Introduction to Optimization
	1.1. Optimization Models
	1.2. General Notations for Optimization Problem
	1.3. Data Fitting Examples
	1.4. Optimization Fundamentals
		1.4.1. Feasibility
		1.4.2. Optimality
		1.4.3. Convexity
	1.5. General Optimization Algorithm
		1.5.1. Solving Optimization Problems in Iterations
		1.5.2. Termination Criteria
	1.6. Convergence
	1.7. Homework Problems
2. Minimization Approaches for Functions of One Variable
	2.1. Minimizing a Function in 1D
	2.2. Bisection Method
	2.3. Golden Section Search
	2.4. Newton's Method
	2.5. Brute-Force Search
	2.6. Monte Carlo Method
	2.7. Practical Examples
	2.8. Computational Analysis for Convergence
	2.9. Homework Problems
	2.10. Lab Assignment #1: Review Chapters 1–2
3. Generalized Optimization Framework
	3.1. Parameter Identification for Least-Square Data Fitting
	3.2. Generalized Optimization Framework
		3.2.1. Computational Components
		3.2.2. Choice of Proper Software
	3.3. Choosing and Adjusting Optimization Algorithms
	3.4. Visualization and Analysis of Obtained Solutions
	3.5. Testing and Dealing with Problems (Debugging)
	3.6. TEST Mode for the Gradient-based Framework
	3.7. Accuracy and Performance
	3.8. Communication within the Framework
	3.9. Homework Problems
4. Exploring Optimization Algorithms
	4.1. Iterative Optimization Algorithms Revisited
	4.2. Gradient-based Strategies: Line Search vs. Trust Region
		4.2.1. Line Search
		4.2.2. Trust Region
		4.2.3. Comparing Strategies
	4.3. Heuristic Algorithms
	4.4. Particle Swarm Optimization
	4.5. Overview of Optimization Algorithms
	4.6. Homework Problems
5. Line Search Algorithms
	5.1. Local and Global Minimums: Theory Review
		5.1.1. Necessary Conditions
		5.1.2. Necessary vs. Sufficient Conditions
		5.1.3. Existence of Global Minimums
	5.2. Selecting Search Direction
		5.2.1. Principal Generalization
		5.2.2. Some Theory for Convergence
		5.2.3. Steepest Descent
	5.3. Newton's Method and Newton-based Modifications
		5.3.1. Pure Newton's Method
		5.3.2. Discretized Newton's Method
		5.3.3. Modified Newton's Method
		5.3.4. Diagonally Scaled SD
		5.3.5. Quasi-Newton Methods
		5.3.6. Gauss-Newton Approach
	5.4. Conjugate Gradient
	5.5. Line Search Performance Comparison
	5.6. Homework Problems
	5.7. Lab Assignment #2: Review Chapters 3–5
6. Choosing Optimal Step Size
	6.1. Overview
	6.2. Simple Approaches
	6.3. Inexact Line Search
		6.3.1. Armijo Rule
		6.3.2. Wolfe Conditions
		6.3.3. Goldstein Conditions
		6.3.4. Backtracking Line Search
	6.4. Step Size Performance Comparison
	6.5. Advanced Methods for 1D Search
	6.6. Brent's Method
	6.7. Bracketing-Brent Toolbox in MATLAB
		6.7.1. General Description
		6.7.2. Initial Bracketing with fn_min_brack.m
		6.7.3. Brent Minimization with fn_brent.m
		6.7.4. Technicalities for MATLAB Implementation
	6.8. Bracketing-Brent Toolbox Performance
	6.9. Homework Problems
7. Trust Region and Derivative-Free Methods
	7.1. Trust Region Outline
	7.2. General Algorithm
	7.3. Cauchy Point Calculation
	7.4. Improving Cauchy Point by Dogleg Method
	7.5. Checking and Tuning Performance
	7.6. Exploring Derivative-Free Options
	7.7. Homework Problems
	7.8. Lab Assignment #3: Review Chapters 6–7
	7.9. Midterm Assignment: Review Chapters 1–7
8. Large-Scale and Constrained Optimization
	8.1. Generalization of Large-Scale Optimization
	8.2. LSO Examples
		8.2.1. Solving Systems of Equations
		8.2.2. Space-Dependent Parameter Reconstruction
		8.2.3. Parameter Identification – Another Example
		8.2.4. State-Dependent Parameter Reconstruction
	8.3. Improving Performance of LSO
	8.4. General Theory for Constrained Optimization
	8.5. Lagrange Multiplier Approach
	8.6. Lagrange Multiplier vs. Penalization
	8.7. Extending Complexity – DE-constrained Optimization
	8.8. KKT Optimality Conditions
	8.9. Homework Problems
9. ODE-based Optimization
	9.1. Fitting Data by ODE-based Optimization
	9.2. Derivative vs. Directional Derivative: Review
	9.3. Optimize–then–Discretize
		9.3.1. Deriving Gradient
		9.3.2. Solving Problem
	9.4. Discretize–then–Optimize
	9.5. Numerical ODE Solvers
		9.5.1. Runge–Kutta Integration Methods
		9.5.2. Solving ODEs by MATLAB
	9.6. Dynamics of Biological Systems by Lotka–Volterra Equations
	9.7. Optimization Problem Constrained by LV Model
		9.7.1. Statement of Problem
		9.7.2. Deriving Gradients
		9.7.3. Optimization Algorithm
	9.8. Optimization Framework in MATLAB
		9.8.1. Benchmark Models for Controls
		9.8.2. Analytic vs. Synthetic Measurements
		9.8.3. Adjusting Framework and Choosing Parameters
		9.8.4. Checking and Improving Quality of Discretized Gradients
		9.8.5. Optimization Results
	9.9. Homework Problems
10. Implementing Regularization Techniques
	10.1. Motivation for Regularization
	10.2. Some Regularization Theory
		10.2.1. Quadratic Penalty Function Method
		10.2.2. Barrier Functions Method
		10.2.3. Tikhonov-type Regularization
		10.2.4. Gradient Preconditioning
		10.2.5. Bounds by Simple Projections and Slack Variables
	10.3. Examples of Numerical Implementation
		10.3.1. From Theory to Practice
		10.3.2. Adjusting Framework
		10.3.3. Results and Food for Thought
	10.4. Homework Problems
	10.5. Lab Assignment #4: Review Chapters 8–10
11. Moving to PDE-based Optimization
	11.1. Generalized Problem of Fitting Data
	11.2. Practice Example
		11.2.1. Elliptic Equation as Governing PDE
		11.2.2. Deriving Gradient by Optimize–then–Discretize
		11.2.3. Optimization Algorithm
	11.3. Solving PDEs in Higher Dimensions by FreeFEM
	11.4. Brief Introduction to Finite Elements Method
	11.5. Solving PDEs by FreeFEM
		11.5.1. Poisson's Equation in 2D
		11.5.2. Coding with FreeFEM
		11.5.3. Solution Analysis
		11.5.4. Technicalities for FreeFEM Coding
	11.6. Homework Problems
12. Sharing Multiple Software Environments
	12.1. Practice Example and Benchmark Model
	12.2. Updating and Tuning Optimization Framework
		12.2.1. Overview of Changes
		12.2.2. Software Communication
		12.2.3. Another Round on Measurements
		12.2.4. Evaluating Objectives
		12.2.5. Evaluating Gradients
		12.2.6. Checking Quality of Discretized Gradients
	12.3. Analyzing Optimization Results
	12.4. Homework Problems
	12.5. Lab Assignment #5: Review Chapters 11–12
Appendix: Review of Math with MATLAB
Bibliography
Index




نظرات کاربران