ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Mathematical Control Theory - An Introduction

دانلود کتاب نظریه کنترل ریاضی - مقدمه

Mathematical Control Theory - An Introduction

مشخصات کتاب

Mathematical Control Theory - An Introduction

دسته بندی: کنترل بهینه
ویرایش: 2 
نویسندگان:   
سری: Systems & Control: Foundations & Applications 
ISBN (شابک) : 9783030447762, 9783030447786 
ناشر: Birkhäuser 
سال نشر: 2020 
تعداد صفحات: 347 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 5 مگابایت 

قیمت کتاب (تومان) : 38,000



کلمات کلیدی مربوط به کتاب نظریه کنترل ریاضی - مقدمه: قابلیت کنترل، مشاهده پذیری، پایداری، برنامه ریزی پویا



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 15


در صورت تبدیل فایل کتاب Mathematical Control Theory - An Introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب نظریه کنترل ریاضی - مقدمه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب نظریه کنترل ریاضی - مقدمه

این کتاب درسی، به شیوه‌ای دقیق ریاضی، مقدمه‌ای یکپارچه برای تئوری کنترل قطعی ارائه می‌کند. به استثنای چند مفهوم پیشرفته تر مورد نیاز برای بخش پایانی کتاب، ارائه تنها به دانش واقعیات اساسی از جبر خطی، معادلات دیفرانسیل و حساب دیفرانسیل و انتگرال نیاز دارد. نویسنده علاوه بر مفاهیم و ایده‌های کلاسیک، تثبیت سیستم‌های غیرخطی با استفاده از روش‌های توپولوژیکی، تئوری تحقق برای سیستم‌های غیرخطی، سیستم‌های کنترل تکانه و مثبت، کنترل اجسام صلب، تثبیت سیستم‌های ابعادی نامتناهی و حل حداقل‌ها را پوشش می‌دهد. مشکلات انرژی این ویرایش دوم شامل فصل‌های جدیدی است که موضوعات مختلفی را معرفی می‌کند، مانند قابلیت کنترل با انرژی ناپدید، سیستم‌های کنترل مرزی و سیستم‌های تاخیری. با اثبات های اضافی، قضایا، نتایج، و یک شاخص قابل ملاحظه بزرگتر، این ویرایش جدید منبع ارزشمندی برای دانشجویان و محققان نظریه کنترل خواهد بود. تئوری کنترل ریاضی: یک مقدمه برای شروع دوره تحصیلات تکمیلی در تئوری کنترل ریاضی، یا برای خودآموزی توسط متخصصانی که به تصویر کاملی از نظریه ریاضی که زیربنای کاربردهای نظریه کنترل نیاز دارند، ایده آل خواهد بود.


توضیحاتی درمورد کتاب به خارجی

This textbook presents, in a mathematically precise manner, a unified introduction to deterministic control theory. With the exception of a few more advanced concepts required for the final part of the book, the presentation requires only a knowledge of basic facts from linear algebra, differential equations, and calculus. In addition to classical concepts and ideas, the author covers the stabilization of nonlinear systems using topological methods, realization theory for nonlinear systems, impulsive control and positive systems, the control of rigid bodies, the stabilization of infinite dimensional systems, and the solution of minimum energy problems. This second edition includes new chapters that introduce a variety of topics, such as controllability with vanishing energy, boundary control systems, and delayed systems. With additional proofs, theorems, results, and a substantially larger index, this new edition will be an invaluable resource for students and researchers of control theory. Mathematical Control Theory: An Introduction will be ideal for a beginning graduate course in mathematical control theory, or for self-study by professionals needing a complete picture of the mathematical theory that underlies the applications of control theory.



فهرست مطالب

Preface to the first edition
Preface to the second edition
Contents
Introduction
	0.1 Problems of mathematical control theory
	0.2 Specific models
	Bibliographical notes
Part I Elements of Classical Control Theory
1 Controllability and observability
	1.1 Linear differential equations
	1.2 The controllability matrix
	1.3 Rank condition
	1.4 A classification of control systems
	1.5 Kalman decomposition
	1.6 Observability
	Bibliographical notes
2 Stability and stabilizability
	2.1 Stable linear systems
	2.2 Stable polynomials
	2.3 The Routh theorem
	2.4 Stability, observability and Lyapunov equation
	2.5 Stabilizability and controllability
	2.6 Hautus lemma
	2.7 Detectability and dynamical observers
	Bibliographical notes
3 Controllability with vanishing  energy
	3.1 Characterization theorems
	3.2 Orbital Transfer Problem
	3.3 NCVE and generalized Liouville's theorem
	Bibliographical notes
4 Systems with constraints
	4.1 Bounded sets of parameters
	4.2 Positive systems
	Bibliographical notes
5 Realization theory
	5.1 Impulse response and transfer functions
	5.2 Realizations of the impulse response function
	5.3 The characterization of transfer functions
	Bibliographical notes
Part II Nonlinear Control Systems
6 Controllability and observability  of nonlinear systems
	6.1 Nonlinear differential equations
	6.2 Controllability and linearization
	6.3 Lie brackets
	6.4 The openness of attainable sets
	6.5 Observability
	Bibliographical notes
7 Stability and stabilizability
	7.1 Differential inequalities
	7.2 The main stability test
	7.3 Linearization
	7.4 The Lyapunov function method
	7.5 La Salle's theorem
	7.6 Topological stability criteria
	7.7 Exponential stabilizability and the robustness problem
	7.8 Necessary conditions for stabilizability
	7.9 Stabilization of the Euler equations
	Bibliographical notes
8 Realization theory
	8.1 Input–output maps
	8.2 Partial realizations
	Bibliographical notes
Part III Optimal Control
9 Dynamic programming
	9.1 Introductory comments
	9.2 Bellman equation and the value function
	9.3 The linear regulator problem  and the Riccati equation
	9.4 The linear regulator and stabilization
	Bibliographical notes
10 Viscosity solutions  of Bellman equations
	10.1 Viscosity solution
	10.2 Dynamic programming principle
	10.3 Regularity of the value function
	10.4 Existence of the viscosity solution
	10.5 Uniqueness of the viscosity solution
	Bibliographical notes
11 Dynamic programming  for impulse control
	11.1 Impulse control problems
	11.2 An optimal stopping problem
	11.3 Iterations of convex mappings
	11.4 The proof of Theorem 11.1
	Bibliographical notes
12 The maximum principle
	12.1 Control problems with fixed terminal time
	12.2 An application of the maximum principle
	12.3 The maximum principle for impulse control problems
	12.4 Separation theorems
	12.5 Time-optimal problems
	Bibliographical notes
13 The existence of optimal  strategies
	13.1 A control problem without an optimal solution
	13.2 Filippov's theorem
	Bibliographical notes
Part IV Infinite-Dimensional Linear Systems
14 Linear control systems
	14.1 Introduction
	14.2 Semigroups of operators
	14.3 The Hille–Yosida theorem
	14.4 Phillips' theorem
	14.5 Important classes of generators
	14.6 Specific examples of generators
	14.7 The integral representation of linear systems
	14.8 Delay systems
	14.9 Existence of solutions to delay equation
	14.10 Semigroup approach to delay systems
	14.11 State space representation of delay systems
	Bibliographical notes
15 Controllability
	15.1 Images and kernels of linear operators
	15.2 The controllability operator
	15.3 Various concepts of controllability
	15.4 Systems with self-adjoint generators
	15.5 Controllability of the wave equation
	Bibliographical notes
16 Stability and stabilizability
	16.1 Various concepts of stability
	16.2 Spectrum determined growth assumptions
	16.3 Stability of delay equations
	16.4 Lyapunov's equation
	16.5 Stability of abstract hyperbolic systems
	16.6 Stabilizability and controllability
	Bibliographical notes
17 Linear regulators in Hilbert  spaces
	17.1 Introduction
	17.2 The operator Riccati equation
	17.3 The finite horizon case
	17.4 Regulator problem for delay systems
	17.5 The infinite horizon case: Stabilizability and detectability
	Bibliographical notes
18 Boundary control systems
	18.1 Semigroup approach to boundary control systems
	18.2 Boundary systems with general controls
	18.3 Heating systems
	18.4 Approximate controllability of the heating systems
	18.5 Null controllability for a boundary control system
	Bibliographical notes
Appendix
	A.1  Measurable spaces
	A.2  Metric spaces
	A.3  Banach spaces
	A.4  Hilbert spaces
	A.5  Bochner's integral
	A.6  Spaces of continuous functions
	A.7  Spaces of measurable functions
References
Index




نظرات کاربران