دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: 1 نویسندگان: N. U. Ahmed, Shian Wang سری: ISBN (شابک) : 3030821382, 9783030821388 ناشر: Springer سال نشر: 2021 تعداد صفحات: 328 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 4 مگابایت
در صورت ایرانی بودن نویسنده امکان دانلود وجود ندارد و مبلغ عودت داده خواهد شد
در صورت تبدیل فایل کتاب Optimal Control of Dynamic Systems Driven by Vector Measures: Theory and Applications به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب کنترل بهینه سیستم های دینامیکی که توسط معیارهای برداری هدایت می شوند: نظریه و کاربردها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
در چند دهه گذشته، به لطف تعامل بیسابقه بین ریاضیات و علوم فیزیکی و مهندسی، پیشرفتهای قابلتوجهی در زمینه سیستمها و تئوری کنترل صورت گرفته است. اخیراً، تئوری کنترل بهینه برای سیستمهای دینامیکی که توسط معیارهای برداری هدایت میشوند، توجه فزایندهای را به خود جلب کرده است. این کتاب این نظریه را برای سیستمهای دینامیکی ارائه میکند که توسط معادلات دیفرانسیل معمولی و تصادفی کنترل میشوند، از جمله نتایج گستردهای در مورد وجود کنترلهای بهینه و شرایط لازم برای بهینهسازی. الگوریتم های محاسباتی بر اساس شرایط بهینه، با نتایج عددی ارائه شده برای نشان دادن کاربردی بودن نتایج نظری توسعه یافته در این کتاب، توسعه یافته اند.
این کتاب برای محققان در کنترل بهینه یا تحلیل تابعی کاربردی علاقه مند خواهد بود. در کاربرد معیارهای برداری برای کنترل تئوری، سیستم های تصادفی که توسط معیارهای برداری هدایت می شوند، و موضوعات مرتبط. به طور خاص، این حساب مستقل میتواند نقطه شروعی برای پیشرفتهای بیشتر در تئوری و کاربردهای سیستمهای پویا باشد که توسط معیارهای برداری هدایت و کنترل میشوند.
In the past few decades, there have been remarkable advances in the field of systems and control theory thanks to the unprecedented interaction between mathematics and the physical and engineering sciences. Recently, optimal control theory for dynamic systems driven by vector measures has attracted increasing interest. This book presents this theory for dynamic systems governed by both ordinary and stochastic differential equations, including extensive results on the existence of optimal controls and necessary conditions for optimality. Computational algorithms are developed based on the optimality conditions, with numerical results presented to demonstrate the applicability of the theoretical results developed in the book.
This book will be of interest to researchers in optimal control or applied functional analysis interested in applications of vector measures to control theory, stochastic systems driven by vector measures, and related topics. In particular, this self-contained account can be a starting point for further advances in the theory and applications of dynamic systems driven and controlled by vector measures.
Preface Contents 1 Mathematical Preliminaries 1.1 Introduction 1.2 Vector Space 1.3 Normed Space 1.4 Banach Space 1.5 Measures and Measurable Functions 1.6 Modes of Convergence and Lebesgue Integral 1.6.1 Modes of Convergence 1.6.2 Lebesgue Integral 1.7 Selected Results From Measure Theory 1.8 Special Hilbert and Banach Spaces 1.8.1 Hilbert Spaces 1.8.2 Special Banach Spaces 1.9 Metric Space 1.10 Banach Fixed Point Theorems 1.11 Frequently Used Results From Analysis 1.12 Bibliographical Notes 2 Linear Systems 2.1 Introduction 2.2 Representation of Solutions for TIS 2.2.1 Classical System Models 2.2.2 Impulsive System Models 2.3 Representation of Solutions for TVS 2.3.1 Classical System Models 2.3.2 Measure Driven System Models 2.3.3 Measure Induced Structural Perturbation 2.3.4 Measure Driven Control Systems 2.4 Bibliographical Notes 3 Nonlinear Systems 3.1 Introduction 3.2 Fixed Point Theorems for Multi-Valued Maps 3.3 Regular Systems (Existence of Solutions) 3.4 Impulsive Systems (Existence of Solutions) 3.4.1 Classical Impulsive Models 3.4.2 Systems Driven by Vector Measures 3.4.3 Systems Driven by Finitely Additive Measures 3.5 Differential Inclusions 3.6 Bibliographical Notes 4 Optimal Control: Existence Theory 4.1 Introduction 4.2 Regular Controls 4.3 Relaxed Controls 4.4 Impulsive Controls I 4.5 Impulsive Controls II 4.6 Structural Control 4.7 Differential Inclusions (Regular Controls) 4.8 Differential Inclusions (Measure-Valued Controls) 4.9 Systems Controlled by Discrete Measures 4.10 Existence of Optimal Controls 4.11 Bibliographical Notes 5 Optimal Control: Necessary Conditions of Optimality 5.1 Introduction 5.2 Relaxed Controls 5.2.1 Discrete Control Domain 5.3 Regular Controls 5.4 Transversality Conditions 5.4.1 Necessary Conditions Under State Constraints 5.5 Impulsive and Measure-Valued Controls 5.5.1 Signed Measures as Controls 5.5.2 Vector Measures as Controls 5.6 Convergence Theorem 5.7 Implementability of Necessary Conditions of Optimality 5.7.1 Discrete Measures 5.7.2 General Measures 5.8 Structural Controls 5.9 Discrete Measures with Variable Supports as Controls 5.10 Bibliographical Notes 6 Stochastic Systems Controlled by Vector Measures 6.1 Introduction 6.2 Conditional Expectations 6.3 SDE Based on Brownian Motion 6.3.1 SDE Driven by Vector Measures (Impulsive Forces) 6.4 SDE Based on Poisson Random Processes 6.5 Optimal Relaxed Controls 6.5.1 Existence of Optimal Controls 6.5.2 Necessary Conditions of Optimality 6.6 Regulated (Filtered) Impulsive Controls 6.6.1 Application to Special Cases 6.7 Unregulated Measure-Valued Controls 6.7.1 An Application 6.8 Fully Observed Optimal State Feedback Controls 6.8.1 Existence of Optimal State Feedback Laws 6.8.2 Necessary Conditions of Optimality 6.9 Partially Observed Optimal Feedback Controls 6.9.1 Existence of Optimal Feedback Laws 6.9.2 Necessary Conditions of Optimality 6.10 Bellman's Principle of Optimality 6.11 Bibliographical Notes 7 Applications to Physical Examples 7.1 Numerical Algorithms 7.1.1 Numerical Algorithm I 7.1.2 Numerical Algorithm II 7.2 Examples of Physical Systems 7.2.1 Cancer Immunotherapy 7.2.2 Geosynchronous Satellites 7.2.3 Prey-Predator Model 7.2.4 Stabilization of Building Maintenance Units 7.2.5 An Example of a Stochastic System Bibliography Index