ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Iterative methods for ill-posed problems : an introduction

دانلود کتاب روش های تکراری برای مشکلات ناشایست: یک مقدمه

Iterative methods for ill-posed problems : an introduction

مشخصات کتاب

Iterative methods for ill-posed problems : an introduction

ویرایش:  
نویسندگان: , ,   
سری: Inverse and ill-posed problems series, v. 54 
ISBN (شابک) : 9783110250657, 3110250659 
ناشر: De Gruyter 
سال نشر: 2011 
تعداد صفحات: 150 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 1 مگابایت 

قیمت کتاب (تومان) : 51,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 6


در صورت تبدیل فایل کتاب Iterative methods for ill-posed problems : an introduction به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب روش های تکراری برای مشکلات ناشایست: یک مقدمه نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب روش های تکراری برای مشکلات ناشایست: یک مقدمه

توجه داشته باشید محتویات تولید شده توسط ماشین: 1. شرایط منظم. روش نیوتن -- 1.1. نتایج اولیه -- 1.2. روش خطی سازی -- 1.3. تجزیه و تحلیل خطا -- مسائل -- 2. روش گاوس -- نیوتن -- 2.1. انگیزه -- 2.2. نرخ های همگرایی -- مسائل -- 3. روش گرادیان -- 3.1. روش گرادیان برای مسائل منظم -- 3.2. مورد نامناسب -- مشکلات -- 4. طرح تیخونوف -- 4.1. عملکرد Tikhonov -- 4.2. ویژگی های یک دنباله کمینه سازی -- 4.3. انواع دیگر همگرایی -- 4.4. معادلات با داده های پر سر و صدا -- مسائل -- 5. طرح تیخونوف برای معادلات خطی -- 5.1. نتیجه همگرایی اصلی -- 5.2. عناصر نظریه طیفی -- 5.3. به حداقل رساندن توالی برای معادلات خطی 5.4. توافق پیشینی بین پارامتر تنظیم و خطا برای معادلات با سمت راست آشفته -- 5.5. اصل اختلاف -- 5.6. تقریب یک شبه راه حل -- مسائل -- 6. طرح گرادیان برای معادلات خطی -- 6.1. تکنیک تحلیل طیفی -- 6.2. قانون توقف پیشینی -- 6.3. قانون توقف پسینی -- مسائل -- 7. نرخ همگرایی برای روش های تقریب در مورد معادلات خطی نامنظم -- 7.1. شرط نوع منبع (STC) -- 7.2. STC برای روش گرادیان -- 7.3. پدیده های اشباع -- 7.4. تقریب در مورد STC مختل -- 7.5. دقت برآوردها -- مسائل -- 8. معادلات با تابع اختلاف محدب با روش تیخونوف -- 8.1. برخی از مشکلات مربوط به روش تیخونوف در صورت عدم تطابق محدب تابعی 8.2. یک مثال گویا -- مسائل -- 9. اصل منظم سازی تکراری -- 9.1. ایده منظم سازی تکراری -- 9.2. روش گرادیان منظم شده تکراری -- مسائل -- 10. گاوس منظم شده تکراری -- روش نیوتن -- 10.1. تجزیه و تحلیل همگرایی -- 10.2. ویژگی های بیشتر تکرارهای IRGN -- 10.3. یک رویکرد یکپارچه برای ساخت روش های تکراری برای معادلات نامنظم -- 10.4. کنترل اتصال معکوس -- مسائل -- 11. روش گرادیان پایدار برای معادلات غیر خطی نامنظم -- 11.1. حل یک مسئله ابعاد محدود کمکی با روش نزول گرادیان -- 11.2. بررسی یک نابرابری تفاوت -- 11.3. مورد داده های پر سر و صدا -- مشکلات -- 12. کارایی محاسباتی نسبی روش های منظم منظم -- 12.1. گاوس تعمیم یافته -- روش های نیوتنی -- 12.2. یک شرط منبع محدودتر 12.3. مقایسه با طرح گرادیان منظم شده تکراری -- مسائل -- 13. بررسی عددی مسئله وزن سنجی معکوس دو بعدی -- 13.1. فرمول مسئله -- 13.2. الگوریتم -- 13.3. شبیه سازی -- مسائل -- 14. روش های منظم شده تکراری برای مسئله معکوس در توموگرافی نوری -- 14.1. بیان مسئله -- 14.2. مثال ساده -- 14.3. شبیه سازی رو به جلو -- 14.4. مسئله معکوس -- 14.5. نتایج عددی -- مسائل -- 15. معادله جهانی بودن فایگنباوم -- 15.1. ثابت های جهانی -- 15.2. بداخلاقی -- 15.3. الگوریتم عددی برای 2


توضیحاتی درمورد کتاب به خارجی

Machine generated contents note: 1. The regularity condition. Newton's method -- 1.1. Preliminary results -- 1.2. Linearization procedure -- 1.3. Error analysis -- Problems -- 2. The Gauss -- Newton method -- 2.1. Motivation -- 2.2. Convergence rates -- Problems -- 3. The gradient method -- 3.1. The gradient method for regular problems -- 3.2. Ill-posed case -- Problems -- 4. Tikhonov's scheme -- 4.1. The Tikhonov functional -- 4.2. Properties of a minimizing sequence -- 4.3. Other types of convergence -- 4.4. Equations with noisy data -- Problems -- 5. Tikhonov's scheme for linear equations -- 5.1. The main convergence result -- 5.2. Elements of spectral theory -- 5.3. Minimizing sequences for linear equations 5.4. A priori agreement between the regularization parameter and the error for equations with perturbed right-hand sides -- 5.5. The discrepancy principle -- 5.6. Approximation of a quasi-solution -- Problems -- 6. The gradient scheme for linear equations -- 6.1. The technique of spectral analysis -- 6.2. A priori stopping rule -- 6.3. A posteriori stopping rule -- Problems -- 7. Convergence rates for the approximation methods in the case of linear irregular equations -- 7.1. The source-type condition (STC) -- 7.2. STC for the gradient method -- 7.3. The saturation phenomena -- 7.4. Approximations in case of a perturbed STC -- 7.5. Accuracy of the estimates -- Problems -- 8. Equations with a convex discrepancy functional by Tikhonov's method -- 8.1. Some difficulties associated with Tikhonov's method in case of a convex discrepancy functional 8.2. An illustrative example -- Problems -- 9. Iterative regularization principle -- 9.1. The idea of iterative regularization -- 9.2. The iteratively regularized gradient method -- Problems -- 10. The iteratively regularized Gauss -- Newton method -- 10.1. Convergence analysis -- 10.2. Further properties of IRGN iterations -- 10.3. A unified approach to the construction of iterative methods for irregular equations -- 10.4. The reverse connection control -- Problems -- 11. The stable gradient method for irregular nonlinear equations -- 11.1. Solving an auxiliary finite dimensional problem by the gradient descent method -- 11.2. Investigation of a difference inequality -- 11.3. The case of noisy data -- Problems -- 12. Relative computational efficiency of iteratively regularized methods -- 12.1. Generalized Gauss -- Newton methods -- 12.2. A more restrictive source condition 12.3. Comparison to iteratively regularized gradient scheme -- Problems -- 13. Numerical investigation of two-dimensional inverse gravimetry problem -- 13.1. Problem formulation -- 13.2. The algorithm -- 13.3. Simulations -- Problems -- 14. Iteratively regularized methods for inverse problem in optical tomography -- 14.1. Statement of the problem -- 14.2. Simple example -- 14.3. Forward simulation -- 14.4. The inverse problem -- 14.5. Numerical results -- Problems -- 15. Feigenbaum's universality equation -- 15.1. The universal constants -- 15.2. Ill-posedness -- 15.3. Numerical algorithm for 2 ≤ z ≤ 12 -- 15.4. Regularized method for z ≥ 13 -- Problems -- 16. Conclusion



فهرست مطالب

Cover......Page 1
Title......Page 4
Copyright......Page 5
Preface......Page 6
Contents......Page 10
1.1 Preliminary results......Page 14
1.2 Linearization procedure......Page 15
1.3 Error analysis......Page 17
Problems......Page 19
2.1 Motivation......Page 23
2.2 Convergence rates......Page 25
Problems......Page 27
3.1 The gradient method for regular problems......Page 29
3.2 Ill-posed case......Page 31
Problems......Page 33
4.1 The Tikhonov functional......Page 36
4.2 Properties of a minimizing sequence......Page 37
4.3 Other types of convergence......Page 40
4.4 Equations with noisy data......Page 42
Problems......Page 43
5.1 The main convergence result......Page 45
5.2 Elements of spectral theory......Page 47
5.3 Minimizing sequences for linear equations......Page 48
5.4 A priori agreement between the regularization parameter and the error for equations with perturbed right-hand sides......Page 50
5.5 The discrepancy principle......Page 53
Problems......Page 56
6.1 The technique of spectral analysis......Page 58
6.2 A priori stopping rule......Page 61
6.3 A posteriori stopping rule......Page 62
Problems......Page 66
7.1 The source-type condition (STC)......Page 67
7.2 STC for the gradient method......Page 70
7.3 The saturation phenomena......Page 72
7.4 Approximations in case of a perturbed STC......Page 74
7.5 Accuracy of the estimates......Page 75
Problems......Page 76
8.1 Some difficulties associated with Tikhonov\'s method in case of a convex discrepancy functional......Page 77
8.2 An illustrative example......Page 78
Problems......Page 80
9.1 The idea of iterative regularization......Page 82
9.2 The iteratively regularized gradient method......Page 83
Problems......Page 87
10.1 Convergence analysis......Page 89
10.2 Further properties of IRGN iterations......Page 92
10.3 A unified approach to the construction of iterative methods for irregular equations......Page 96
10.4 The reverse connection control......Page 97
Problems......Page 101
11.1 Solving an auxiliary finite dimensional problem by the gradient descent method......Page 103
11.2 Investigation of a difference inequality......Page 107
11.3 The case of noisy data......Page 108
Problems......Page 110
12.1 Generalized Gauss-Newton methods......Page 111
12.2 A more restrictive source condition......Page 113
12.3 Comparison to iteratively regularized gradient scheme......Page 114
Problems......Page 115
13.1 Problem formulation......Page 116
13.2 The algorithm......Page 117
13.3 Simulations......Page 118
Problems......Page 122
14.1 Statement of the problem......Page 124
14.2 Simple example......Page 125
14.3 Forward simulation......Page 127
14.4 The inverse problem......Page 129
14.5 Numerical results......Page 132
Problems......Page 134
15.1 The universal constants......Page 136
15.3 Numerical algorithm for 2 <= z <= 12......Page 138
15.4 Regularized method for z >= 13......Page 140
Problems......Page 141
16 Conclusion......Page 143
References......Page 145
Index......Page 150




نظرات کاربران