ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Information Theory: Part I: An Introduction to the Fundamental Concepts

دانلود کتاب نظریه اطلاعات: بخش اول: مقدمه ای بر مفاهیم بنیادی

Information Theory: Part I: An Introduction to the Fundamental Concepts

مشخصات کتاب

Information Theory: Part I: An Introduction to the Fundamental Concepts

ویرایش:  
نویسندگان:   
سری:  
ISBN (شابک) : 9789813208827, 9813208821 
ناشر: World Scientific 
سال نشر: 2017 
تعداد صفحات: 365
[363] 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 69 Mb 

قیمت کتاب (تومان) : 32,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 2


در صورت تبدیل فایل کتاب Information Theory: Part I: An Introduction to the Fundamental Concepts به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب نظریه اطلاعات: بخش اول: مقدمه ای بر مفاهیم بنیادی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب نظریه اطلاعات: بخش اول: مقدمه ای بر مفاهیم بنیادی

این کتاب در مورد تعریف معیار شانون اطلاعات و برخی کمیت های مشتق شده مانند اطلاعات شرطی و اطلاعات متقابل است. برخلاف بسیاری از کتاب‌ها، که به اندازه‌گیری اطلاعات شانون (SMI) به عنوان «آنتروپی» اشاره می‌کنند، این کتاب تمایز واضحی بین SMI و آنتروپی ایجاد می‌کند. در فصل آخر، آنتروپی به عنوان یک مورد خاص از SMI مشتق شده است. مثال های فراوانی ارائه شده است که به خواننده در درک مفاهیم مختلف مورد بحث در این کتاب کمک می کند. مانند کتاب‌های قبلی نویسنده، هدف این کتاب ارائه واضح و بدون رمز و راز مفهوم اصلی در نظریه اطلاعات است - اندازه‌گیری اطلاعات شانون. این کتاب مفاهیم بنیادی تئوری اطلاعات را به زبانی ساده و دوستانه ارائه می‌کند و عاری از انواع اظهارات فانتزی و فانتزی است که توسط نویسندگان کتاب‌های علمی عامه پسندی که در این زمینه می‌نویسند، ارائه می‌شود. این در ارائه اندازه گیری اطلاعات شانون و تمایز واضح بین این مفهوم و آنتروپی ترمودینامیکی منحصر به فرد است. اگرچه برخی از دانش ریاضی مورد نیاز خواننده است، اما تاکید بر مفاهیم و معنای آنها بیشتر بر جزئیات ریاضی نظریه است.


توضیحاتی درمورد کتاب به خارجی

This book is about the definition of the Shannon measure of Information, and some derived quantities such as conditional information and mutual information. Unlike many books, which refer to the Shannon's Measure of information (SMI) as "Entropy," this book makes a clear distinction between the SMI and Entropy. In the last chapter, Entropy is derived as a special case of SMI. Ample examples are provided which help the reader in understanding the different concepts discussed in this book. As with previous books by the author, this book aims at a clear and mystery-free presentation of the central concept in Information theory — the Shannon's Measure of Information. This book presents the fundamental concepts of Information theory in a friendly-simple language and is devoid of all kinds of fancy and pompous statements made by authors of popular science books who write on this subject. It is unique in its presentation of Shannon's measure of information, and the clear distinction between this concept and the thermodynamic entropy. Although some mathematical knowledge is required by the reader, the emphasis is on the concepts and their meaning rather on the mathematical details of the theory.



فهرست مطالب

Contents
Preface
Acknowledgements
Chapter 0: Elements of Probability Theory
Chapter 1: Introduction, Definition, and Interpretations of Shannon's Measure of Information
Chapter 2: Properties of Shannon's Measure of Information
Chapter 3: Conditional and Mutual Information
Chapter 4: Multivariate Mutual Information
Chapter 5: Entropy and the Second Law of Thermodynamics
Appendix A: Proof of an Equivalent Markovian Property
Appendix B: Proof of the Uniqueness of the Function H
Appendix C: The SMI for the Continuous Random Variable
Appendix D: Functional Derivatives and Functional Taylor Expansion
Appendix E: Some Inequalities for Convex Functions
Appendix F: Distribution Functions in 1D Models
Appendix G: Entropy Change in an Expansion Process in a Gravitational Field
Notes
References and Suggested Reading
Index




نظرات کاربران