دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: Arieh Ben-Naim
سری:
ISBN (شابک) : 9789813208827, 9813208821
ناشر: World Scientific
سال نشر: 2017
تعداد صفحات: 365
[363]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 69 Mb
در صورت تبدیل فایل کتاب Information Theory: Part I: An Introduction to the Fundamental Concepts به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب نظریه اطلاعات: بخش اول: مقدمه ای بر مفاهیم بنیادی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب در مورد تعریف معیار شانون اطلاعات و برخی کمیت های مشتق شده مانند اطلاعات شرطی و اطلاعات متقابل است. برخلاف بسیاری از کتابها، که به اندازهگیری اطلاعات شانون (SMI) به عنوان «آنتروپی» اشاره میکنند، این کتاب تمایز واضحی بین SMI و آنتروپی ایجاد میکند. در فصل آخر، آنتروپی به عنوان یک مورد خاص از SMI مشتق شده است. مثال های فراوانی ارائه شده است که به خواننده در درک مفاهیم مختلف مورد بحث در این کتاب کمک می کند. مانند کتابهای قبلی نویسنده، هدف این کتاب ارائه واضح و بدون رمز و راز مفهوم اصلی در نظریه اطلاعات است - اندازهگیری اطلاعات شانون. این کتاب مفاهیم بنیادی تئوری اطلاعات را به زبانی ساده و دوستانه ارائه میکند و عاری از انواع اظهارات فانتزی و فانتزی است که توسط نویسندگان کتابهای علمی عامه پسندی که در این زمینه مینویسند، ارائه میشود. این در ارائه اندازه گیری اطلاعات شانون و تمایز واضح بین این مفهوم و آنتروپی ترمودینامیکی منحصر به فرد است. اگرچه برخی از دانش ریاضی مورد نیاز خواننده است، اما تاکید بر مفاهیم و معنای آنها بیشتر بر جزئیات ریاضی نظریه است.
This book is about the definition of the Shannon measure of Information, and some derived quantities such as conditional information and mutual information. Unlike many books, which refer to the Shannon's Measure of information (SMI) as "Entropy," this book makes a clear distinction between the SMI and Entropy. In the last chapter, Entropy is derived as a special case of SMI. Ample examples are provided which help the reader in understanding the different concepts discussed in this book. As with previous books by the author, this book aims at a clear and mystery-free presentation of the central concept in Information theory — the Shannon's Measure of Information. This book presents the fundamental concepts of Information theory in a friendly-simple language and is devoid of all kinds of fancy and pompous statements made by authors of popular science books who write on this subject. It is unique in its presentation of Shannon's measure of information, and the clear distinction between this concept and the thermodynamic entropy. Although some mathematical knowledge is required by the reader, the emphasis is on the concepts and their meaning rather on the mathematical details of the theory.
Contents Preface Acknowledgements Chapter 0: Elements of Probability Theory Chapter 1: Introduction, Definition, and Interpretations of Shannon's Measure of Information Chapter 2: Properties of Shannon's Measure of Information Chapter 3: Conditional and Mutual Information Chapter 4: Multivariate Mutual Information Chapter 5: Entropy and the Second Law of Thermodynamics Appendix A: Proof of an Equivalent Markovian Property Appendix B: Proof of the Uniqueness of the Function H Appendix C: The SMI for the Continuous Random Variable Appendix D: Functional Derivatives and Functional Taylor Expansion Appendix E: Some Inequalities for Convex Functions Appendix F: Distribution Functions in 1D Models Appendix G: Entropy Change in an Expansion Process in a Gravitational Field Notes References and Suggested Reading Index