ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب New Foundations for Information Theory: Logical Entropy and Shannon Entropy

دانلود کتاب مبانی جدید برای نظریه اطلاعات: آنتروپی منطقی و آنتروپی شانون

New Foundations for Information Theory: Logical Entropy and Shannon Entropy

مشخصات کتاب

New Foundations for Information Theory: Logical Entropy and Shannon Entropy

ویرایش: 1 
نویسندگان:   
سری: SpringerBriefs in Philosophy 
ISBN (شابک) : 3030865517, 9783030865511 
ناشر: Springer 
سال نشر: 2021 
تعداد صفحات: 121 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 2 مگابایت 

قیمت کتاب (تومان) : 47,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 9


در صورت تبدیل فایل کتاب New Foundations for Information Theory: Logical Entropy and Shannon Entropy به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مبانی جدید برای نظریه اطلاعات: آنتروپی منطقی و آنتروپی شانون نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مبانی جدید برای نظریه اطلاعات: آنتروپی منطقی و آنتروپی شانون

این تک نگاری پایه جدیدی برای نظریه اطلاعات ارائه می دهد که مبتنی بر مفهوم اطلاعات به عنوان تمایز است که مستقیماً با آنتروپی منطقی اندازه گیری می شود و بر کمی سازی مجدد به عنوان آنتروپی شانون که مفهوم اساسی برای نظریه کدگذاری و کدگذاری است. ارتباطات.

اطلاعات بر اساس تمایزات، تفاوت ها، قابلیت تمایز و تنوع است. مجموعه‌های اطلاعاتی تعریف می‌شوند که تمایزات ایجاد شده توسط یک پارتیشن را بیان می‌کنند، به‌عنوان مثال، تصویر معکوس یک متغیر تصادفی، بنابراین مفهوم پیش‌احتمال اطلاعات را نشان می‌دهند. سپس آنتروپی منطقی یک اندازه گیری احتمال بر روی مجموعه های اطلاعاتی است، احتمال اینکه در دو آزمایش مستقل، تمایز یا "دیت" پارتیشن به دست آید.

فرمول آنتروپی منطقی مشتق جدیدی از فرمول قدیمی است که به اوایل قرن بیستم باز می گردد و بارها در زمینه های مختلف دوباره استخراج شده است. به عنوان یک اندازه گیری احتمال، تمام مفاهیم ترکیبی آنتروپی منطقی مشترک، شرطی و متقابل فوری هستند. سپس آنتروپی شانون (که به‌عنوان اندازه‌گیری به معنای تئوری اندازه‌گیری تعریف نمی‌شود)  و مفاهیم ترکیبی آن از یک تبدیل غیرخطی بیت به بیت مشتق می‌شوند که تمایز یک متغیر تصادفی را بر حسب بیت‌ها مجدداً کمیت می‌کند. -بنابراین آنتروپی شانون میانگین تعداد تمایزات دودویی یا بیت های لازم برای ایجاد تمام تمایزات متغیر تصادفی است. و با استفاده از روش خطی سازی، تمام مفاهیم مجموعه در این نظریه اطلاعات منطقی به طور طبیعی به فضاهای برداری به طور کلی - و به فضاهای هیلبرت به طور خاص - برای نظریه اطلاعات منطقی کوانتومی که معیار طبیعی تمایزات ایجاد شده در اندازه گیری کوانتومی را ارائه می دهد، گسترش می یابد. /div>
این اثر که محتوای نسبتاً کوتاه اما متراکم دارد، می‌تواند مرجعی برای محققان و دانشجویان فارغ‌التحصیل باشد که در زمینه نظریه اطلاعات، روش‌های حداکثر آنتروپی در فیزیک، مهندسی، و آمار تحقیق می‌کنند. همه کسانی که علاقه خاصی به یک رویکرد جدید به نظریه اطلاعات کوانتومی دارند.

توضیحاتی درمورد کتاب به خارجی

This monograph offers a new foundation for information theory that is based on the notion of information-as-distinctions, being directly measured by logical entropy, and on the re-quantification as Shannon entropy, which is the fundamental concept for the theory of coding and communications.

Information is based on distinctions, differences, distinguishability, and diversity. Information sets are defined that express the distinctions made by a partition, e.g., the inverse-image of a random variable so they represent the pre-probability notion of information. Then logical entropy is a probability measure on the information sets, the probability that on two independent trials, a distinction or “dit” of the partition will be obtained. 

The formula for logical entropy is a new derivation of an old formula that goes back to the early twentieth century and has been re-derived many times in different contexts. As a probability measure, all the compound notions of joint, conditional, and mutual logical entropy are immediate. The Shannon entropy (which is not defined as a measure in the sense of measure theory)  and its compound notions are then derived from a non-linear dit-to-bit transform that re-quantifies the distinctions of a random variable in terms of bits―so the Shannon entropy is the average number of binary distinctions or bits necessary to make all the distinctions of the random variable. And, using a linearization method, all the set concepts in this logical information theory naturally extend to vector spaces in general―and to Hilbert spaces in particular―for quantum logical information theory which provides the natural measure of the distinctions made in quantum measurement.

Relatively short but dense in content, this work can be a reference to researchers and graduate students doing investigations in information theory,  maximum entropy methods in physics, engineering, and statistics, and to all those with a special interest in a new approach to  quantum information theory.


فهرست مطالب

Acknowledgements
About this book
Contents
About the Author
1 Logical Entropy
	1.1 Introduction
	1.2 Logical Information as the Measure of Distinctions
	1.3 Classical Logical Probability and Logical Entropy
	1.4 Information Algebras and Joint Distributions
	1.5 Brief History of the Logical Entropy Formula
	References
2 The Relationship Between Logical Entropy and Shannon Entropy
	2.1 Shannon Entropy
	2.2 Logical Entropy, Not Shannon Entropy, Is a (Non-negative) Measure
	2.3 The Dit-Bit Transform
	References
3 The Compound Notions for Logical and Shannon Entropies
	3.1 Conditional Logical Entropy
	3.2 Shannon Conditional Entropy
	3.3 Logical Mutual Information
	3.4 Shannon Mutual Information
	3.5 Independent Joint Distributions
	3.6 Cross-Entropies, Divergences, and Hamming Distance
		3.6.1 Cross-Entropies
		3.6.2 Divergences
		3.6.3 Hamming Distance
	3.7 Summary of Formulas and Dit-Bit Transforms
	References
4 Further Developments of Logical Entropy
	4.1 Entropies for Multivariate Joint Distributions
	4.2 An Example of Negative Mutual Information for Shannon Entropy
	4.3 Entropies for Countable Probability Distributions
	4.4 Metrical Logical Entropy = (Twice) Variance
	4.5 Boltzmann and Shannon Entropies: A Conceptual Connection?
	4.6 MaxEntropies for Discrete Distributions
	4.7 The Transition to Coding Theory
	4.8 Logical Entropy on Rooted Trees
	References
5 Quantum Logical Information Theory
	5.1 Density Matrix Treatment of Logical Entropy
	5.2 Linearizing Logical Entropy to Quantum Logical Entropy
	5.3 Theorems About Quantum Logical Entropy
	5.4 Quantum Logical Entropies with Density Matrices as Observables
	5.5 The Logical Hamming Distance Between Two Partitions
	5.6 The Quantum Logical Hamming Distance
	References
6 Conclusion
	6.1 Information Theory Re-founded and Re-envisioned
	6.2 Quantum Information Theory Re-envisioned
	6.3 What Is to Be Done?
	References
A Basics of Partition Logic
	A.1 Subset Logic and Partition Logic
	A.2 The Lattice Operations on Partitions
	A.3 Implication and Negation in Partition Logic
	A.4 Relative Negation in Partition Logic and the Boolean Core
	A.5 Partition Tautologies
	References
Index




نظرات کاربران