ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Introduction to Information Theory and Data Compression

دانلود کتاب مقدمه ای بر تئوری اطلاعات و فشرده سازی داده ها

Introduction to Information Theory and Data Compression

مشخصات کتاب

Introduction to Information Theory and Data Compression

دسته بندی: ریاضیات
ویرایش: 2 
نویسندگان: , ,   
سری: Discrete Mathematics and Its Applications 
ISBN (شابک) : 9781584883135, 1584883138 
ناشر: Chapman and Hall/CRC 
سال نشر: 2003 
تعداد صفحات: 362 
زبان: English 
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 5 مگابایت 

قیمت کتاب (تومان) : 43,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 16


در صورت تبدیل فایل کتاب Introduction to Information Theory and Data Compression به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب مقدمه ای بر تئوری اطلاعات و فشرده سازی داده ها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب مقدمه ای بر تئوری اطلاعات و فشرده سازی داده ها

این کتاب حتی اکنون در قرن بیست و یکم پیشرفت می کند! روزی نیست که بگذرد - و منظورم این است که به معنای واقعی کلمه - که از این کتاب برای پیشرفت استفاده نکنم - و منظورم به صورت مجازی است. صبر کنید - نه، منظورم این است که به معنای واقعی کلمه نیز به این فکر کنید، اگر کسی خاک لوم حاصلخیز هنوز شخم نخورده آگاهی را زمینی در نظر بگیرد که از طریق آن این توده باریک "خاک را می چرخاند..." در نظریه نهال. یک تک لپه آزمایشی را در پرتو احتمال بالا می برد، به سرعت در آن قرنیه سرچشمه می گیرد، هر چند که شما آن را با چیچاماکالیت درخشان بنویسید - نظریه اطلاعات یا به سادگی گونه ساده و قدیمی باغ روزمره GENIUS که ما از پیتر دی. جانسون، مخترع پسر انتظار داریم. بیشتر، پروفسور جانسون، بیشتر!


توضیحاتی درمورد کتاب به خارجی

This book breaks ground even now in the 21st Century! There's not a day that goes by - and I mean this literally - that I do not use this book to break ground - and I mean that figuratively. Wait - no, I mean that literally, too, come to think about it, if one considers the as-yet-untilled fertile loam of consciousness the ground through which this slender tome "turns the soil..." When seedling theory raises a tentative monocotyledon into the light of possibility, it quickly wellsprings into that cornucopia however you spell it of brilliant whatchamacallit - information theory or simply the plain old everyday garden variety GENIUS that we have come to expect of Peter D. Johnson, boy inventor. More, Professor Johnson, MORE!!!



فهرست مطالب

Introduction to Information Theory and Data Compression, Second Edition......Page 3
Preface......Page 5
Organization......Page 6
Acknowledgments......Page 7
Contents......Page 9
Bibliography......Page 1
Bibliography......Page 11
1.1 Introduction......Page 12
The D’Alembert-Laplace controversy......Page 13
1.2 Events......Page 14
1.3 Conditional probability......Page 18
Examples......Page 19
1.4 Independence......Page 22
1.5 Bernoulli trials......Page 24
1.6 An elementary counting principle......Page 26
1.7 On drawing without replacement......Page 28
1.8 Random variables and expected, or average, value......Page 29
Examples......Page 30
1.9 The Law of Large Numbers......Page 33
Bibliography......Page 34
2.1 How is information quantified?......Page 35
2.1.1 Naming the units......Page 37
2.1.2 Information connecting two events......Page 39
2.1.3 The inevitability of Shannon’s quantification of information......Page 40
2.2 Systems of events and mutual information......Page 43
2.3 Entropy......Page 50
2.4 Information and entropy......Page 53
Bibliography......Page 55
3.1 Discrete memoryless channels......Page 56
3.2 Transition probabilities and binary symmetric channels......Page 59
3.3 Input frequencies......Page 61
3.4 Channel capacity......Page 65
3.5 Proof of Theorem 3.4.3, on the capacity equations......Page 76
Bibliography......Page 78
4.1 Encoding and decoding......Page 79
4.2 Prefix-condition codes and the Kraft-McMillan inequality......Page 83
4.3 Average code word length and Huffman’s algorithm......Page 87
4.3.1 The validity of Huffman’s algorithm......Page 94
4.4 Optimizing the input frequencies......Page 98
Optimizing the input frequencies, after minimizing…......Page 99
4.5 Error correction, maximum likelihood decoding, nearest code word decoding, and reliability......Page 103
4.6 Shannon’s Noisy Channel Theorem......Page 114
4.7 Error correction with binary symmetric channels and equal source frequencies......Page 119
4.8 The information rate of a code......Page 123
Bibliography......Page 126
Chapter 5: Lossless Data Compression by Replacement Schemes......Page 127
5.1 Replacement via encoding scheme......Page 128
5.2 Review of the prefix condition......Page 131
5.3 Choosing an encoding scheme......Page 134
5.3.1 Shannon’s method......Page 135
5.3.2 Fano’s method......Page 138
5.3.3 Huffman’s algorithm......Page 139
5.4 The Noiseless Coding Theorem and Shannon’s bound......Page 142
Bibliography......Page 147
Chapter 6: Arithmetic Coding......Page 148
6.1 Pure zeroth-order arithmetic coding: dfwld......Page 149
Subdividing to find A (w)......Page 150
Finding the dfwld in a subinterval......Page 151
6.1.1 Rescaling while encoding......Page 153
Rescaling one bit at a time......Page 155
The underflow expansion......Page 156
6.1.2 Decoding......Page 157
6.2 What’s good about dfwld coding: the compression ratio......Page 162
Comments......Page 164
6.3 What’s bad about dfwld coding and some ways to fix it......Page 167
6.3.1 Supplying the source word length......Page 168
6.3.2 Computation......Page 169
6.3.3 Must decoding wait until encoding is completed?......Page 171
6.4 Implementing arithmetic coding......Page 174
Implementation and performance issues......Page 179
Performance......Page 182
Bibliography......Page 186
Chapter 7: Higher-order Modeling......Page 187
7.1 Higher-order Huffman encoding......Page 188
7.2 The Shannon bound for higher-order encoding......Page 192
7.3 Higher-order arithmetic coding......Page 197
7.4 Statistical models, statistics, and the possibly unknowable truth......Page 199
7.5 Probabilistic finite state source automata......Page 203
Simulating a source with a pfssa......Page 207
Bibliography......Page 210
Chapter 8: Adaptive Methods......Page 211
8.1 Adaptive Huffman encoding......Page 212
8.1.1 Compression and readjustment......Page 215
8.1.2 Higher-order adaptive Huffman encoding......Page 216
8.2 Maintaining the tree in adaptive Huffman encoding: the method of Knuth and Gallager......Page 218
8.2.1 Gallager’s method......Page 221
8.2.2 Knuth’s algorithm......Page 222
8.3 Adaptive arithmetic coding......Page 225
8.4.1 Interval encoding......Page 227
8.4.2 Recency rank encoding......Page 230
Bibliography......Page 233
Chapter 9: Dictionary Methods......Page 234
9.1 LZ77 (sliding window) schemes......Page 235
9.1.1 An LZ77 implementation......Page 237
LZRW1......Page 238
9.1.2 Case study: GNU zip......Page 240
9.2 The LZ78 approach......Page 242
9.2.1 The LZW variant......Page 245
9.2.2 Case study: Unix compress......Page 247
Bibliography......Page 249
Chapter 10: Transform Methods and Image Compression......Page 250
10.1 Transforms......Page 252
10.2 Periodic signals and the Fourier transform......Page 254
10.2.1 The Fourier transform and compression: an example......Page 261
10.3 The cosine and sine transforms......Page 272
10.3.1 A general orthogonal transform......Page 275
10.3.2 Summary......Page 276
10.4 Two-dimensional transforms......Page 278
10.4.1 The 2D Fourier, cosine, and sine transforms......Page 280
10.4.2 Matrix expressions for 2D transforms......Page 284
10.5 An application: JPEG image compression......Page 286
10.6 A brief introduction to wavelets......Page 296
10.6.1 2D Haar wavelets......Page 301
Image compression with wavelets......Page 302
10.7 Notes......Page 305
Bibliography......Page 307
Installation......Page 308
Approximation by partial sums......Page 309
Adjusting the quantizer......Page 312
A JPEG enhancement......Page 314
A.2 Reference......Page 319
Bibliography......Page 324
Appendix B: Source Listing for LZRW1-A......Page 325
Definitions and documentation......Page 326
The compress routine......Page 329
The decompress routine......Page 330
The compress header......Page 331
The port header......Page 334
Bibliography......Page 335
C.1 Resources......Page 336
C.2 Data compression and patents......Page 338
The story......Page 341
The counting argument......Page 342
Conclusion......Page 343
Bibliography......Page 344
1.3 Conditional probability......Page 345
1.8 Random variables and expected, or average, value......Page 346
2.3 Entropy......Page 347
3.2 Transition probabilities and binary symmetric channels......Page 348
3.4 Channel capacity......Page 349
4.4 Optimizing the input frequencies......Page 350
5.4 The Noiseless Coding Theorem and Shannon’s bound......Page 351
6.4 Implementing arithmetic coding......Page 352
7.1 Higher-order Huffman encoding......Page 353
9.1 LZ77 (sliding window) schemes......Page 355
10.2 Periodic signals and the Fourier transform......Page 356
10.6 brief introduction toA wavelets......Page 357
Appendix D: Notes on and Solutions to Some Exercises......Page 358
Bibliography......Page 359




نظرات کاربران