دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: ریاضیات ویرایش: 2 نویسندگان: D.C. Hankerson, Greg A. Harris, Peter D. Johnson Jr. سری: Discrete Mathematics and Its Applications ISBN (شابک) : 9781584883135, 1584883138 ناشر: Chapman and Hall/CRC سال نشر: 2003 تعداد صفحات: 362 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 5 مگابایت
در صورت تبدیل فایل کتاب Introduction to Information Theory and Data Compression به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب مقدمه ای بر تئوری اطلاعات و فشرده سازی داده ها نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب حتی اکنون در قرن بیست و یکم پیشرفت می کند! روزی نیست که بگذرد - و منظورم این است که به معنای واقعی کلمه - که از این کتاب برای پیشرفت استفاده نکنم - و منظورم به صورت مجازی است. صبر کنید - نه، منظورم این است که به معنای واقعی کلمه نیز به این فکر کنید، اگر کسی خاک لوم حاصلخیز هنوز شخم نخورده آگاهی را زمینی در نظر بگیرد که از طریق آن این توده باریک "خاک را می چرخاند..." در نظریه نهال. یک تک لپه آزمایشی را در پرتو احتمال بالا می برد، به سرعت در آن قرنیه سرچشمه می گیرد، هر چند که شما آن را با چیچاماکالیت درخشان بنویسید - نظریه اطلاعات یا به سادگی گونه ساده و قدیمی باغ روزمره GENIUS که ما از پیتر دی. جانسون، مخترع پسر انتظار داریم. بیشتر، پروفسور جانسون، بیشتر!
This book breaks ground even now in the 21st Century! There's not a day that goes by - and I mean this literally - that I do not use this book to break ground - and I mean that figuratively. Wait - no, I mean that literally, too, come to think about it, if one considers the as-yet-untilled fertile loam of consciousness the ground through which this slender tome "turns the soil..." When seedling theory raises a tentative monocotyledon into the light of possibility, it quickly wellsprings into that cornucopia however you spell it of brilliant whatchamacallit - information theory or simply the plain old everyday garden variety GENIUS that we have come to expect of Peter D. Johnson, boy inventor. More, Professor Johnson, MORE!!!
Introduction to Information Theory and Data Compression, Second Edition......Page 3
Preface......Page 5
Organization......Page 6
Acknowledgments......Page 7
Contents......Page 9
Bibliography......Page 1
Bibliography......Page 11
1.1 Introduction......Page 12
The D’Alembert-Laplace controversy......Page 13
1.2 Events......Page 14
1.3 Conditional probability......Page 18
Examples......Page 19
1.4 Independence......Page 22
1.5 Bernoulli trials......Page 24
1.6 An elementary counting principle......Page 26
1.7 On drawing without replacement......Page 28
1.8 Random variables and expected, or average, value......Page 29
Examples......Page 30
1.9 The Law of Large Numbers......Page 33
Bibliography......Page 34
2.1 How is information quantified?......Page 35
2.1.1 Naming the units......Page 37
2.1.2 Information connecting two events......Page 39
2.1.3 The inevitability of Shannon’s quantification of information......Page 40
2.2 Systems of events and mutual information......Page 43
2.3 Entropy......Page 50
2.4 Information and entropy......Page 53
Bibliography......Page 55
3.1 Discrete memoryless channels......Page 56
3.2 Transition probabilities and binary symmetric channels......Page 59
3.3 Input frequencies......Page 61
3.4 Channel capacity......Page 65
3.5 Proof of Theorem 3.4.3, on the capacity equations......Page 76
Bibliography......Page 78
4.1 Encoding and decoding......Page 79
4.2 Prefix-condition codes and the Kraft-McMillan inequality......Page 83
4.3 Average code word length and Huffman’s algorithm......Page 87
4.3.1 The validity of Huffman’s algorithm......Page 94
4.4 Optimizing the input frequencies......Page 98
Optimizing the input frequencies, after minimizing…......Page 99
4.5 Error correction, maximum likelihood decoding, nearest code word decoding, and reliability......Page 103
4.6 Shannon’s Noisy Channel Theorem......Page 114
4.7 Error correction with binary symmetric channels and equal source frequencies......Page 119
4.8 The information rate of a code......Page 123
Bibliography......Page 126
Chapter 5: Lossless Data Compression by Replacement Schemes......Page 127
5.1 Replacement via encoding scheme......Page 128
5.2 Review of the prefix condition......Page 131
5.3 Choosing an encoding scheme......Page 134
5.3.1 Shannon’s method......Page 135
5.3.2 Fano’s method......Page 138
5.3.3 Huffman’s algorithm......Page 139
5.4 The Noiseless Coding Theorem and Shannon’s bound......Page 142
Bibliography......Page 147
Chapter 6: Arithmetic Coding......Page 148
6.1 Pure zeroth-order arithmetic coding: dfwld......Page 149
Subdividing to find A (w)......Page 150
Finding the dfwld in a subinterval......Page 151
6.1.1 Rescaling while encoding......Page 153
Rescaling one bit at a time......Page 155
The underflow expansion......Page 156
6.1.2 Decoding......Page 157
6.2 What’s good about dfwld coding: the compression ratio......Page 162
Comments......Page 164
6.3 What’s bad about dfwld coding and some ways to fix it......Page 167
6.3.1 Supplying the source word length......Page 168
6.3.2 Computation......Page 169
6.3.3 Must decoding wait until encoding is completed?......Page 171
6.4 Implementing arithmetic coding......Page 174
Implementation and performance issues......Page 179
Performance......Page 182
Bibliography......Page 186
Chapter 7: Higher-order Modeling......Page 187
7.1 Higher-order Huffman encoding......Page 188
7.2 The Shannon bound for higher-order encoding......Page 192
7.3 Higher-order arithmetic coding......Page 197
7.4 Statistical models, statistics, and the possibly unknowable truth......Page 199
7.5 Probabilistic finite state source automata......Page 203
Simulating a source with a pfssa......Page 207
Bibliography......Page 210
Chapter 8: Adaptive Methods......Page 211
8.1 Adaptive Huffman encoding......Page 212
8.1.1 Compression and readjustment......Page 215
8.1.2 Higher-order adaptive Huffman encoding......Page 216
8.2 Maintaining the tree in adaptive Huffman encoding: the method of Knuth and Gallager......Page 218
8.2.1 Gallager’s method......Page 221
8.2.2 Knuth’s algorithm......Page 222
8.3 Adaptive arithmetic coding......Page 225
8.4.1 Interval encoding......Page 227
8.4.2 Recency rank encoding......Page 230
Bibliography......Page 233
Chapter 9: Dictionary Methods......Page 234
9.1 LZ77 (sliding window) schemes......Page 235
9.1.1 An LZ77 implementation......Page 237
LZRW1......Page 238
9.1.2 Case study: GNU zip......Page 240
9.2 The LZ78 approach......Page 242
9.2.1 The LZW variant......Page 245
9.2.2 Case study: Unix compress......Page 247
Bibliography......Page 249
Chapter 10: Transform Methods and Image Compression......Page 250
10.1 Transforms......Page 252
10.2 Periodic signals and the Fourier transform......Page 254
10.2.1 The Fourier transform and compression: an example......Page 261
10.3 The cosine and sine transforms......Page 272
10.3.1 A general orthogonal transform......Page 275
10.3.2 Summary......Page 276
10.4 Two-dimensional transforms......Page 278
10.4.1 The 2D Fourier, cosine, and sine transforms......Page 280
10.4.2 Matrix expressions for 2D transforms......Page 284
10.5 An application: JPEG image compression......Page 286
10.6 A brief introduction to wavelets......Page 296
10.6.1 2D Haar wavelets......Page 301
Image compression with wavelets......Page 302
10.7 Notes......Page 305
Bibliography......Page 307
Installation......Page 308
Approximation by partial sums......Page 309
Adjusting the quantizer......Page 312
A JPEG enhancement......Page 314
A.2 Reference......Page 319
Bibliography......Page 324
Appendix B: Source Listing for LZRW1-A......Page 325
Definitions and documentation......Page 326
The compress routine......Page 329
The decompress routine......Page 330
The compress header......Page 331
The port header......Page 334
Bibliography......Page 335
C.1 Resources......Page 336
C.2 Data compression and patents......Page 338
The story......Page 341
The counting argument......Page 342
Conclusion......Page 343
Bibliography......Page 344
1.3 Conditional probability......Page 345
1.8 Random variables and expected, or average, value......Page 346
2.3 Entropy......Page 347
3.2 Transition probabilities and binary symmetric channels......Page 348
3.4 Channel capacity......Page 349
4.4 Optimizing the input frequencies......Page 350
5.4 The Noiseless Coding Theorem and Shannon’s bound......Page 351
6.4 Implementing arithmetic coding......Page 352
7.1 Higher-order Huffman encoding......Page 353
9.1 LZ77 (sliding window) schemes......Page 355
10.2 Periodic signals and the Fourier transform......Page 356
10.6 brief introduction toA wavelets......Page 357
Appendix D: Notes on and Solutions to Some Exercises......Page 358
Bibliography......Page 359