دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: [1 ed.]
نویسندگان: Dzejla Medjedovic. Emin Tahirovic
سری:
ISBN (شابک) : 1617298034, 9781617298035
ناشر: Manning Publications
سال نشر: 2022
تعداد صفحات: 304
[306]
زبان: English
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 21 Mb
در صورت تبدیل فایل کتاب Algorithms and Data Structures for Massive Datasets به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب الگوریتم ها و ساختارهای داده برای مجموعه داده های عظیم نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
مجموعه دادههای مدرن عظیم، ساختارهای داده سنتی و الگوریتمها را متوقف میکند. این راهنمای سرگرمکننده و کاربردی، تکنیکهای پیشرفتهای را معرفی میکند که میتوانند بهطور قابل اعتمادی حتی بزرگترین مجموعه دادههای توزیعشده را مدیریت کنند. در الگوریتم ها و ساختارهای داده برای مجموعه داده های عظیم یاد خواهید گرفت: • ترسیم احتمالی ساختارهای داده برای مسائل عملی • انتخاب موتور پایگاه داده مناسب برای برنامه شما • ارزیابی و طراحی ساختارهای داده و الگوریتم های کارآمد روی دیسک • درک مبادلات الگوریتمی موجود در سیستم های مقیاس عظیم • استخراج آمار اولیه از جریان داده ها • نمونه برداری صحیح از داده های جریان • محاسبه صدک ها با منابع فضایی محدود الگوریتمها و ساختارهای داده برای مجموعههای داده عظیم جعبه ابزاری از روشهای جدید را نشان میدهد که برای مدیریت برنامههای کلان داده مدرن مناسب هستند. شما ساختارهای داده جدید و الگوریتمهایی را که زیربنای Google، Facebook، و سایر برنامههای کاربردی سازمانی هستند که با مقادیر واقعاً عظیمی از داده کار میکنند، بررسی خواهید کرد. این تکنیک های موثر را می توان در هر رشته ای، از امور مالی گرفته تا تجزیه و تحلیل متن، به کار برد. گرافیک، تصاویر، و مثالهای کاربردی صنعت، ایدههای پیچیده را برای پیادهسازی در پروژههای شما کاربردی میسازد - و هیچ دلیل ریاضی برای معما وجود ندارد. از طریق این راهنمای منحصر به فرد کار کنید، و بدون به خطر انداختن دقت داده های خود، نقطه شیرین صرفه جویی در فضا را پیدا خواهید کرد. در مورد تکنولوژی الگوریتمهای استاندارد و ساختارهای داده ممکن است زمانی که برای مجموعه دادههای توزیعشده بزرگ اعمال میشوند، کند شوند - یا کلاً از کار بیفتند. انتخاب الگوریتم های طراحی شده برای داده های بزرگ باعث صرفه جویی در زمان، افزایش دقت و کاهش هزینه پردازش می شود. این کتاب منحصر به فرد، مقالات تحقیقاتی پیشرفته را به تکنیک های عملی برای ترسیم، پخش جریانی، و سازماندهی مجموعه داده های عظیم روی دیسک و در فضای ابری تقطیر می کند. در مورد کتاب الگوریتم ها و ساختارهای داده برای مجموعه داده های عظیم، تکنیک های پردازش و تجزیه و تحلیل را برای داده های توزیع شده بزرگ معرفی می کند. این راهنمای دوستانه که مملو از داستانهای صنعتی و تصاویر سرگرمکننده است، حتی مفاهیم پیچیده را به راحتی درک میکند. هنگامی که یاد میگیرید الگوریتمهای قدرتمندی مانند فیلترهای بلوم، طرح شمارش دقیقه، HyperLogLog و درختهای LSM را به موارد استفاده خود نگاشت کنید، نمونههای دنیای واقعی را کشف خواهید کرد. داخلش چیه • ساختارهای داده ترسیم احتمالی • انتخاب موتور پایگاه داده مناسب • طراحی ساختارهای داده و الگوریتم های کارآمد روی دیسک • معاوضه های الگوریتمی در سیستم های مقیاس عظیم • محاسبه صدک ها با منابع فضایی محدود درباره خواننده نمونه هایی در پایتون، R و شبه کد. درباره نویسنده ژیلا مدجدوویچ مدرک دکترای خود را در آزمایشگاه الگوریتم های کاربردی در دانشگاه استونی بروک نیویورک گرفت. امین طاهیروویچ دکترای خود را در رشته آمار زیستی از دانشگاه پنسیلوانیا دریافت کرد. اینس ددوویچ تصویرگر مدرک دکترای خود را در موسسه تصویربرداری و بینایی کامپیوتری در دانشگاه RWTH آخن آلمان به دست آورد.
Massive modern datasets make traditional data structures and algorithms grind to a halt. This fun and practical guide introduces cutting-edge techniques that can reliably handle even the largest distributed datasets. In Algorithms and Data Structures for Massive Datasets you will learn: • Probabilistic sketching data structures for practical problems • Choosing the right database engine for your application • Evaluating and designing efficient on-disk data structures and algorithms • Understanding the algorithmic trade-offs involved in massive-scale systems • Deriving basic statistics from streaming data • Correctly sampling streaming data • Computing percentiles with limited space resources Algorithms and Data Structures for Massive Datasets reveals a toolbox of new methods that are perfect for handling modern big data applications. You’ll explore the novel data structures and algorithms that underpin Google, Facebook, and other enterprise applications that work with truly massive amounts of data. These effective techniques can be applied to any discipline, from finance to text analysis. Graphics, illustrations, and hands-on industry examples make complex ideas practical to implement in your projects—and there’s no mathematical proofs to puzzle over. Work through this one-of-a-kind guide, and you’ll find the sweet spot of saving space without sacrificing your data’s accuracy. about the technology Standard algorithms and data structures may become slow—or fail altogether—when applied to large distributed datasets. Choosing algorithms designed for big data saves time, increases accuracy, and reduces processing cost. This unique book distills cutting-edge research papers into practical techniques for sketching, streaming, and organizing massive datasets on-disk and in the cloud. About the book Algorithms and Data Structures for Massive Datasets introduces processing and analytics techniques for large distributed data. Packed with industry stories and entertaining illustrations, this friendly guide makes even complex concepts easy to understand. You’ll explore real-world examples as you learn to map powerful algorithms like Bloom filters, Count-min sketch, HyperLogLog, and LSM-trees to your own use cases. What's inside • Probabilistic sketching data structures • Choosing the right database engine • Designing efficient on-disk data structures and algorithms • Algorithmic tradeoffs in massive-scale systems • Computing percentiles with limited space resources About the reader Examples in Python, R, and pseudocode. About the author Dzejla Medjedovic earned her PhD in the Applied Algorithms Lab at Stony Brook University, New York. Emin Tahirovic earned his PhD in biostatistics from University of Pennsylvania. Illustrator Ines Dedovic earned her PhD at the Institute for Imaging and Computer Vision at RWTH Aachen University, Germany.
Algorithms and Data Structures for Massive Datasets brief contents contents preface acknowledgments about this book Who should read this book How this book is organized: A road map About the code liveBook discussion forum about the authors about the cover illustration 1 Introduction 1.1 An example 1.1.1 An example: How to solve it 1.1.2 How to solve it, take two: A book walkthrough 1.2 The structure of this book 1.3 What makes this book different and whom it is for 1.4 Why is massive data so challenging for today’s systems? 1.4.1 The CPU memory performance gap 1.4.2 Memory hierarchy 1.4.3 Latency vs. bandwidth 1.4.4 What about distributed systems? 1.5 Designing algorithms with hardware in mind Summary Part 1—Hash-based sketches 2 Review of hash tables and modern hashing 2.1 Ubiquitous hashing 2.2 A crash course on data structures 2.3 Usage scenarios in modern systems 2.3.1 Deduplication in backup/storage solutions 2.3.2 Plagiarism detection with MOSS and Rabin–Karp fingerprinting 2.4 O(1)—What's the big deal? 2.5 Collision resolution: Theory vs. practice 2.6 Usage scenario: How Python’s dict does it 2.7 MurmurHash 2.8 Hash tables for distributed systems: Consistent hashing 2.8.1 A typical hashing problem 2.8.2 Hashring 2.8.3 Lookup 2.8.4 Adding a new node/resource 2.8.5 Removing a node 2.8.6 Consistent hashing scenario: Chord 2.8.7 Consistent hashing: Programming exercises Summary 3 Approximate membership: Bloom and quotient filters 3.1 How it works 3.1.1 Insert 3.1.2 Lookup 3.2 Use cases 3.2.1 Bloom filters in networks: Squid 3.2.2 Bitcoin mobile app 3.3 A simple implementation 3.4 Configuring a Bloom filter 3.4.1 Playing with Bloom filters: Mini experiments 3.5 A bit of theory 3.5.1 Can we do better? 3.6 Bloom filter adaptations and alternatives 3.7 Quotient filter 3.7.1 Quotienting 3.7.2 Understanding metadata bits 3.7.3 Inserting into a quotient filter: An example 3.7.4 Python code for lookup 3.7.5 Resizing and merging 3.7.6 False positive rate and space considerations 3.8 Comparison between Bloom filters and quotient filters Summary 4 Frequency estimation and count-min sketch 4.1 Majority element 4.1.1 General heavy hitters 4.2 Count-min sketch: How it works 4.2.1 Update 4.2.2 Estimate 4.3 Use cases 4.3.1 Top-k restless sleepers 4.3.2 Scaling the distributional similarity of words 4.4 Error vs. space in count-min sketch 4.5 A simple implementation of count-min sketch 4.5.1 Exercises 4.5.2 Intuition behind the formula: Math bit 4.6 Range queries with count-min sketch 4.6.1 Dyadic intervals 4.6.2 Update phase 4.6.3 Estimate phase 4.6.4 Computing dyadic intervals Summary 5 Cardinality estimation and HyperLogLog 5.1 Counting distinct items in databases 5.2 HyperLogLog incremental design 5.2.1 The first cut: Probabilistic counting 5.2.2 Stochastic averaging, or “when life gives you lemons” 5.2.3 LogLog 5.2.4 HyperLogLog: Stochastic averaging with harmonic mean 5.3 Use case: Catching worms with HLL 5.4 But how does it work? A mini experiment 5.4.1 The effect of the number of buckets (m) 5.5 Use case: Aggregation using HyperLogLog Summary Part 2—Real-time analytics 6 Streaming data: Bringing everything together 6.1 Streaming data system: A meta example 6.1.1 Bloom-join 6.1.2 Deduplication 6.1.3 Load balancing and tracking the network traffic 6.2 Practical constraints and concepts in data streams 6.2.1 In real time 6.2.2 Small time and small space 6.2.3 Concept shifts and concept drifts 6.2.4 Sliding window model 6.3 Math bit: Sampling and estimation 6.3.1 Biased sampling strategy 6.3.2 Estimation from a representative sample Summary 7 Sampling from data streams 7.1 Sampling from a landmark stream 7.1.1 Bernoulli sampling 7.1.2 Reservoir sampling 7.1.3 Biased reservoir sampling 7.2 Sampling from a sliding window 7.2.1 Chain sampling 7.2.2 Priority sampling 7.3 Sampling algorithms comparison 7.3.1 Simulation setup: Algorithms and data Summary 8 Approximate quantiles on data streams 8.1 Exact quantiles 8.2 Approximate quantiles 8.2.1 Additive error 8.2.2 Relative error 8.2.3 Relative error in the data domain 8.3 T-digest: How it works 8.3.1 Digest 8.3.2 Scale functions 8.3.3 Merging t-digests 8.3.4 Space bounds for t-digest 8.4 Q-digest 8.4.1 Constructing a q-digest from scratch 8.4.2 Merging q-digests 8.4.3 Error and space considerations in q-digests 8.4.4 Quantile queries with q-digests 8.5 Simulation code and results Summary Part 3—Data structures for databases and external memory algorithms 9 Introducing the external memory model 9.1 External memory model: The preliminaries 9.2 Example 1: Finding a minimum 9.2.1 Use case: Minimum median income 9.3 Example 2: Binary search 9.3.1 Bioinformatics use case 9.3.2 Runtime analysis 9.4 Optimal searching 9.5 Example 3: Merging K sorted lists 9.5.1 Merging time/date logs 9.5.2 External memory model: Simple or simplistic? 9.6 What’s next Summary 10 Data structures for databases: B-trees, Be-trees, and LSM-trees 10.1 How indexing works 10.2 Data structures in this chapter 10.3 B-trees 10.3.1 B-tree balancing 10.3.2 Lookup 10.3.3 Insert 10.3.4 Delete 10.3.5 B+-trees 10.3.6 How operations on a B+-tree are different 10.3.7 Use case: B-trees in MySQL (and many other places) 10.4 Math bit: Why are B-tree lookups optimal in external memory? 10.4.1 Why B-tree inserts/deletes are not optimal in external memory 10.5 Be-trees 10.5.1 Be-tree: How it works 10.5.2 Buffering mechanics 10.5.3 Inserts and deletes 10.5.4 Lookups 10.5.5 Cost analysis 10.5.6 Be-tree: The spectrum of data structures 10.5.7 Use case: Be-trees in TokuDB 10.5.8 Make haste slowly, the I/O way 10.6 Log-structured merge-trees (LSM-trees) 10.6.1 The LSM-tree: How it works 10.6.2 LSM-tree cost analysis 10.6.3 Use case: LSM-trees in Cassandra Summary 11 External memory sorting 11.1 Sorting use cases 11.1.1 Robot motion planning 11.1.2 Cancer genomics 11.2 Challenges of sorting in external memory: An example 11.2.1 Two-way merge-sort in external memory 11.3 External memory merge-sort (M/B-way merge-sort) 11.3.1 Searching and sorting in RAM vs. external memory 11.4 What about external quick-sort? 11.4.1 External memory two-way quick-sort 11.4.2 Toward external memory multiway quick-sort 11.4.3 Finding enough pivots 11.4.4 Finding good enough pivots 11.4.5 Putting it all back together 11.5 Math bit: Why is external memory merge-sort optimal? 11.6 Wrapping up Summary references Chapter 1 Chapter 2 Chapter 3 Chapter 4 Chapter 5 Chapter 6 Chapter 7 Chapter 8 Chapter 9 Chapter 10 Chapter 11 index Numerics A B C D E F G H I K L M N O P Q R S T U V W