دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: سایبرنتیک: هوش مصنوعی ویرایش: 1 نویسندگان: John T. Wolohan سری: ISBN (شابک) : 1617296236, 9781617296239 ناشر: Manning سال نشر: 2020 تعداد صفحات: 311 زبان: English فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 17 مگابایت
کلمات کلیدی مربوط به کتاب تسلط بر مجموعه داده های بزرگ با پایتون: کد پایتون خود را موازی و توزیع کنید: یادگیری ماشینی، تجزیه و تحلیل داده، پایتون، دادههای بزرگ، برنامهنویسی موازی، Apache Spark، خطوط لوله، پردازش دستهای، Apache Hadoop، بهترین روشها، تنبلی، توییتر، PySpark، Spark SQL، PageRank، AWS Elastic MapReduce، AWS Simple Storage Service
در صورت تبدیل فایل کتاب Mastering Large Datasets with Python: Parallelize and Distribute Your Python Code به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب تسلط بر مجموعه داده های بزرگ با پایتون: کد پایتون خود را موازی و توزیع کنید نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
راه حل های علوم داده مدرن باید تمیز، آسان برای خواندن و مقیاس پذیر باشند. در تسلط بر مجموعه داده های بزرگ با پایتون، نویسنده J.T. Wolohan به شما می آموزد که چگونه یک پروژه کوچک را انجام دهید و آن را با استفاده از یک رویکرد تحت تأثیر عملکردی برای کدنویسی پایتون، مقیاس بندی کنید. شما روشها و ابزارهای داخلی پایتون را بررسی خواهید کرد که خود را به وضوح و مقیاسپذیری میدهند، مانند روش موازیسازی با کارایی بالا، و همچنین فناوریهای توزیعشده که امکان خروجی داده بالا را فراهم میکنند. تمرینهای عملی فراوان در این آموزش عملی، این مهارتهای ضروری را برای هر پروژه علمی داده در مقیاس بزرگ قفل میکند. در مورد تکنولوژی تکنیکهای برنامهنویسی که به خوبی روی دادههای اندازه لپتاپ کار میکنند، زمانی که روی فایلهای عظیم یا مجموعه دادههای توزیعشده اعمال میشوند، میتوانند تا حد خزیدن کند شوند - یا به طور کلی شکست بخورند. با تسلط بر نقشه قدرتمند و پارادایم کاهش، همراه با ابزارهای مبتنی بر پایتون که از آن پشتیبانی میکنند، میتوانید برنامههای مبتنی بر داده را بنویسید که با تغییر نیازمندیهای شما، بدون نیاز به بازنویسی پایگاه کد، مقیاس کارآمدی داشته باشند. در مورد کتاب تسلط بر مجموعه داده های بزرگ با پایتون به شما می آموزد که کدی بنویسید که بتواند مجموعه داده ها را با هر اندازه ای مدیریت کند. شما با مجموعه دادههایی در اندازه لپتاپ شروع میکنید که به شما میآموزند تجزیه و تحلیل دادهها را با تقسیم کارهای بزرگ به کارهای کوچکتر که میتوانند به طور همزمان اجرا شوند، موازیسازی کنید. سپس همان برنامهها را به مجموعه دادههایی با اندازه صنعتی در خوشهای از سرورهای ابری مقیاس میدهید. با وجود نقشه و کاهش پارادایم، ابزارهایی مانند Hadoop و PySpark را برای پردازش کارآمد مجموعه داده های توزیع شده گسترده، سرعت بخشیدن به تصمیم گیری با یادگیری ماشینی و ساده سازی ذخیره سازی داده های خود با AWS S3 کاوش خواهید کرد. داخلش چیه • مقدمه ای بر نقشه و کاهش پارادایم • موازی سازی با ماژول چند پردازشی و چارچوب پاتوس • Hadoop و Spark برای محاسبات توزیع شده • اجرای کارهای AWS برای پردازش مجموعه داده های بزرگ درباره خواننده برای برنامه نویسان پایتون که باید سریعتر با داده های بیشتری کار کنند. درباره نویسنده J. T. Wolohan دانشمند ارشد داده در Booz Allen Hamilton و محقق دکترا در دانشگاه ایندیانا، Bloomington است.
Modern data science solutions need to be clean, easy to read, and scalable. In Mastering Large Datasets with Python, author J.T. Wolohan teaches you how to take a small project and scale it up using a functionally influenced approach to Python coding. You’ll explore methods and built-in Python tools that lend themselves to clarity and scalability, like the high-performing parallelism method, as well as distributed technologies that allow for high data throughput. The abundant hands-on exercises in this practical tutorial will lock in these essential skills for any large-scale data science project. About the technology Programming techniques that work well on laptop-sized data can slow to a crawl—or fail altogether—when applied to massive files or distributed datasets. By mastering the powerful map and reduce paradigm, along with the Python-based tools that support it, you can write data-centric applications that scale efficiently without requiring codebase rewrites as your requirements change. About the book Mastering Large Datasets with Python teaches you to write code that can handle datasets of any size. You’ll start with laptop-sized datasets that teach you to parallelize data analysis by breaking large tasks into smaller ones that can run simultaneously. You’ll then scale those same programs to industrial-sized datasets on a cluster of cloud servers. With the map and reduce paradigm firmly in place, you’ll explore tools like Hadoop and PySpark to efficiently process massive distributed datasets, speed up decision-making with machine learning, and simplify your data storage with AWS S3. What's inside • An introduction to the map and reduce paradigm • Parallelization with the multiprocessing module and pathos framework • Hadoop and Spark for distributed computing • Running AWS jobs to process large datasets About the reader For Python programmers who need to work faster with more data. About the author J. T. Wolohan is a lead data scientist at Booz Allen Hamilton, and a PhD researcher at Indiana University, Bloomington.
PART 1 1. Introduction 2. Accelerating large dataset work: Map and parallel computing 3. Function pipelines for mapping complex transformations 4. Processing large datasets with lazy workflows 5. Accumulation operations with reduce 6. Speeding up map and reduce with advanced parallelization PART 2 7. Processing truly big datasets with Hadoop and Spark 8. Best practices for large data with Apache Streaming and mrjob 9. PageRank with map and reduce in PySpark 10. Faster decision-making with machine learning and PySpark PART 3 11. Large datasets in the cloud with Amazon Web Services and S3 12. MapReduce in the cloud with Amazon’s Elastic MapReduce